¿cuanta gente a visto el blog?

METODOLOGIA DE LA INVESTIGACION Parcial 1

https://prezi.com/user/vpvhk1fjclhv/


Universidad Técnica de Ambato
Facultad de Ingeniería en Sistemas, Electrónica e Industrial
Carrera de Telecomunicaciones

Asignatura: Metodología de La investigación
Alumno: Kevin Iván Díaz Solís
Propone: Dr. Ing. Percy Alberto Ríos Villacorta
Cuidad: Ambato
Fecha de entrega: 31 de mayo de 2020

  
ÍNDICE
1.       Caratula _____________________________________________________________________1
2.       Índice ______________________________________________________________________2
3.       Paper 1_ Análisis del servicio de video streaming basado en el algoritmo FDASH sobre LTE ___________3
3.1.   Problema ________________________________________________________________3
3.2.   Solución ________________________________________________________________3
4.       Paper 2_ Modelo ontológico de navegación en la red para personas con discapacidad visual __4
4.1.   Problema ________________________________________________________________4
4.2.   Solución ________________________________________________________________4
5.       Paper 3_ Un algoritmo de control de flujo para redes de computadoras de alta velocidad ____________________________________________________________________________5
5.1.   Problema ________________________________________________________________5
5.2.   Solución ________________________________________________________________5
6.       Paper 4_ Un algoritmo de control de potencia para WLAN basado en Teoría de Juegos_______6
6.1.   Problema ________________________________________________________________6
6.2.   Solución ________________________________________________________________6
7.       Conclusión general ____________________________________________________________7
8.       Bibliografía __________________________________________________________________7

3. Paper 1_Análisis del servicio de video streaming basado en el algoritmo FDASH sobre LTE.
3.1 Problema:
A diario, se hacen transmisiones en vivo vía internet, ya sea para dar clases en línea, jugar video juegos, reuniones en línea, entretenimiento, mediante plataformas como Facebook live, YouTube live, twitch, zoom, Microsoft teams, google meet, entre otros. A estas transmisiones se las llama “Video streaming “esto mismo genera mucho tráfico en la red, y cuando hay mucho tráfico en la red ocurren problemas como el retraso en la transmisión, la perdida de paquetes, detención de la transmisión, disminución del rendimiento y de la calidad de transmisión.
El sistema 3GPP LTE permite transmisiones con alta velocidad de datos y baja latencia de datos en las redes móviles de evolución de largo plazo LTE, pero los videos streaming requieren de grandes recursos de ancho de banda sin importar el tamaño del archivo por transmitir. Solo En 2016, el 60% del tráfico en redes sociales fue por transmisiones en directo, hoy en 2020 por la emergencia sanitaria, las personas se ven obligadas a hacer teletrabajo por lo que la demanda de servicio streaming es aún mayor, aumenta el tráfico por lo que los problemas anteriormente mencionados aumentaran.
3.2 Solución:
3GPP desarrollo el estándar para comunicaciones móviles LTE, es para transmisión de datos de alta velocidad. Para evitar los problemas anteriormente mencionados se recure al algoritmo DASH, que significa protocolo de Streaming Adaptivo Dinámico sobre HTPP, el cual ha sido seleccionado por 3GPP Release 12 para la transmisión de video en las redes LTE, debido a que realiza una transmisión de bits adaptiva a diferentes velocidades, adaptando los bits usados al ancho de banda disponible utilizando variaciones en parámetros de calidad de servicio.
 Existe una variante del algoritmo DASH para streaming, es FDASH, la f viene del inglés Fuzzy que significa difusa, puesto que en la transmisión se carece de claridad o precisión. el algoritmo FDASH tiene la función de buscar que velocidad de bits es apropiada para el video, de esta manera puede maximizar la calidad, Gracias a este proceso de FDASH se puede reproducir contenidos desde cualquier dispositivo. DASH entrega formatos de distribución para una mejor entrega dependiendo la calidad de función y dispositivo automáticos y modificables, mientras que FDASH como algoritmo de adaptación de velocidad en videos streaming, ajusta eficazmente la velocidad del video dependiendo las condiciones de red en cada momento. FDASH inicia dando a todos los usuarios la misma tasa de bits por un corto tiempo, sube o baja la tasa de bits a cada usuario usando en la lógica difusa, toma decisiones a partir de información indeterminada y aproximada.
La prueba de FDASH sobre la calidad de servicio consistió en un simulador de computadora donde se agregan más usuarios , en esta simulación se usaron herramientas como Opnet Modeler, que escala modelos jerárquicos los cuales representan la estructura de redes reales y se implementan en sistemas operativos  como Windows ; OMNeT++ un simulador de tráfico congestionado en redes; y ns-3 un software nacido como proyecto de código libre para el desarrollo e investigación de redes inalámbricas para  la comunidad académica de investigación. En esta prueba se simulo una transmisión con un usuario con ancho de banda variado, la segunda prueba fue una red con ancho de banda variado con 10 personas. la tercera prueba fue con 23 personas y finalmente se simulo un escenario con hardover, una situación donde la calidad es insuficiente.
En la primera prueba la resolución de transmisión vario entre 1920 X 1080, y, 424 x 240 manteniendo el rendimiento, no hubo perdida de paquetes ni detención de la reproducción. En la prueba de 10 usuarios hubo retardo de 29,41 ms sin pérdida de paquetes. Con hardover no pudo estabilizarse, tubo retardo de 17,27 ms, pero sin detención de transmisión. La última prueba con hardover y 10 usuarios se perdió el 0.71% de los paquetes y obtuvo un retardo de 22,99 ms, aun así, se lo considera uno de los algoritmos más viables para los videos streaming debido a su adaptabilidad a diferentes condiciones y exigencias de la tecnología inalámbrica móvil LTE-
4. Paper 2_ Modelo ontológico de navegación en la red para personas con discapacidad visual
 4.1 Problema:
Hoy en día internet es una herramienta muy útil para buscar información, las personas la usan a diario para distintas actividades, desde pasar un rato entretenido hasta aprender, pero las personas no videntes no pueden usar internet al no poder visualizar la información del monitor, necesitando de la ayuda de otra persona para poder guiarse en internet. Y siendo el 2.7% de la población no vidente. Existen programas como jaws que leen los elementos señalados en el monitor, pero en una página web, pues el lector invidente no podrá identificar que elementos le sirven y cuáles no, el programa leería lo que señala y no lo verdaderamente importante de la página. No hay un sistema que identifique que elementos son importantes en la mismo, afectando que estas personas no puedan interpretar bien la información.
4.2 Solución:
Para poder ayudar a las personas no videntes a navegar en internet, se han creado algunas normas y programas. Como la iniciativa Convertic, mediante herramientas web semánticas, estándares y recomendaciones de ICONTEC y la W3C se hace una web etiquetada para que pueda ser escuchada mediante un lector de pantalla; Otro es el modelo MODS que usa el lenguaje ontológico. para poder interpretar consultas hechas en lenguaje natural
El Modelo de Interfaz Adaptativa basada en Perfiles de Usuario y Ontologías para Recomendación de Objetos de Aprendizaje de Quiroz, Salazar y Ovalle se plantea una interfaz que se adapte a las interferencias conectivas, Es un software que interpreta y traduce la página web del idioma natural al idioma otro en 4 etapas, la especificación, dónde define la página web visitada de manera semántica; la conceptualización, donde identifica la transcripción semántica; formalización, implementación; donde el código generado con http y mantenimiento donde finalmente valida metadatos y etiquetas con WCGA. , así representa el conocimiento, así facilita el proceso de escribir metadatos para que los lectores de pantalla puedan leerlo a una persona ciega, funciona de manera similar a los cursos Virtuales Adaptativos, que son herramientas que guían al alumno usando la norma W3C y la Norma Técnica Colombiana NTC 5854.
Las jerarquías de los componentes modulados con la que adapta semánticamente la página web    son : Primero Elementos HTML como Contendores , barra de navegación , Botones , Tablas, Campos de Texto, Formularios, Listas, Encabezados, Enlaces, Imagen, Pie de página, Sección, Artículo ,Entrada de texto ,Texto, DOM ; luego Términos Ontológicos tales como Clases, Subclases ,Propiedades de datos, Propiedades de objeto, Instancias, Pre jos, OWL, RDF, después Propiedades de Dublín Core, Propiedades WAI-AIRA ,HTML Propiedades generales y por último subclases. Así agregando anotaciones semánticas a cada componente.
Para hacer todo esto solo es necesario instalar WAVE en google crome y habilitar la extensión al hacer clic en su icono. este modelo ayuda en la navegación web para discapacitados visuales, la desventaja es que las imágenes, videos y audios no son tomados en cuenta correctamente, confundiendo ocasionalmente los anuncios publicitarios con información relevante.
En las pruebas de este algoritmo las personas invidentes pudieron hacer la investigación y el trabajo en el triple de tiempo que le toma una persona vidente.
5. Paper3_ Un algoritmo de control de flujo para redes de computadoras de alta velocidad
 5.1 Problema:
Las redes de computadoras almacenan y retransmiten nodos y enlaces de comunicación topológicamente, cuando se sobrepasa su capacidad de almacenamiento hay saturación y congestión, retransmitiéndose esos nudos con una instancia superior. Sufriendo problemas de estabilidad en una dinámica oscilatoria requiriendo de un búfer mayor para evitar perdida de datos. por lo que hay que buscar una solución a la congestión.
5.2 Solución:
Se propone un algoritmo interactivo con el trafico VBR que estabiliza el sistema de red y controla los flujos, este algoritmo se encuentra basado en algoritmos como el ATM usado entre 1992 y 2000, para el control de tráfico se usaba un algoritmo que tiene por base el algoritmo ABR donde en caso de que la longitud de cola del  conmutador supere el umbral de aceptación, establecerá un dígito binario en la célula de control de admisión; el algoritmo para la gestión del tráfico de AIR que  divide el ancho de banda disponible tras calcular las tasas de entrada para las conexiones activas; El algoritmo de control AVR que rechaza las perturbaciones, cuando el ancho de banda disponible actúa como una perturbación.; el algoritmo de control frecuencia para fuentes ABR el cual trabaja con control estocástico, en el mismo la perturbación es auto regresiva; el algoritmo de Control de congestión a alta velocidad de redes de comunicación usando el Principio de Smith , cuando un búfer FIFO se encuentre en los enlaces de salida  deriva un control el tiempo .
Se diseña entonces un algoritmo en base a la teoría de control discreto que satisface los requisitos de control. los paquetes entran en la red desde nodos fuente ubicados en sus bordes y luego se almacenan y reenvían a lo largo de una secuencia compuesta por nodos intermedios y enlaces de interconexión llegando finalmente a sus nodos de destino. Este sistema también hace buen uso de la memoria mientras todas las conexiones estén muy cargadas, pero es deficiente si algunas de ellas no se encuentran en esta condición. Es claro, entonces, que mientras más simple sea la administración del buffer más simple se hace el problema todas las conexiones se encuentran muy cargadas y que se divide el ancho de banda promedio disponible. El tiempo que tarda cada nodo en obtener servicio es finito.
La tasa de envío del nodo de origen es la entrada, así como el nivel de la cola del cuello de botella es la salida. Cuando se envía una trama se inicia un temporizador para comprobar cuánto tarda en ser enviado y recibido. el acuse de recibo indicara si tarda demasiado tiempo. Si el acuse de recibo regresa a tiempo TCP medirá el tiempo de cuánto tardó y actualiza el RTT. los parámetros viables no cambian de modo importante La longitud de la cola del buffer, sino que la misma se ajusta prontamente a un valor determinado. El algoritmo mencionado es discreto, eficaz y fácil de implementar.
6. Un algoritmo de control de potencia para WLAN basado en Teoría de Juegos
 6.1 Problema:
Wlan es la ubicuidad y el amplio despliegue de redes inalámbricas de área local, la gran cantidad de redes inalámbricas aumenta la interferencia. Los dispositivos móviles de Wlan funcionan con baterías recargables, tales baterías se desgastan más rápido cuando el dispositivo hace demasiados trabajos simultáneamente, como un celular que tiene muchas aplicaciones que requieren acceso a internet, se consume la banda ancha en esas aplicaciones y el uso continuo disminuya la vida útil de la batería.
Otro defecto se presenta en que mientras más alejando está el dispositivo de la red, también llamado AP, la señal será menor. Las redes inalámbricas, flexible y de bajo costo de implementación dan soporte a implementaciones como el internet de las cosas. El despliegue masivo de estas redes, la aparición de nuevos servicios, y el crecimiento del tráfico multimedia consecuencia de la emergencia sanitaria requieren el adecuado diseño, planificación, y despliegue de las redes inalámbricas. Por eso se necesita un control de potencia
6.2 Solución:
La teoría de los juegos o equilibrio de Nash estudia las situaciones en las que las acciones de los individuos como sus resultados dependen de las acciones que otros llevan a cabo. Propone una interdependencia estratégica, dependiendo que acciones hagan los participantes se podrá sacar el mejor resultado para todos los participantes. Con esta idea el algoritmo maximiza la velocidad de transmisión de datos de usuario y de datos promedio del sistema, asignando de mejor manejo de los recursos.
El algoritmo TPC elige la potencia de Transmisión dependiendo la distancia, el algoritmo de control de potencia es de lazo cerrado, a consecuencia el AP, el dispositivo que distribuye internet realimenta a las STA por medio de parámetros de control, en las STA se extrae esa información y se ejecuta el algoritmo, en el cual cada STA puede elegir entre 15 niveles discretos de potencia en el rango de -3,32 dBm a 19,99 dBm. así En su experimentación configuro las potencias de transmisión de 0,17 dBm, 3,64 dBm, 8,9 dBm, 12,17 dBm y 15,59 dBm para las distancias de 4m, 8m, 12m, 16m y 20m, respectivamente, mientras aumentaba la distancia, el algoritmo aumentaba la potencia. Esto demostró que el control de control potencia incide positivamente el desempeño de la red
El algoritmo se encuentra basado en el algoritmo iterativo de control de potencia ; en el algoritmo SINR para las STA asociadas a un Punto de Acceso ;también con  OpenWrt, la aplicación Wireless Tools de Linux puede controlar la información de las tarjetas inalámbricas de los dispositivos e implementar un algoritmo que utiliza el Indicador de Intensidad de Señal 79 ,que  controla la potencia y la velocidad de transmisión de datos conjuntamente a través de una interfaz de comunicación entre el nivel Físico  y el nivel MAC . La comunicación implementada es bidireccional, el dispositivo recibe y da información, también se cambió la configuración del AP para calcular la SNR de la comunicación de cada STA y posteriormente envíe este valor de retorno hacia las STA utilizando los primeros 2 bytes del campo de datos de la trama MAC, en las STA se extrae esa información y se ejecuta el algoritmo. Se modificó el controlador del USRP para que incluyera GNU Radio y pudiera asignar la potencia de transmisión. En el AP y en la STA se incluyen algoritmos de verificación de las direcciones MAC para que la información llegue al destino correcto. Estos sistemas de algoritmos de control de potencia reducen la interferencia, mejoran el rendimiento de la red, disminuyen la FER y aumentan la velocidad de datos.
El algoritmo también decide que aplicaciones no requieren de internet o son innecesarias, al reducir el uso de aplicaciones innecesarias incrementa la eficiencia energética, aumentando la duración de las baterías y disminuye el nivel de interferencia al usar la red solo para un propósito. La experimentación mostro que el rendimiento y el desempeño fueron superiores con el algoritmo TPC en comparación cuando no se lo incluyo.
7. Conclusión general
Este trabajo me  ayudó a expandir mi conocimiento    sobre algoritmos , aprendí que los algoritmos hacen más accesible y fácil el acceso a internet,  mediante innovadoras ideas ; para el primer problema se soluciona con el algoritmo FDASH que adapta la calidad de transmisión con tal de que no se interrumpa; para el segundo problema se usa el programa WAVE, el cual clasifica los contenidos de las páginas web y las lee para gente invidente , en el tercer problema se usa el algoritmo interactivo con el trafico VBR , que mejora rendimiento de las redes de computadoras , controla la congestión y al ajustar la taza de envió  al dividir el ancho de banda según la necesidad de la máquina ; para el cuarto problema se creó el algoritmo TPC que configura automáticamente la potencia de transmisión dependiendo la distancia del dispositivo y otros cambios de escenario y modalidad, reduciendo el consumo de energía
Los algoritmos ayudan a las personas en internet, aumentan el desempeño de la red, permiten trabajar sin interacciones, ahorrar energía y hasta ayudarlos a entender si es necesario. Ninguno de estos algoritmos fue hecho desde cero, todos usaron de base algoritmos o programas anteriores y se les añadieron nuevas funciones, y trabajan en colaboración con otros programas.
8. Bibliografía
W. Y. Campo Muñoz, A. F. Escobar Zapatab, J. C. Imbachi Pazc, “Análisis del servicio de video streaming basado en el algoritmo FDASH sobre LTE”, Revista Ciencia e Ingeniería Neogranadina, Vol. 29, pp. 67-80, octubre 2018
J. A. Gil, P. A. Gaona García, C E. Montenegro-Marín, y A. C. Gómez-Acosta, “Modelo ontológico de navegación en la red para personas con discapacidad visual” Información Tecnológica, Vol. 31,
pp. 31-46, diciembre 2019
G. M. Naveas, Manuel Vargas Guzmán, “Un algoritmo de control de flujo para redes de computadoras de alta velocidad”, Ingeniare. Revista chilena de ingeniería, vol. 28, pp. 24-30, octubre 2020
C.E. Caicedo, A. J. Pabón. V. F. Mirama,” Un algoritmo de control de potencia para WLAN basado
en Teoría de Juegos” Entre Ciencia e Ingeniería, Vol. 13, pp. 77-84, mayo 2019   


Universidad Técnica de Ambato
Facultad de Ingeniería en Sistemas, Electrónica e Industrial

Carrera de Telecomunicaciones


Asignatura: Metodología de La investigación
Nombre y Apellidos: Kevin Iván Díaz Solís
Docente: Dr. Ing. Percy Alberto Ríos Villacorta
Tema: Diseño e Implementación de algoritmo híbrido multifuncion de control de flujo para redes de computadoras de alta velocidad en Ambato
PAE 3: Micro ensayos de artículos científicos.
Nivel: Primero A
Cuidad y Fecha de entrega: Ambato 23 de mayo de 2020
Ciclo Académico: Abril – septiembre 2020
  
ÍNDICE
1.       Caratula _____________________________________________________________________1
2.       Índice ______________________________________________________________________2
3.       Paper 1_Un algoritmo de control de flujo para redes de computadoras de alta velocidad____________________________________________________________________3
3.1.   Justificación _____________________________________________________________3
3.2.   Bloque de diseño _________________________________________________________3
3.3.   Bloque de Simulación ______________________________________________________3
3.4.   Bloque de Construcción ____________________________________________________4
3.5.   Bloque de Validación ______________________________________________________4
4.       Paper 2_ Un análisis de comportamiento entre distintos mecanismos de control de congestión ensayados sobre una topología mixta_____________________________________________4
4.1.   Justificación _____________________________________________________________4
4.2.   Bloque de diseño _________________________________________________________4
4.3.   Bloque de Simulación ______________________________________________________5
4.4.   Bloque de Construcción ____________________________________________________6
4.5.   Bloque de Validación ______________________________________________________6
5.       Conclusión general ____________________________________________________________7
6.       Bibliografía __________________________________________________________________7

3.Un algoritmo de control de flujo para redes de computadoras de alta velocidad
3.1 Justificación  
Basándose en la teoría del control y la teoría de sistemas de tiempo continuo, para controlar los flujos. representados en la gráfica de la Figura 1.0.
Los paquetes de información por medio de nodos entran a la red general, se almacenan y se reenvían a través de nodos intermedios puestos en secuencia y enlaces de interconexión para finalmente llegar a su nodo de destino. la gráfica representa una red de almacenamiento corriente, S es el nodo fuerte, B el nodo cuerpo de botella y D es el nodo de destino, u0i indica la tasa de envió, Ui la taza de servicio y qi representa el nivel de cola que posee el buffer todos tienen numeración. Los numerados con 0 representa el origen y los numerados desde 1 hasta n representan los demás niveles.
Se usan buffers de tamaño variable para una mejor memoria. La dificultad del problema es proporcional a la administración del buffer. Un flujo puede partir desde cualquier lugar para llegar su nodo de destino, Ub representa la taza de servicio obtenida por la formula
 
3.2   Bloque de diseño
Para el diseño se consideró la taza de envió y el nivel de cola de botella como entrada y salida respectivamente. creando un nuevo diseño para una red de almacenamiento visto en la figura 2.0.   
Nuevamente  es el nodo fuerte .B el cuello de botella,  el destino , la velocidad de envió y el nivel del buffer .
La modificación con respecto al modelo anterior es que al actual le fueron agregados controladores que modifiquen el flujo de sistema de red.
3.3   Bloque de Simulación
Se realizaron 2 simulaciones ambas con la misma cantidad de paquetes y taza de envió constante, pero con factor de suavizado de peso diferente, -0,2 para la primera y -0,5 para la segunda. Los resultados de la simulación están representados en la figura 3 y 4 respectivamente. 
En la primera simulación empezó con 750 paquetes y en solo 5 microsegundos llego a 550 paquetes. Llego a los 500 paquetes en los siguientes5 microsegundos y se mantuvo constantes a partir de ese punto. En la segunda simulación se empezó con 750 paquetes, al microsegundo tubo 730 paquetes, el siguiente microsegundo tubo 690 paquetes. para el microsegundo 3 tubo 640. En el microsegundo 4 se redujo a 630 y desde el microsegundo 5 en adelante se mantiene constante en 620.
El tiempo que tardaron en estabilizarse dependió demasiado del parámetro a, por ello hay que tener sumo cuidado al darle valor a los factores de suavizado
3.4   Bloque de construcción
No se encontraron datos de este bloque en este Paper.
3.5   Bloque de Validación
En la tabla 1 se muestra 3 envíos de 1000 paquetes enviados en 2 formas de línea diferente, sólida, punteada gruesa y punteada delgada.
En la Solida la taza de envió fue en promedio de 14.5 paquetes /ms, enviando todo en 10 microsegundos. En la Punteada gruesa la taza de envió promedio fue de 20 paquetes/ms con 7.5 microsegundos de duración y finalmente en la punteada delgada hubo 27 paquetes/ms en la taza de envió promedio tardando solo 5 microsegundos.
Aunque variado, los 3 pudieron estabilizarse ante una carga elevada como son 1000 paquetes, por lo que el algoritmo logro su función de estabilizar el sistema y evitar la congestión.
4. Un análisis de comportamiento entre distintos mecanismos de control de congestión ensayados sobre una topología mixta
4.1   Justificación
En la comparación de TCPs se necesita saber la proporción de entrega de paquetes de cada flujo y el rendimiento promedio. La multiplicación entre ambas medidas es el TPP.
La proporción de entrega de paquetes, también llamada RDR por sus siglas en inglés “Packet Delivery Ratio” es obtenida al calcular el cociente entre paquete recibidos y paquetes enviados en un intervalo de tiempo. el rendimiento promedio también llamado “Thoughput Promedio” se obtuvo de la suma de paquetes del emisor de flujo entre 40 y 100 segundos
Por lo tanto, Se usa la formula TPP= Thoughput x RDS
4.2 Bloque de diseño
El modelo de simulador de eventos discretos Network es una representación de la topología mixta.
Posee una estación base, 2 nodos con enlace cableado full dúplex de 10 Mb/s ,2 microsegundos de retardo y 2 con enlace inalámbrico de 1Mb/s, MAC 802.11 sin movimiento. donde se confrontará 2 diferentes protocolos simultáneamente.
Los nodos emisores de la primera y segunda variante serán el 0 y 1, sus receptores son los nodos 3 y 4 respectivamente  
4.2   Bloque de Simulación
Se realizaron 450 simulaciones. Algunas de las mostradas en el Paper son:
 Illinois vs. Vegas, su rendimiento se puede observar en la figura 2, al comenzar el protocolo Vegas capta 0.7 MKbps, el máximo ancho de banda disponible. el protocolo Illinois es relegado en la posibilidad de crecer en el uso de ancho de banda, pero estabilizándose a los 100 segundos con un valor de 0.65 MKbps - el protocolo Vegas, pese a haber iniciado, fue sensible con ante el protocolo Illinois. Su ventana de congestión de puede observar en la figura 3, Aunque Vegas empezó, solo poseía 1 y aumento a 4 a los 30 segundos. manteniéndose constante hasta disminuir a 2 en los 110 segundos; Con Illinois, la ventana de congestión se mantiene al máximo los primeros 105 segundos, el resto del tiempo pasa de 20 a 1 por ventana de congestión.
Vegas vs Compound, su rendimiento se puede observar en la figura 4, Al igual que la simulación con Illinois, Vegas empieza con el mejor rendimiento, de 0.65 MKbps, en cuanto Compound fue implementado su rendimiento bajo a casi 0.1 MKbps, oscila entre 0.15 MKbps y 0.05 MKbps hasta ya no tener rendimiento después del segundo 100. Compound al ser implementado aumenta su rendimiento, variando entre 0.5 Mbps y 0.6 Mbps. su máximo rendimiento fue de 0.7 Mbps en el segundo 110 tras la salida de vegas. Su ventana de congestión se puede. Del lado de su ventana de congestión representada por la figura 5. Se puede observar que antes de los 20 segundos, Compound obtiene 20 CWND de golpe y así se mantiene hasta antes de los 120 segundos, siendo vegas desde su activación constante en casi 4 CWND, después de los 105 segundo bajando a solo 2CWND.
Westwood Vs Hybla, representando su rendimiento en la figura 6, al comenzar Westwood capta 0.7Mbps, el mayor ancho de banda disponible no obstante tras la implementación de Hybla el ancho de banda de Westwood se reduce, luego ambos algoritmos compiten por el ancho de banda, donde Hybla pose tiene el mayor ancho de banda, y por un breve momento en el segundo 95 ambos posen 0.7MKbps. su Ventana de congestión en mostrada en la figura 7. la ventana de congestión de Hybla se modifica cada segundo superando los 20 CWND y alcanzando hasta 150 CWND, mientras Westwood permanecía constante en 20 CWND y tras la implementación de Hybla se reduce y se modifica cada segundo sin poder superar los 10 CWND.
Reno vs. Cubic, su rendimiento es visible en la figura 8, el protocolo Reno comienza a transmitir datos y capta 0.7Mbps, el mayor ancho de banda disponible en menos de 5 segundos. Al iniciar Cubic se producen fluctuaciones donde ninguno ejerce un predominio notable sobre el otro y, a partir del segundo 40 se puede decir que es una distribución equitativa del ancho de banda entre 0.3 y 0.4 Mbps. una vez terminado Reno, Cubic obtiene todo el ancho disponible y baja a cero, inmediatamente en la figura 9, podemos ver que la ventana de congestión de Reno tras la implementación de Cubic es de 20 CWND y sube hasta los 100 CWND en el segundo 100 que es cuando deja de implementarse, cubir subió de manera proporcional hasta los 20 CWND y permaneció constante el resto del tiempo.
Coumpond vs. Cubic. Su rendimiento mostrado en la figura 10.  Ocurre de manera similar al caso anterior, Coumpond capta 0.7Mbps, y al implementarse Cubic observamos fluctuaciones donde ambos varían entre 0.3 Mbps y 0.4 Mbps, para cuando coumpond deja de implementarse finalmente Cubic obtiene todo el ancho de banda y después del segundo 110 baja a 0. La ventana de congestión de esta comparación visible en la figura 11, muestra que ambos alcanzan los 20 CWND durante 100 segundos, pero en distintos tiempos de activación.
En las 3 primeras simulaciones, los algoritmos muestras comportamiento competitivo, siendo el algoritmo colocado en segundo plano fue dominante y relegado al primer algoritmo de su posición. en las ultimas 2 simulaciones los algoritmos muestran comportamiento colaborativo
4.3   Bloque de Construcción
No se encontraron datos de este bloque en este Paper.
4.4   Bloque de Validación
Se evaluó la coexistencia de 15 algoritmos. en la primera simulación el algoritmo de colocado en la fila inicio la transición y el algoritmo colocado en la columna fue activado después.  en la segunda simulación, el algoritmo colocado en la fila es el que inicio y en la columna el activado en segunda instancia. Sus resultados están puestos en la Tabla 2 y Tabla 3
Ay distintos resultados que pueden clasificarse de acuerdo a sus intervalos, se pueden hacer 4 grupos, El intervalo de 0 -0.1, el intervalo de 0.101 a 0.3. el intervalo de 0.301 a 0.4 y el de 0.4 a 1. En ambos casos los resultados más bajos fueron cuando Vegas iniciaba la transmisión, el resultado más bajo es 0.046 en la primera y 0.049 en la segunda evacuación, ambas con Hybla activado después, así mismo Los resultados más altos se obtuvieron cuando Vegas era activado después. el resultado más alto en la primera evaluación fue de 0.608 con Hybla, en la segunda fue de 0.6 también con Hybla
El valor de TPP no expresa el comportamiento de los protocolos, no se aprecia el cambio de flujo a través del tiempo, la variación en la ventana de congestión o su forma de adaptarse al ancho de banda disponible para transmitir los datos, donde en algunos casos son agresivos.
5. Conclusión general
Con este trabajo expandí mi conocimiento sobre algoritmos de control de congestión, aprendí que los algoritmos de control de congestión se adaptan a la red y adaptan la banda de ancha según sus condiciones, junto con conceptos básicos como el CWND, la ventana de congestión, el máximo de congestión que puede albergar sin colapsar y el ssthresh, el umbral de arranque lento. Son llamados TCP por sus siglas en inglés “Transmisión Control Protocol” que significa Protocolo de Control de Transmisión.
 En el primer problema se usa el TCP VBR, cuya función es mejorar el rendimiento en las redes de computadoras, controlar la congestión de las mismas y dividir el ancho de banda al ajustar según necesite la máquina para su taza de envió.
 Para el segundo Paper los algoritmos de topología mixta compiten por cual domina el ancho de banda superponiéndose en varias ocasiones, siendo una coexistencia poco eficiente entre algoritmos, las últimas simulaciones captan el mayor ancho de banda disponible y lo distribuyen de manera equitativa evitando perdidas de paquetes, cambios de ruta, fallos y desconexiones.
Los algoritmos mejoran la experiencia en internet a las personas, al aumentar el desempeño de la red, limitan las interacciones, evitan la perdida de paquetes y un mejor aprovechamiento de la banda de ancha. Todos los algoritmos planteados, poseen una versión mejorada de las características de sus predecesores y añaden nuevas funciones y fases.
6. Bibliografía
Paper 1:
G. M. Naveas, Manuel Vargas Guzmán, “Un algoritmo de control de flujo para redes de computadoras de alta velocidad”, Ingeniare. Revista chilena de ingeniería, vol. 28, pp. 24-30, octubre 2020.
Paper 2:
D. R. Rodríguez Herlein, C. A. Talay, C. N. González, F. A. Trinidad, L. Almada, “Un análisis de comportamiento entre distintos mecanismos de control de congestión ensayados sobre una topología mixta”, CACIC, vol. 24, pp. 725-734, octubre 2018. g

Universidad Técnica de Ambato
Facultad de Ingeniería en Sistemas, Electrónica e Industrial
Universidad Técnica de Ambato - UTA

Carrera de Telecomunicaciones

Examen de primer Parcial
Micro ensayos
Tema: “Diseño e Implementación de algoritmo híbrido multifunción de control de flujo para redes de computadoras de alta velocidad en Ambato “
Asignatura: Metodología de La investigación
Alumno: Kevin Iván Díaz Solís
Propone: Dr. Ing. Percy Alberto Ríos Villacorta
Cuidad: Ambato
Nivel: Primer Semestre “A
Fecha de entrega: 23 de mayo de 2020
Ciclo Académico: Abril - agosto 2020


ÍNDICE
1.       Caratula ____________________________________________________________________1
2.       Índice ______________________________________________________________________2
3.       Paper_ CONGESTION CONTROL USING AODV PROTOCOL SCHEME FOR WIRELESS AD-HOC NETWORK___________________________________________________________________3
3.1.   Micro ensayó de Justificación _______________________________________________3
3.2.   Micro ensayó de Validación _________________________________________________3
4.       Conclusión general ____________________________________________________________4
5.       Bibliografía _________________________________________________________________4  

 3. Paper_ CONGESTION CONTROL USING AODV PROTOCOL SCHEME FOR WIRELESS AD-HOC NETWORK
3.1 Micro ensayó de Justificación
La red ad-hoc es un tipo especial de red que se obtiene al formar una red temporal sin poseer un soporte estándar de algún tipo de dispositivo, formando así una red sin infraestructura. Estas redes funcionan con el apoyo de los nodos inalámbricos constituyentes, poseen un rango de transmisión limitado por lo que su reenvió de paquetes no depende de algún hardware irrelevante, sino que, y los nodos vecinos. Para evitar su obstrucción existen algunos mecanismos de control congestión estándar como AODV o Hop by hop, pero poseen problemas para una red con topología variante como la de la red ad-hoc y no pueden conducir al único canal compartido además de su demora para el enrutamiento de descubrimiento y mantenimiento. Por estas mismas características se decidió diseñar un nuevo control de congestión que mejore los aspectos de AODV que se adapte a los aleatorios cambios en la topología llamado ABCC.
3.2 Micro ensayó de Validación
Se realizaron 2 experimentos con el algoritmo ABBC para compararlo con los algoritmos tradicionales CBCC y Hop By Hop, la primera experimentación fue con 250, 500, 750 y 1000kb y la segunda experimentación fue con flujo variante.
Cuando el flujo es contante, ABCC posee 6500 paquetes, un rendimiento superior al de Hop by Hop para 10 nodos como lo vemos en la figura 2, La fracción de entrega de paquetes de ABCC es 100%, superior al 80% de Hop by Hop en 20 nodos. Tal y como se muestra en la figura 3. ABCC posee un retraso de 2.5 menor al retraso de 3 de Hop by Hop en 50 nodos. para finalizar se realizaron 3 comparaciones del rendimiento de ABCC con distintos protocolos de control de transición: Hop by Hop, CARP, CODV, CARM, CARP-R, en las comparaciones el rendimiento de ABCC su superior siempre manteniéndose entre 5000 y 6000 paquetes.  Apreciable en la figura 5 ,6 y 7. Los algoritmos que más se aproximaron fueron Hop by Hop y AOVD, ambos superando los 5000 paquetes, CBCC y CARP-RC tuvieron menos de 5000 paquetes y CARP obtuvo el rendimiento más bajo con 3500 paquetes
Las figuras 8, 9, 10, 11, 12 y 13 representan la experimentación con flujo variado. Donde podemos ver que el flujo de ABCC aun cuando disminuye sigue siendo superior al de Hop by hop en 10 nodos. En los 20 nodos , mientras hop by hop bajo a menos del 40% , ABCC se pudo mantener en el 60% de fracción de entrega de paquetes. El retraso de extremo a extremo para 50 para 100 nodos en hop by hop es de 0.8s mientras ABCC es de menos de 0.6s ósea es menor. En 100 nodos, La fracción de entrega de paquetes de ABCC es de 50% superando a Hop by Hop con 30%.  Las últimas 2 experimentaciones compararon a ABCC con Hop by boy y con ABCC en ambas el retraso de extremo a extremos es superior al 40% , mientras hop by hop y CBCC no superaron el 40% . Tras estas pruebas , ABCC se considero el protocolo con mejor rendimiento y tasa de envio con menor retraso .
4. Conclusión general
Con este trabajo solventé mi conocimiento sobre la red ad-hoc, aprendí que es un tipo de red que no requiere de artefactos para funcionar, sino que usa red en todas partes, cuando la transmisión sobrepasa la capacidad de los nodos recuré a los nodos vecinos para retransmitir sus paquetes, esta condición hace que sus condiciones de envió varíen, y eso complica empleo de controles de congestión tradicionales. por ello se creó un nuevo control de congestión, ABCC, para que se adapte a las condiciones de la red ad-hoc, El rendimiento, la fracción de entrega y la entrega de paquetes de ABCC fue superior en comparación con TCPs tradicionales, su retraso y retardo extremo a extremo fue menor en comparación a otros entre 250 y 1000kb tanto en flujo variable como en flujo constante
El agente de control parece ser el más apropiado para las redes ad-hoc, poseen una versión mejorada de las características de sus predecesores y puede adatarse de mejor manera a las variables condiciones de la red ad-hoc.

Bibliografía

M. Rajesh y J. M. Gnanasekar “CONGESTION CONTROL USING AODV PROTOCOL
SCHEME FOR WIRELESS AD-HOC NETWORK” Advances in Computer Science and Engineering. Vol. 16. N1-2 pp.19-37. marzo 2016

A partir de aqui

No hay comentarios.:

Publicar un comentario