https://prezi.com/user/vpvhk1fjclhv/
Universidad Técnica de Ambato
Facultad
de Ingeniería en Sistemas, Electrónica e Industrial
Carrera de Telecomunicaciones
Asignatura: Metodología de La
investigación
Alumno: Kevin Iván Díaz Solís
Propone: Dr. Ing. Percy Alberto Ríos
Villacorta
Cuidad: Ambato
Fecha de
entrega: 31
de mayo de 2020
ÍNDICE
1. Caratula _____________________________________________________________________1
2. Índice ______________________________________________________________________2
3. Paper 1_ Análisis del servicio de video streaming basado en
el algoritmo FDASH sobre LTE ___________3
3.1. Problema ________________________________________________________________3
3.2. Solución ________________________________________________________________3
4. Paper 2_ Modelo ontológico de
navegación en la red para personas con discapacidad visual __4
4.1. Problema
________________________________________________________________4
4.2. Solución ________________________________________________________________4
5. Paper 3_ Un algoritmo de control de
flujo para redes de computadoras de alta velocidad ____________________________________________________________________________5
5.1. Problema ________________________________________________________________5
5.2. Solución ________________________________________________________________5
6. Paper 4_ Un algoritmo de control de
potencia para WLAN basado en Teoría de Juegos_______6
6.1. Problema ________________________________________________________________6
6.2. Solución ________________________________________________________________6
7. Conclusión general
____________________________________________________________7
8. Bibliografía
__________________________________________________________________7
3. Paper 1_Análisis del servicio de video streaming basado en el
algoritmo FDASH sobre LTE.
3.1 Problema:
A diario, se hacen transmisiones
en vivo vía internet, ya sea para dar clases en línea, jugar video juegos,
reuniones en línea, entretenimiento, mediante plataformas como Facebook live, YouTube
live, twitch, zoom, Microsoft teams, google meet, entre otros. A estas
transmisiones se las llama “Video streaming “esto mismo genera mucho tráfico en
la red, y cuando hay mucho tráfico en la red ocurren problemas como el retraso
en la transmisión, la perdida de paquetes, detención de la transmisión, disminución
del rendimiento y de la calidad de transmisión.
El sistema 3GPP LTE permite
transmisiones con alta velocidad de datos y baja latencia de datos en las redes
móviles de evolución de largo plazo LTE, pero los videos streaming requieren de
grandes recursos de ancho de banda sin importar el tamaño del archivo por
transmitir. Solo En 2016, el 60% del tráfico en redes sociales fue por transmisiones
en directo, hoy en 2020 por la emergencia sanitaria, las personas se ven
obligadas a hacer teletrabajo por lo que la demanda de servicio streaming es aún
mayor, aumenta el tráfico por lo que los problemas anteriormente mencionados
aumentaran.
3.2 Solución:
3GPP desarrollo el estándar para
comunicaciones móviles LTE, es para transmisión de datos de alta velocidad.
Para evitar los problemas anteriormente mencionados se recure al algoritmo DASH,
que significa protocolo de Streaming Adaptivo Dinámico sobre HTPP, el cual ha
sido seleccionado por 3GPP Release 12 para la transmisión de video en las redes
LTE, debido a que realiza una transmisión de bits adaptiva a diferentes
velocidades, adaptando los bits usados al ancho de banda disponible utilizando
variaciones en parámetros de calidad de servicio.
Existe una variante del algoritmo DASH para streaming,
es FDASH, la f viene del inglés Fuzzy que significa difusa, puesto que en la
transmisión se carece de claridad o precisión. el algoritmo FDASH tiene la
función de buscar que velocidad de bits es apropiada para el video, de esta
manera puede maximizar la calidad, Gracias a este proceso de FDASH se puede reproducir
contenidos desde cualquier dispositivo. DASH entrega formatos de distribución
para una mejor entrega dependiendo la calidad de función y dispositivo
automáticos y modificables, mientras que FDASH como algoritmo de adaptación de velocidad
en videos streaming, ajusta eficazmente la velocidad del video dependiendo las condiciones
de red en cada momento. FDASH inicia dando a todos los usuarios la misma tasa
de bits por un corto tiempo, sube o baja la tasa de bits a cada usuario usando
en la lógica difusa, toma decisiones a partir de información indeterminada y
aproximada.
La prueba de FDASH sobre la calidad de servicio consistió
en un simulador de computadora donde se agregan más usuarios , en esta
simulación se usaron herramientas como Opnet Modeler, que escala modelos jerárquicos
los cuales representan la estructura de redes reales y se implementan en sistemas
operativos como Windows ; OMNeT++ un
simulador de tráfico congestionado en redes; y ns-3 un software nacido como proyecto
de código libre para el desarrollo e investigación de redes inalámbricas
para la comunidad académica de investigación.
En esta prueba se simulo una transmisión con un usuario con ancho de banda
variado, la segunda prueba fue una red con ancho de banda variado con 10 personas.
la tercera prueba fue con 23 personas y finalmente se simulo un escenario con hardover,
una situación donde la calidad es insuficiente.
En la primera prueba la resolución de transmisión vario
entre 1920 X 1080, y, 424 x 240 manteniendo el rendimiento, no hubo perdida de
paquetes ni detención de la reproducción. En la prueba de 10 usuarios hubo
retardo de 29,41 ms sin pérdida de paquetes. Con hardover no pudo estabilizarse,
tubo retardo de 17,27 ms, pero sin detención de transmisión. La última prueba con
hardover y 10 usuarios se perdió el 0.71% de los paquetes y obtuvo un retardo
de 22,99 ms, aun así, se lo considera uno de los algoritmos más viables para
los videos streaming debido a su adaptabilidad a diferentes condiciones y
exigencias de la tecnología inalámbrica móvil LTE-
4. Paper 2_ Modelo ontológico de navegación en la red para personas con
discapacidad visual
4.1 Problema:
Hoy en día internet es una
herramienta muy útil para buscar información, las personas la usan a diario
para distintas actividades, desde pasar un rato entretenido hasta aprender,
pero las personas no videntes no pueden usar internet al no poder visualizar la
información del monitor, necesitando de la ayuda de otra persona para poder
guiarse en internet. Y siendo el 2.7% de la población no vidente. Existen
programas como jaws que leen los elementos señalados en el monitor, pero en una
página web, pues el lector invidente no podrá identificar que elementos le
sirven y cuáles no, el programa leería lo que señala y no lo verdaderamente
importante de la página. No hay un sistema que identifique que elementos son
importantes en la mismo, afectando que estas personas no puedan interpretar
bien la información.
4.2 Solución:
Para poder ayudar a las personas
no videntes a navegar en internet, se han creado algunas normas y programas.
Como la iniciativa Convertic, mediante herramientas web semánticas, estándares
y recomendaciones de ICONTEC y la W3C se hace una web etiquetada para que pueda
ser escuchada mediante un lector de pantalla; Otro es el modelo MODS que usa el
lenguaje ontológico. para poder interpretar consultas hechas en lenguaje
natural
El Modelo de Interfaz Adaptativa
basada en Perfiles de Usuario y Ontologías para Recomendación de Objetos de
Aprendizaje de Quiroz, Salazar y Ovalle se plantea una interfaz que se adapte a
las interferencias conectivas, Es un software que interpreta y traduce la página
web del idioma natural al idioma otro en 4 etapas, la especificación, dónde
define la página web visitada de manera semántica; la conceptualización, donde
identifica la transcripción semántica; formalización, implementación; donde el
código generado con http y mantenimiento donde finalmente valida metadatos y
etiquetas con WCGA. , así representa el conocimiento, así facilita el proceso
de escribir metadatos para que los lectores de pantalla puedan leerlo a una
persona ciega, funciona de manera similar a los cursos Virtuales Adaptativos,
que son herramientas que guían al alumno usando la norma W3C y la Norma Técnica
Colombiana NTC 5854.
Las jerarquías de los componentes
modulados con la que adapta semánticamente la página web son : Primero Elementos HTML como Contendores
, barra de navegación , Botones , Tablas, Campos de Texto, Formularios, Listas,
Encabezados, Enlaces, Imagen, Pie de página, Sección, Artículo ,Entrada de
texto ,Texto, DOM ; luego Términos Ontológicos tales como Clases, Subclases ,Propiedades
de datos, Propiedades de objeto, Instancias, Pre jos, OWL, RDF, después Propiedades
de Dublín Core, Propiedades WAI-AIRA ,HTML Propiedades generales y por último subclases.
Así agregando anotaciones semánticas a cada componente.
Para hacer todo esto solo es
necesario instalar WAVE en google crome y habilitar la extensión al hacer clic
en su icono. este modelo ayuda en la navegación web para discapacitados
visuales, la desventaja es que las imágenes, videos y audios no son tomados en
cuenta correctamente, confundiendo ocasionalmente los anuncios publicitarios
con información relevante.
En las pruebas de este algoritmo
las personas invidentes pudieron hacer la investigación y el trabajo en el
triple de tiempo que le toma una persona vidente.
5. Paper3_ Un algoritmo de control de flujo para redes de computadoras
de alta velocidad
5.1 Problema:
Las redes de computadoras
almacenan y retransmiten nodos y enlaces de comunicación topológicamente,
cuando se sobrepasa su capacidad de almacenamiento hay saturación y congestión,
retransmitiéndose esos nudos con una instancia superior. Sufriendo problemas de
estabilidad en una dinámica oscilatoria requiriendo de un búfer mayor para
evitar perdida de datos. por lo que hay que buscar una solución a la congestión.
5.2 Solución:
Se propone un algoritmo interactivo con el trafico VBR que
estabiliza el sistema de red y controla los flujos, este algoritmo se encuentra
basado en algoritmos como el ATM usado entre 1992 y 2000, para el control de
tráfico se usaba un algoritmo que tiene por base el algoritmo ABR donde en caso
de que la longitud de cola del conmutador supere el umbral de aceptación, establecerá
un dígito binario en la célula de control de admisión; el algoritmo para la
gestión del tráfico de AIR que divide el
ancho de banda disponible tras calcular las tasas de entrada para las conexiones
activas; El algoritmo de control AVR que rechaza las perturbaciones, cuando el ancho
de banda disponible actúa como una perturbación.; el algoritmo de control
frecuencia para fuentes ABR el cual trabaja con control estocástico, en el mismo
la perturbación es auto regresiva; el algoritmo de Control de congestión a alta
velocidad de redes de comunicación usando el Principio de Smith , cuando un
búfer FIFO se encuentre en los enlaces de salida deriva un control el tiempo .
Se diseña entonces un algoritmo en base a la teoría de
control discreto que satisface los requisitos de control. los paquetes entran
en la red desde nodos fuente ubicados en sus bordes y luego se almacenan y
reenvían a lo largo de una secuencia compuesta por nodos intermedios y enlaces
de interconexión llegando finalmente a sus nodos de destino. Este sistema también
hace buen uso de la memoria mientras todas las conexiones estén muy cargadas,
pero es deficiente si algunas de ellas no se encuentran en esta condición. Es
claro, entonces, que mientras más simple sea la administración del buffer más simple
se hace el problema todas las conexiones se encuentran muy cargadas y que se
divide el ancho de banda promedio disponible. El tiempo que tarda cada nodo en
obtener servicio es finito.
La tasa de envío del nodo de origen es la entrada, así
como el nivel de la cola del cuello de botella es la salida. Cuando se envía
una trama se inicia un temporizador para comprobar cuánto tarda en ser enviado
y recibido. el acuse de recibo indicara si tarda demasiado tiempo. Si el acuse
de recibo regresa a tiempo TCP medirá el tiempo de cuánto tardó y actualiza el
RTT. los parámetros viables no cambian de modo importante La longitud de la
cola del buffer, sino que la misma se ajusta prontamente a un valor determinado.
El algoritmo mencionado es discreto, eficaz y fácil de implementar.
6. Un algoritmo de control de potencia para WLAN basado en Teoría de
Juegos
6.1 Problema:
Wlan es la ubicuidad y el amplio
despliegue de redes inalámbricas de área local, la gran cantidad de redes
inalámbricas aumenta la interferencia. Los dispositivos móviles de Wlan
funcionan con baterías recargables, tales baterías se desgastan más rápido
cuando el dispositivo hace demasiados trabajos simultáneamente, como un celular
que tiene muchas aplicaciones que requieren acceso a internet, se consume la
banda ancha en esas aplicaciones y el uso continuo disminuya la vida útil de la
batería.
Otro defecto se presenta en que
mientras más alejando está el dispositivo de la red, también llamado AP, la
señal será menor. Las redes inalámbricas, flexible y de bajo costo de
implementación dan soporte a implementaciones como el internet de las cosas. El
despliegue masivo de estas redes, la aparición de nuevos servicios, y el
crecimiento del tráfico multimedia consecuencia de la emergencia sanitaria requieren
el adecuado diseño, planificación, y despliegue de las redes inalámbricas. Por
eso se necesita un control de potencia
6.2 Solución:
La teoría de los juegos o
equilibrio de Nash estudia las situaciones en las que las acciones de los
individuos como sus resultados dependen de las acciones que otros llevan a cabo.
Propone una interdependencia estratégica, dependiendo que acciones hagan los participantes
se podrá sacar el mejor resultado para todos los participantes. Con esta idea
el algoritmo maximiza la velocidad de transmisión de datos de usuario y de
datos promedio del sistema, asignando de mejor manejo de los recursos.
El algoritmo TPC elige la
potencia de Transmisión dependiendo la distancia, el algoritmo de control de
potencia es de lazo cerrado, a consecuencia el AP, el dispositivo que
distribuye internet realimenta a las STA por medio de parámetros de control, en
las STA se extrae esa información y se ejecuta el algoritmo, en el cual cada
STA puede elegir entre 15 niveles discretos de potencia en el rango de -3,32
dBm a 19,99 dBm. así En su experimentación configuro las potencias de
transmisión de 0,17 dBm, 3,64 dBm, 8,9 dBm, 12,17 dBm y 15,59 dBm para las
distancias de 4m, 8m, 12m, 16m y 20m, respectivamente, mientras aumentaba la
distancia, el algoritmo aumentaba la potencia. Esto demostró que el control de
control potencia incide positivamente el desempeño de la red
El algoritmo se encuentra basado
en el algoritmo iterativo de control de potencia ; en el algoritmo SINR para
las STA asociadas a un Punto de Acceso ;también con OpenWrt, la aplicación Wireless Tools de
Linux puede controlar la información de las tarjetas inalámbricas de los
dispositivos e implementar un algoritmo que utiliza el Indicador de Intensidad
de Señal 79 ,que controla la potencia y
la velocidad de transmisión de datos conjuntamente a través de una interfaz de
comunicación entre el nivel Físico y el
nivel MAC . La comunicación implementada es bidireccional, el dispositivo
recibe y da información, también se cambió la configuración del AP para
calcular la SNR de la comunicación de cada STA y posteriormente envíe este
valor de retorno hacia las STA utilizando los primeros 2 bytes del campo de
datos de la trama MAC, en las STA se extrae esa información y se ejecuta el
algoritmo. Se modificó el controlador del USRP para que incluyera GNU Radio y
pudiera asignar la potencia de transmisión. En el AP y en la STA se incluyen
algoritmos de verificación de las direcciones MAC para que la información
llegue al destino correcto. Estos sistemas de algoritmos de control de potencia
reducen la interferencia, mejoran el rendimiento de la red, disminuyen la FER y
aumentan la velocidad de datos.
El algoritmo también decide que
aplicaciones no requieren de internet o son innecesarias, al reducir el uso de
aplicaciones innecesarias incrementa la eficiencia energética, aumentando la
duración de las baterías y disminuye el nivel de interferencia al usar la red
solo para un propósito. La experimentación mostro que el rendimiento y el
desempeño fueron superiores con el algoritmo TPC en comparación cuando no se lo
incluyo.
7. Conclusión general
Este trabajo me ayudó a expandir mi conocimiento sobre algoritmos , aprendí que los algoritmos
hacen más accesible y fácil el acceso a internet, mediante innovadoras ideas ; para el primer
problema se soluciona con el algoritmo FDASH que adapta la calidad de transmisión
con tal de que no se interrumpa; para el segundo problema se usa el programa
WAVE, el cual clasifica los contenidos de las páginas web y las lee para gente
invidente , en el tercer problema se usa el algoritmo interactivo con el
trafico VBR , que mejora rendimiento de las redes de computadoras , controla la
congestión y al ajustar la taza de envió al dividir el ancho de banda según la
necesidad de la máquina ; para el cuarto problema se creó el algoritmo TPC que
configura automáticamente la potencia de transmisión dependiendo la distancia
del dispositivo y otros cambios de escenario y modalidad, reduciendo el consumo
de energía
Los algoritmos ayudan a las
personas en internet, aumentan el desempeño de la red, permiten trabajar sin interacciones,
ahorrar energía y hasta ayudarlos a entender si es necesario. Ninguno de estos
algoritmos fue hecho desde cero, todos usaron de base algoritmos o programas
anteriores y se les añadieron nuevas funciones, y trabajan en colaboración con
otros programas.
8. Bibliografía
W. Y. Campo Muñoz, A. F. Escobar Zapatab,
J. C. Imbachi Pazc, “Análisis del servicio de video streaming basado en el
algoritmo FDASH sobre LTE”, Revista
Ciencia e Ingeniería Neogranadina, Vol. 29, pp. 67-80, octubre 2018
J. A. Gil, P. A. Gaona García, C E. Montenegro-Marín, y A.
C. Gómez-Acosta, “Modelo ontológico de navegación en la red para personas con
discapacidad visual” Información
Tecnológica, Vol. 31,
pp. 31-46, diciembre 2019
G. M. Naveas, Manuel Vargas Guzmán, “Un algoritmo de control de flujo para
redes de computadoras de alta velocidad”, Ingeniare.
Revista chilena de ingeniería, vol. 28, pp. 24-30, octubre 2020
C.E. Caicedo, A. J. Pabón. V. F. Mirama,” Un algoritmo de control de potencia para
WLAN basado
en Teoría de Juegos” Entre Ciencia e
Ingeniería, Vol. 13, pp. 77-84, mayo 2019
Universidad Técnica de Ambato
Facultad
de Ingeniería en Sistemas, Electrónica e Industrial
Carrera de Telecomunicaciones
Asignatura: Metodología de La
investigación
Nombre y Apellidos: Kevin
Iván Díaz Solís
Docente: Dr. Ing. Percy Alberto Ríos Villacorta
Tema: Diseño e Implementación de
algoritmo híbrido multifuncion de control de flujo para redes de computadoras
de alta velocidad en Ambato
PAE 3: Micro ensayos de artículos
científicos.
Nivel: Primero A
Cuidad y Fecha de entrega: Ambato
23 de mayo de 2020
Ciclo Académico: Abril –
septiembre 2020
ÍNDICE
1. Caratula _____________________________________________________________________1
2. Índice ______________________________________________________________________2
3. Paper 1_Un algoritmo de control de flujo
para redes de computadoras de alta velocidad____________________________________________________________________3
3.1. Justificación _____________________________________________________________3
3.2. Bloque de diseño _________________________________________________________3
3.3. Bloque de Simulación
______________________________________________________3
3.4. Bloque de Construcción
____________________________________________________4
3.5. Bloque de Validación ______________________________________________________4
4. Paper 2_ Un análisis de comportamiento
entre distintos mecanismos de control de congestión ensayados sobre una
topología mixta_____________________________________________4
4.1. Justificación _____________________________________________________________4
4.2. Bloque de diseño _________________________________________________________4
4.3. Bloque de Simulación
______________________________________________________5
4.4. Bloque de Construcción
____________________________________________________6
4.5. Bloque de Validación ______________________________________________________6
5. Conclusión general
____________________________________________________________7
6. Bibliografía
__________________________________________________________________7
3.Un algoritmo de control de flujo para redes de computadoras de alta
velocidad
3.1 Justificación
Se usan buffers de tamaño
variable para una mejor memoria. La dificultad del problema es proporcional a
la administración del buffer. Un flujo puede partir desde cualquier lugar para llegar
su nodo de destino, Ub representa la taza de servicio obtenida por la formula
3.2 Bloque de diseño
Nuevamente
es el nodo
fuerte .B el cuello de botella,
el
destino ,
la velocidad de envió y
el nivel del buffer .
La modificación con
respecto al modelo anterior es que al actual le fueron agregados controladores
que modifiquen el flujo de sistema de red.
3.3
Bloque de Simulación
Se realizaron 2 simulaciones ambas
con la misma cantidad de paquetes y taza de envió constante, pero con factor de
suavizado de peso diferente, -0,2 para la primera y -0,5 para la segunda. Los
resultados de la simulación están representados en la figura 3 y 4 respectivamente.
El tiempo que tardaron en
estabilizarse dependió demasiado del parámetro a, por ello hay que tener sumo
cuidado al darle valor a los factores de suavizado
3.4 Bloque de construcción
No se encontraron datos de este
bloque en este Paper.
3.5 Bloque de Validación
En la Solida la taza de envió fue
en promedio de 14.5 paquetes /ms, enviando todo en 10 microsegundos. En la
Punteada gruesa la taza de envió promedio fue de 20 paquetes/ms con 7.5
microsegundos de duración y finalmente en la punteada delgada hubo 27
paquetes/ms en la taza de envió promedio tardando solo 5 microsegundos.
Aunque variado, los 3 pudieron
estabilizarse ante una carga elevada como son 1000 paquetes, por lo que el
algoritmo logro su función de estabilizar el sistema y evitar la congestión.
4. Un análisis de comportamiento entre distintos mecanismos de control
de congestión ensayados sobre una topología mixta
4.1 Justificación
La proporción de entrega de
paquetes, también llamada RDR por sus siglas en inglés “Packet Delivery Ratio” es
obtenida al calcular el cociente entre paquete recibidos y paquetes enviados en
un intervalo de tiempo. el rendimiento promedio también llamado “Thoughput
Promedio” se obtuvo de la suma de paquetes del emisor de flujo entre 40 y 100 segundos
Por lo tanto, Se usa la formula
TPP= Thoughput x RDS
4.2 Bloque de diseño
Posee una estación base, 2 nodos
con enlace cableado full dúplex de 10 Mb/s ,2 microsegundos de retardo y 2 con
enlace inalámbrico de 1Mb/s, MAC 802.11 sin movimiento. donde se confrontará 2
diferentes protocolos simultáneamente.
Los nodos emisores de la primera
y segunda variante serán el 0 y 1, sus receptores son los nodos 3 y 4
respectivamente
4.2 Bloque de Simulación
Illinois vs. Vegas, su rendimiento se puede
observar en la figura 2, al comenzar el protocolo Vegas capta 0.7 MKbps, el
máximo ancho de banda disponible. el protocolo Illinois es relegado en la
posibilidad de crecer en el uso de ancho de banda, pero estabilizándose a los
100 segundos con un valor de 0.65 MKbps - el protocolo Vegas, pese a haber
iniciado, fue sensible con ante el protocolo Illinois. Su ventana de congestión
de puede observar en la figura 3, Aunque Vegas empezó, solo poseía 1 y aumento
a 4 a los 30 segundos. manteniéndose constante hasta disminuir a 2 en los 110
segundos; Con Illinois, la ventana de congestión se mantiene al máximo los
primeros 105 segundos, el resto del tiempo pasa de 20 a 1 por ventana de congestión.
En las 3 primeras simulaciones, los
algoritmos muestras comportamiento competitivo, siendo el algoritmo colocado en
segundo plano fue dominante y relegado al primer algoritmo de su posición. en
las ultimas 2 simulaciones los algoritmos muestran comportamiento colaborativo
4.3 Bloque de Construcción
No se encontraron datos de este
bloque en este Paper.
4.4 Bloque de Validación
Ay distintos resultados que pueden
clasificarse de acuerdo a sus intervalos, se pueden hacer 4 grupos, El
intervalo de 0 -0.1, el intervalo de 0.101 a 0.3. el intervalo de 0.301 a 0.4 y
el de 0.4 a 1. En ambos casos los resultados más bajos fueron cuando Vegas
iniciaba la transmisión, el resultado más bajo es 0.046 en la primera y 0.049
en la segunda evacuación, ambas con Hybla activado después, así mismo Los
resultados más altos se obtuvieron cuando Vegas era activado después. el
resultado más alto en la primera evaluación fue de 0.608 con Hybla, en la
segunda fue de 0.6 también con Hybla
5. Conclusión general
Con este trabajo expandí mi
conocimiento sobre algoritmos de control de congestión, aprendí que los
algoritmos de control de congestión se adaptan a la red y adaptan la banda de
ancha según sus condiciones, junto con conceptos básicos como el CWND, la
ventana de congestión, el máximo de congestión que puede albergar sin colapsar
y el ssthresh, el umbral de arranque lento. Son llamados TCP por sus siglas en inglés
“Transmisión Control Protocol” que significa Protocolo de Control de Transmisión.
En el primer problema se usa el TCP VBR, cuya
función es mejorar el rendimiento en las redes de computadoras, controlar la congestión
de las mismas y dividir el ancho de banda al ajustar según necesite la máquina
para su taza de envió.
Para el segundo Paper los algoritmos de topología
mixta compiten por cual domina el ancho de banda superponiéndose en varias
ocasiones, siendo una coexistencia poco eficiente entre algoritmos, las últimas
simulaciones captan el mayor ancho de banda disponible y lo distribuyen de
manera equitativa evitando perdidas de paquetes, cambios de ruta, fallos y desconexiones.
Los algoritmos mejoran la
experiencia en internet a las personas, al aumentar el desempeño de la red,
limitan las interacciones, evitan la perdida de paquetes y un mejor
aprovechamiento de la banda de ancha. Todos los algoritmos planteados, poseen
una versión mejorada de las características de sus predecesores y añaden nuevas
funciones y fases.
6. Bibliografía
Paper 1:
G. M. Naveas, Manuel Vargas Guzmán, “Un algoritmo de control de flujo para
redes de computadoras de alta velocidad”, Ingeniare. Revista chilena de
ingeniería, vol. 28, pp. 24-30, octubre 2020.
Paper 2:
D. R. Rodríguez Herlein, C. A. Talay, C. N. González, F. A. Trinidad, L.
Almada, “Un análisis de comportamiento entre distintos mecanismos de control de
congestión ensayados sobre una topología mixta”, CACIC, vol. 24, pp. 725-734,
octubre 2018.
g
Universidad
Técnica de Ambato
Facultad
de Ingeniería en Sistemas, Electrónica e Industrial
Carrera de Telecomunicaciones
Examen
de primer Parcial
Micro
ensayos
Tema: “Diseño e Implementación de
algoritmo híbrido multifunción de control de flujo para redes de
computadoras de alta velocidad en Ambato “
Asignatura: Metodología de La
investigación
Alumno: Kevin Iván Díaz Solís
Propone: Dr. Ing. Percy Alberto Ríos
Villacorta
Cuidad: Ambato
Nivel: Primer Semestre “A “
Fecha de
entrega: 23
de mayo de 2020
Ciclo Académico: Abril -
agosto 2020
ÍNDICE
1. Caratula
____________________________________________________________________1
2. Índice
______________________________________________________________________2
3.
Paper_ CONGESTION CONTROL USING AODV
PROTOCOL SCHEME FOR WIRELESS AD-HOC NETWORK___________________________________________________________________3
3.1. Micro ensayó de Justificación _______________________________________________3
3.2. Micro ensayó de Validación
_________________________________________________3
4. Conclusión general
____________________________________________________________4
5. Bibliografía
_________________________________________________________________4
3.1 Micro ensayó de Justificación
La red ad-hoc es un tipo especial
de red que se obtiene al formar una red temporal sin poseer un soporte estándar
de algún tipo de dispositivo, formando así una red sin infraestructura. Estas
redes funcionan con el apoyo de los nodos inalámbricos constituyentes, poseen un
rango de transmisión limitado por lo que su reenvió de paquetes no depende de
algún hardware irrelevante, sino que, y los nodos vecinos. Para evitar su
obstrucción existen algunos mecanismos de control congestión estándar como AODV
o Hop by hop, pero poseen problemas para una red con topología variante como la
de la red ad-hoc y no pueden conducir al único canal compartido además de su
demora para el enrutamiento de descubrimiento y mantenimiento. Por estas mismas
características se decidió diseñar un nuevo control de congestión que mejore
los aspectos de AODV que se adapte a los aleatorios cambios en la topología
llamado ABCC.
3.2 Micro ensayó de Validación
Se realizaron 2
experimentos con el algoritmo ABBC para compararlo con los algoritmos tradicionales
CBCC y Hop By Hop, la primera experimentación fue con 250, 500, 750 y 1000kb y
la segunda experimentación fue con flujo variante.
Cuando el flujo es contante,
ABCC posee 6500 paquetes, un rendimiento superior al de Hop by Hop para 10
nodos como lo vemos en la figura 2, La fracción de entrega de paquetes de ABCC
es 100%, superior al 80% de Hop by Hop en 20 nodos. Tal y como se muestra en la
figura 3. ABCC posee un retraso de 2.5 menor al retraso de 3 de Hop by Hop en
50 nodos. para finalizar se realizaron 3 comparaciones del rendimiento de ABCC
con distintos protocolos de control de transición: Hop by Hop, CARP, CODV,
CARM, CARP-R, en las comparaciones el rendimiento de ABCC su superior siempre
manteniéndose entre 5000 y 6000 paquetes. Apreciable en la figura 5 ,6 y 7. Los
algoritmos que más se aproximaron fueron Hop by Hop y AOVD, ambos superando los
5000 paquetes, CBCC y CARP-RC tuvieron menos de 5000 paquetes y CARP obtuvo el
rendimiento más bajo con 3500 paquetes
Las figuras 8, 9, 10,
11, 12 y 13 representan la experimentación con flujo variado. Donde podemos ver
que el flujo de ABCC aun cuando disminuye sigue siendo superior al de Hop by
hop en 10 nodos. En los 20 nodos , mientras hop by hop bajo a menos del 40% ,
ABCC se pudo mantener en el 60% de fracción de entrega de paquetes.
El retraso de extremo a extremo para 50 para 100 nodos en hop by hop es de 0.8s
mientras ABCC es de menos de 0.6s ósea es menor. En 100 nodos, La fracción de
entrega de paquetes de ABCC es de 50%
superando a Hop by Hop con 30%. Las últimas
2 experimentaciones compararon a ABCC con Hop by boy y con ABCC en ambas el
retraso de extremo a extremos es superior al 40% , mientras hop by hop y CBCC
no superaron el 40% . Tras estas pruebas , ABCC se considero el protocolo con
mejor rendimiento y tasa de envio con menor retraso .
4. Conclusión general
Con este trabajo solventé mi
conocimiento sobre la red ad-hoc, aprendí que es un tipo de red que no requiere
de artefactos para funcionar, sino que usa red en todas partes, cuando la
transmisión sobrepasa la capacidad de los nodos recuré a los nodos vecinos para
retransmitir sus paquetes, esta condición hace que sus condiciones de envió varíen,
y eso complica empleo de controles de congestión tradicionales. por ello se creó
un nuevo control de congestión, ABCC, para que se adapte a las condiciones de
la red ad-hoc, El rendimiento, la fracción de entrega y la entrega de paquetes
de ABCC fue superior en comparación con TCPs tradicionales, su retraso y
retardo extremo a extremo fue menor en comparación a otros entre 250 y 1000kb
tanto en flujo variable como en flujo constante
El agente de control parece ser
el más apropiado para las redes ad-hoc, poseen una versión mejorada de las
características de sus predecesores y puede adatarse de mejor manera a las
variables condiciones de la red ad-hoc.
Bibliografía
M. Rajesh y J. M. Gnanasekar “CONGESTION CONTROL USING
AODV PROTOCOL
SCHEME FOR WIRELESS AD-HOC NETWORK” Advances in
Computer Science and Engineering. Vol. 16. N1-2 pp.19-37. marzo 2016
A partir de aqui
No hay comentarios.:
Publicar un comentario