Spelling suggestions: "subject:"protocolos dde redes dde computador"" "subject:"protocolos dde redes dee computador""
1 |
Diseño de un banco de pruebas para estudiar el comportamiento del protocolo de transporte ESTP y otros protocolos TCP que emplean un algoritmo AIMDBravo Suclupe, Jesús Martín January 2016 (has links)
Magíster en Ingeniería de Redes de Comunicaciones / Transmission Control Protocol (TCP) es un protocolo de transporte cuyo rendimiento depende del algoritmo de control de congestión empleado, el cual modifica el comportamiento de la ventana de congestión, la cual es la cantidad de paquetes que es posible enviar antes de ser reconocidos.
Al emplear TCP tradicional, al comenzar una transmisión, la ventana de congestión enviada tiene un crecimiento determinado por un slow-start (inicio lento), y continúa con una fase de evitación de congestión que emplea un algoritmo AIMD: incremento aditivo de 1 paquete por cada ventana reconocida y un decremento multiplicativo medio que reduce la ventana enviada a la mitad de su valor cuando se produce una congestión. Cuando una congestión es producida por timeout (tiempo de espera agotado), la ventana de congestión es reducida a 1, y luego se realiza un slow-start y continúa con la etapa evitación de la congestión.
General Additive Increase-Multiplicative Decrease (GAIMD) es una variante de TCP, que modifica el comportamiento del incremento aditivo en un valor de α paquetes por cada ventana enviada reconocida y un decremento β que mutliplica el valor de la ventana enviada, cuando se produce una congestión. GAIMD es amistoso cuando se establecen los valores de α=0.31 y β=0.875, y desprecia timeouts producidos para el cálculo de su rendimiento, el cuál teóricamente es mayor que el rendimiento en TCP tradicional.
Ethernet Services Transport Protocol (ESTP) es un protocolo de transporte diseñado para transmisiones sobre redes Ethernet que modifica sólo el decremento multiplicativo (β) de TCP tradicional, sin embargo β tiene un valor variable, el cual se comporta de acuerdo a la cantidad de paquetes transmitidos entre dos pérdidas (δ). Para el cálculo de β, ESTP emplea una función con un componente exponencial cuya variable principal es δ.
Para la evaluación del rendimiento de ESTP y las otras variantes de TCP que emplean un algoritmo AIMD se requiere que cada protocolo sea implementado en el código fuente del sistema operativo y el empleo de herramientas de generación de tráfico como iPerf, herramientas de captura de información de la transmisión como lo son tshark y tcpprobe, utilidades para establecer reglas en el tráfico como netem e iptables, y de software que interprete la información capturada y grafique el comportamiento de la ventana de congestión y rendimiento de la transmisión.
Haciendo uso de las herramientas y software mencionados, se diseña y construye un banco de pruebas que permita evaluar el rendimiento de los protocolos de transporte, con el objetivo de contrastar y mejorar el comportamiento de los mismos.
|
2 |
Fonasa - Gestión de usuarios. LDAP en las organizacionesSilva Vargas, Hernán Aliro January 2014 (has links)
Memoria para optar al título de Ingeniero Civil en Computación / El Fondo Nacional de Salud (Fonasa) es un organismo del Estado de Chile cuya función es proporcionar a sus beneficiarios1 una serie de prestaciones, de acuerdo a la legislación vigente.
Recientemente, como parte de la modernización del aparato estatal y sus reparticiones, Fonasa ha iniciado un Proyecto Global de gran envergadura, consistente en el cambio, mejora y ampliación de todos sus sistemas corporativos, incluyendo plataformas, procesos y sistemas computacionales. Su objetivo último es agilizar y mejorar sus servicios, a nivel central y regional, tanto para usuarios y beneficiarios, como en su gestión interna. Es un proyecto de largo aliento, que indudablemente tendrá un gran impacto a nivel nacional.
En la actualidad Fonasa muestra una gran variedad de plataformas y sistemas, con me- canismos propios de seguridad y control, con múltiples esquemas de manejo de usuarios, con escasa correlación entre los sistemas, y sin posibilidad de efectuar una administración centralizada de usuarios y permisos.
Por esta razón, el nuevo sistema Gestión de Usuarios, que se ocupará precisamente de estas materias, resulta ser una componente fundamental en este Proyecto Global. Este sis- tema dará cobertura única y transversal, en todos los aspectos relacionados con el manejo, administración y gestión de los usuarios de Fonasa, así como el control de accesos y permisos asociados.
En este contexto aparece la tecnología LDAP (Lightweight Directory Access Protocol), un conjunto de protocolos estándar para el acceso a servicios de Directorio en un entorno de red. Estos Directorios proveen mecanismos eficientes de almacenamiento y recuperación de información, y funciones básicas para modificación.
El uso de LDAP en las organizaciones está siendo cada vez más extendido. Los LDAP ofrecen una serie de beneficios y también imponen algunas restricciones. Dadas sus caracte- rísticas, que veremos en detalle en esta Memoria, un LDAP puede resultar una significativa contribución en determinados escenarios, y particularmente en la Gestión de Usuarios.
El tema del presente Proyecto de Título aborda estas materias, y expone un caso concreto de uso exitoso de LDAP en la implementación del sistema Gestión de Usuarios de Fonasa.
|
3 |
Simulación de nodos de acceso de banda ancha, DSLAMAcuña Vega, Luis Eduardo January 2012 (has links)
Ingeniero Civil Eléctrico / El objetivo general de este trabajo es la simulación de un nodo de acceso DSLAM para realizar proyecciones de tráfico para diferentes aplicaciones. Esta problemática surge por parte de la empresa Movistar Chile S.A. que tiene la necesidad de realizar estudios para evaluar sus sistemas de banda ancha fija y como se enfrentan éstos a diversos servicios como lo son IPTV y VoIP. Por esto se requiere de una herramienta capaz de generar tráfico similar al que hay en Internet y con la flexibilidad suficiente para representar estos sistemas y servicios, además de requerimientos como la cuantificación de los clientes que superen un retardo mínimo o el poder generar tráfico temporalmente distribuido siguiendo alguna distribución estadística. También se agregan características como configuración de retardos, tamaños de las colas en la red, división de clientes en grupos para asignarles factores de multiplicación de tráfico y/o velocidad, etc., de forma tal de tener más parámetros posibles de configurar en la red. Por otro lado para hacer más sencilla la utilización del código resultante del trabajo se genera una interfaz gráfica que permite configurar la simulación.
El proceso de desarrollo consiste en modelar la red y cada parte que la integra, definiendo las nuevas funcionalidades, los parámetros configurables y mediciones que se esperan simular. Luego se pasa a la etapa de implementación de los modelos en el simulador OMNeT++, el cual utiliza el lenguaje C++ y el lenguaje NED para la descripción de las redes. Para esta etapa se utilizan las librerías Inet y ReaSE donde la primera contiene los protocolos base utilizados en Internet y la segunda contiene utilidades para el manejo de los flujos de tráfico. Los modelos de red se rehacen para poder satisfacer las necesidades requeridas por Movistar o por parte del código cuando necesita la creación de nuevos módulos de red. Simultáneamente se trabaja en la construcción de la interfaz gráfica la cual debe ser compatible con todos los cambios de la red y con todos los parámetros configurables pudiendo generar los archivos necesarios para ejecutar las simulaciones.
Finalmente se logra un modelo estable de la red, que permite configurar todas las funcionalidades y parámetros que se plantearon como requisitos del simulador y además se crea una interfaz gráfica que permite crear nuevas simulaciones de manera sencilla y rápida, además de una máquina virtual con todos los programas necesarios ya instalados. Los datos proyectados de tráfico son útiles para generar valiosos análisis como se observa en la sección de resultados y son coherentes con los tráficos reales de verificación.
|
4 |
Servicios de cache distribuidos para motores de búsqueda webGómez Pantoja, Carlos January 2014 (has links)
Doctor en Ciencias, Mención Computación / Los Motores de Búsqueda Web (WSEs) actuales están formados por cientos de nodos de procesamiento, los cuales están particionados en grupos llamados servicios. Cada servicio lleva a cabo una función específica, entre los que se destacan: (i) Servicio de Front-End; (ii) Servicio de Cache; y (iii) Servicio de Índice. Específicamente, el Servicio de Front-End maneja las consultas de usuario que arriban al WSE, las distribuye entre los otros servicios, espera por los resultados y genera la respuesta final al usuario. La idea clave del Servicio de Cache es reutilizar resultados previamente computados a consultas hechas en el pasado, lo cual reduce la utilización de recursos y las latencias asociadas. Finalmente, el Servicio de Índice utiliza un índice invertido para obtener de manera eficiente los identificadores de documentos que mejor responden la consulta. El presente trabajo de tesis se focaliza en el diseño e implementación de servicios de cache distribuidos eficientes.
Varios aspectos del sistema y el tráfico de consultas deben ser considerados en el diseño de servicios de cache eficientes: (i) distribuciones sesgadas de las consultas de usuario; (ii) nodos que entran y salen de los servicios (de una forma planificada o súbitamente); y (iii) la aparición de consultas en ráfaga. Cualquiera de estos tópicos es un problema importante, ya que (i) genera una asignación de carga desbalanceada entre los nodos; el tópico (ii) impacta en el servicio cuando no se utilizan mecanismos de balance de carga dinámicos, empeorando la asignación desbalanceada de carga y perdiendo información importante ante fallas; y finalmente (iii) puede congestionar o dejar fuera de servicio algunos nodos debido al abrupto incremento en el tráfico experimentado, incluso si se tiene un servicio balanceado. Dada la arquitectura que se emplea en este trabajo, el Servicio de Cache es el más expuesto a los problemas mencionados, poniendo en riesgo la tasa de hit de este servicio clave y el tiempo de respuesta del WSE.
Este trabajo ataca los problemas mencionados anteriormente proponiendo mejoras arquitecturales, tales como un enfoque de balance de carga dinámico para servicios de cache altamente acoplados (desplegados en clusters) basados en Consistent Hashing, y un esquema para monitoreo y distribución de consultas frecuentes. El mecanismo de balance de carga propuesto es una nueva solución al problema de balance de carga en clusters de computadores que corren aplicaciones manejadas por los datos (data-driven). Además, se estudia cómo predecir la aparición de consultas en ráfaga para tomar acciones correctivas antes de que saturen o colapsen algunos nodos. Finalmente, se adopta la idea de un sistema tolerante a fallas para proteger información valiosa obtenida a través del tiempo. La idea fundamental es replicar algunas entradas de cache entre distintos nodos para que sean usados en caso de fallas.
|
5 |
Monitoreo activo de seguridad sobre la red chilenaAcha Araya, Eduardo Javier January 2017 (has links)
Magíster en Ciencias, Mención Computación.
Ingeniero Civil en Computación / Si bien en pocas décadas Internet ha alcanzado un nivel inesperado de penetración e influencia en nuestras vidas, la seguridad de Internet no ha llegado a un nivel de madurez adecuado para acompañar tal desarrollo. Constantemente se revelan nuevas vulnerabilidades que afectan directamente a nuestra información personal almacenada en la red. Y aunque podemos corregir algunas de estas vulnerabilidades, no es inmediatamente claro que la seguridad mejore: evaluar integralmente la seguridad del software y hardware involucrado en el funcionamiento de Internet y los servicios que la utilizan continúa siendo un desafío pendiente.
Por años, estudiar el comportamiento de conjuntos extensos de equipos fue considerado técnicamente infactible debido a las dificultades de operar con el creciente tamaño de la red. Esta situación cambió con la aparición de nuevas herramientas de escáner de puertos de nueva generación (Zmap y Masscan), capaces de escanear todas las direcciones IPv4 del mundo en menos de cinco minutos. La habilidad de detectar y obtener información de equipos que mantienen servicios (puertos abiertos) permitió por primera vez hacer monitoreo activo de redes masivas en forma práctica.
La presente investigación, utilizando monitoreo activo, busca realizar un estudio sobre el ecosistema de red chileno, creando las herramientas necesarias para evaluar la seguridad de dicho ecosistema de forma eficiente, sistemática y periódica.
Con este objetivo, se diseñó e implementó un escáner de protocolos capaz de realizar diversas pruebas simultáneas sobre equipos remotos. Estas pruebas permiten obtener información de configuración asociada a varios protocolos ejecutados en dichos equipos. Luego, utilizando este escáner, se realizó un proceso de recolección de información entre los meses de enero y octubre del 2016.
A partir de la información recolectada, las configuraciones de los protocolos habilitados en cada equipo estudiado, se identificaron características relevantes de seguridad. Esta información permitió analizar la seguridad de la red chilena, proponiendo una métrica de seguridad enfocada en los protocolos más utilizados de Internet.
Probablemente el producto más relevante del presente trabajo es la implementación de un escáner de protocolos capaz de estudiar la red chilena en menos de 2 horas. La información recolectada a lo largo del trabajo de tesis fue publicada en una plataforma web desarrollada para este fin, facilitando el acceso a los datos y la toma de decisiones sobre seguridad computacional de la red chilena.
|
6 |
Estudio del desempeño de ESTP en redes de alta latencia que implementan el uso de un TCP ProxyAbujatum Dueñas, Andrés Ricardo January 2014 (has links)
Autor no autoriza el acceso a texto completo de su tesis en el Portal de Tesis Electrónicas de la U. de Chile. / Ingeniero Civil en Computación / Ingeniero Civil Eléctrico / En la actualidad las telecomunicaciones han tomado un rol preponderante en el diario vivir de las personas, esto por la gran cantidad de servicios que se ofrecen, como por ejemplo video streaming, redes sociales, llamadas Voice over IP (VoIP), etc. y que día a día van consumiendo mayores cantidades de ancho de banda. Como consecuencia de esto la transmisión de información ha ido aumentando su tamaño de manera acelerada. En el ámbito científico, principalmente la astronomía, se están recogiendo grandes cantidades de datos todas las noches, provenientes de distintos puntos de investigación como por ejemplo el Telescopio Digital Sky Survey (SDSS) reúne 200 GB de información cada noche o su sucesor el Telescopio para grandes rastreos sinópticos (LSST) que empezará a funcionar en el 2020, se estima que generara cerca de 30 TB por noche. El Gran Colisionador de Hadrones (LHC) produce cerca de 15 PB de información al año y estos son solo 3 lugares, pero hay más, en otras áreas y es por esto que hay un desafío a nivel de transmisión de datos.
El presente trabajo tiene como objetivo principal, utilizando el protocolo de transporte creado por el profesor Claudio Estévez llamado Protocolo de Transporrte de Servicios Ethernet (ESTP, Ethernet Services Transport Protocol), generar un modelo analítico del throughput de ESTP en redes de alta latencia que implementen uno o más servidores de proxy TCP, y demostrar que el protocolo ESTP tiene un rendimiento igual o superior a TCP en dichas redes, es decir, el throughput va aumentando, en particular para cuando se envían grandes volúmenes de datos. Esto porque las implementaciones actuales de TCP presentan problemas con las redes de alto delay en transmisiones de datos. Esto último se comprueba mediante una serie de experimentos.
Los resultados obtenidos son bastante alentadores y proponen a ESTP como una solución factible a las transmisiones de grandes volúmenes de datos en redes de alta latencia, esto porque logra superar a otros protocolos de control, como TCP Reno que forma parte de los orígenes de TCP y también CUBIC y BIC, que son las versiones más actuales y usadas de TCP. Estos resultados fueron presentados y aceptados en IEEE International Conference on Comunications 2012, en IEEE LATINCOM 2013 y IEEE CHILECON 2013, actualmente existe una publicación que se encuentra en proceso de revisión en el IEEE Journal on Computers Comunications 2013.
Se deja como propuesto el poder implementar ESTP en un satélite y realizar pruebas en el espacio. Desarrollar un proxy TCP en redes inteligentes y así mejorar la velocidad de transmisión y poder implementar una mayor cantidad de servicios.
|
7 |
Diseño e implementación de una estrategia de seguridad mediante políticas de autenticación y autorización para una empresa de segurosCastillo Gutiérrez, Manuel Antonio January 2018 (has links)
Magíster en Tecnologías de la Información / En la actualidad, la necesidad de una sólida estrategia de gestión de acceso e identidad se ha convertido en parte integral de los recursos de tecnología de una empresa. Las soluciones para estas estrategias pueden permitir a las empresas aumentar la satisfacción de los usuarios y reforzar sus posturas generales de seguridad. Sin embargo, el crecimiento de la computación en la nube y una mano de obra móvil cada vez más distribuida hacen que la gestión de acceso e identidad sea más compleja en el día a día.
Una empresa de seguros de Chile se enfrenta al problema anterior. La empresa desea proveer de acceso seguro y controlado a una API de servicios por parte de aplicaciones de terceros. También busca resolver una debilidad en los procesos de identificación con respecto a las aplicaciones de terceros y es cuando los usuarios desean autenticarse. Cada proceso de ingreso exige distintas identidades ocasionando que un mismo usuario tenga más de una cuenta.
Existen distintas alternativas y soluciones en el mercado, las mismas realizan desde la gestión de la identidad hasta la gestión de la autorización. El protocolo OAuth 2.0 es parte de estas soluciones, es el protocolo estándar de la industria para autorizar accesos limitados a las aplicaciones y los datos, motivo por el cual ha sido escogido como parte de la estrategia de seguridad propuesta. El protocolo se basa en la autorización delegada, es decir poder otorgarles a las aplicaciones acceso a la información en nombre de un usuario en vez de usar una cuenta por aplicación.
Se realiza una validación funcional de la solución en una aplicación móvil de terceros. La aplicación, mediante el protocolo, puede acceder satisfactoriamente a servicios expuestos en la API de la empresa. Se logra mejorar la gestión de la identidad al permitir que los usuarios de esta aplicación utilicen la cuenta propia que poseen con la empresa. Cumpliendo con estos objetivos se obtiene la aceptación de la solución para la empresa de seguros y se toma como estándar para futuras aplicaciones de terceros.
Este trabajo de tesis me deja como enseñanza la diferencia entre los protocolos de autenticación y autorización, como abordar la gestión de la identidad en los sistemas informáticos y sobre todo como interactuar con una API protegida con el protocolo OAuth.
|
8 |
Análisis de la Evolución de una Red de Núcleo Centralizada a una Distribuida en Comunicaciones MóvilesAbuhadba Chehade, Juan Javier Salim 15 March 2010 (has links)
Ingeniero Civil Electricista / El objetivo del presente trabajo de título es construir dos modelos de planificación de la infraestructura de núcleo de redes de telefonía móvil en el caso chileno. Luego, analizar los resultados y determinar la dependencia de estos con la topología y demografía del país.
El problema consiste en determinar la localización óptima de los MSC (Mobile Switching Center), en el caso centralizado. Y de los MGW (Media Gateway) y MGC (Media Gateway Controller) en el distribuido. Los objetivos del estudio consisten en: minimizar los costos de inversión y operación en un horizonte de planificación definido; se cumplan todas las restricciones técnicas y de calidad de servicio; y se satisfaga la demanda en dicho período.
Se enmarca el trabajo definiendo los conjuntos, parámetros y variables necesarios. Luego, utilizando datos del caso chileno y estructuras de diseño de redes, se plantean los modelos de optimización y planificación conjunta.
El modelo de minimización de costos da como resultado 7 MSC para el caso centralizado; y de 1 MGC en Santiago con 14 MGW en el distribuido, siendo este último el de menor costo. Al analizar la solución se desprende que el principal factor que determina la capacidad total de los equipos a utilizar es la relación que existe entre el precio de los enlaces y los costos marginales de conmutación. Estos son mucho más bajos en el modelo distribuido que en el centralizado, lo que explica la gran diferencia en la instalación de conmutadores en ambos problemas. En cuanto a la ubicación de los nodos el parámetro más incidente es el intercambio de tráfico que es generado y tiene por destino la mima zona. Este valor actúa como “centro de masa” y al verificar los pesos relativos de cada sector con los resultados se confirma su repercusión, especialmente en el sistema distribuido.
Respecto a los efectos de las particularidades de la red chilena, se aprecia que la demografía provoca una gran concentración de equipos en Santiago. A su vez, la topología repercute en los modelos al preferir Chillán en desmedro de Concepción para ubicar conmutadores. Al forzar el uso de esta última zona se observa un gasto adicional en enlaces debido a su ubicación. Sin embargo, la diferencia de costos no es significativa.
Se concluye que el caso distribuido es ampliamente superior al centralizado debido a que el costo es un 37% menor, y además, en el óptimo se dispone de una capacidad de conmutación extra de 963 E1 a la demandada, por lo tanto, existe holgura en cuanto a su uso futuro o en otras aplicaciones.
Para trabajos posteriores, suponiendo que se disponga de mayor poder computacional, se propone extender el modelo a la capa de acceso. Además, se sugiere reestructurar el estudio para realizar la optimización utilizando distintas tecnologías o redes preexistentes.
|
9 |
Estrategia para Abordar el Proceso de Adopción de IPV6 en Redes EmpresarialesAlarcón Reyes, Rodrigo Alejandro January 2010 (has links)
Ingeniero Civil Electricista / La definición del protocolo IPv6 se perfila como la única solución a largo plazo para compensar la inminente escasez de direcciones IP a nivel mundial. Sin embargo, para lograr la adopción de este protocolo en las redes que actualmente operan sobre IPv4, se requiere de una estrategia que permita a una empresa proveedora de servicios de redes abordar este proceso de manera planificada.
Motivado por lo anterior, este trabajo tiene como objetivo identificar las variables que condicionan la factibilidad de adoptar IPv6 en redes empresariales y definir un procedimiento general para abordar el proceso de migración en este tipo de redes. De este modo, se busca que una empresa de servicios de redes esté preparada para apoyar la migración a IPv6 y que las empresas clientes tengan claridad sobre los requisitos que deben cumplir para la adopción del protocolo.
El trabajo comienza con un estudio de las ventajas que ofrece la adopción de IPv6, considerando sus características técnicas y su actual soporte por aplicaciones y equipos de uso común en redes productivas. Posteriormente, se propone una estrategia para desarrollar un servicio de validación de compatibilidad con IPv6, orientada a redes empresariales. Esta estrategia contempla cuatro actividades: Levantamiento de la red del cliente, instalación de un laboratorio demostrativo de validación de IPv6, clasificación de los equipos y aplicaciones de la red en función de su compatibilidad con IPv6 y - por último - una evaluación económica de los requisitos necesarios para lograr una compatibilidad total.
Como complemento al servicio diseñado, se implementa en este trabajo el laboratorio demostrativo contemplado dentro del servicio de validación y además se propone una planilla para cuantificar los costos y beneficios asociados al proceso de migración, planilla que sirve de base para la evaluación económica incluida dentro del servicio. También se establecen recomendaciones generales sobre los aspectos a considerar por una empresa de servicios de redes en caso de llevar a cabo la migración a IPv6.
El resultado de este trabajo es una estrategia que permite abordar el proceso de adopción de IPv6 mediante un servicio de validación de compatibilidad orientado a redes empresariales. Este servicio ayuda a las empresas a planificar de manera anticipada la migración y les permite alinear los requisitos de actualización de hardware y software con sus procesos internos de renovación tecnológica.
|
10 |
Implementación de ethernet-services transport protocol en linux: un método de control de congestión de tráfico orientado a redes carrier-ethernetAngulo Cáceres, Sergio Fernando January 2013 (has links)
Ingeniero Civil Eléctrico / Uno de los protocolos de la capa de transporte más importantes, Transport Control Protocol (TCP), garantiza que los paquetes sean recibidos en forma ordenada e integra y aborda el problema de la congestión evitando transmitir paquetes nuevos si el receptor no ha notificado que los paquetes enviados con anterioridad han sido recibidos. Se observa en su comportamiento, por una parte, que la velocidad de transmisión de datos es afectada negativamente respecto a la distancia entre el transmisor y receptor. Por otra parte para evitar la congestión el protocolo solo detecta la existencia de tráfico, sin la capacidad de estimar su magnitud. Con el fin de abarcar las debilidades de TCP, en relación al efecto provocado por la distancia entre transmisor y receptor, la eficiencia de la transmisión y el problema de la congestión de tráfico, el Dr. Claudio Estévez ha desarrollado la teoría de un protocolo de transporte orientado a redes Carrier Ethernet, que mejora la eficiencia de la capa de transporte, llamado ESTP (Ethernet-Services Transport Protocol).
Para llevar a la realidad la propuesta recién descrita, surge el problema de investigación
de esta memoria: ¿La implementación de ESTP valida el modelo teórico presentando un mejorcomportamiento que los métodos de congestión tradicionales? . Así, el propósito de esta memoria es concretar la codificación de un modulo de congestión en Linux para implementar ESTP y posteriormente compararlo con la teoría planteada por el Dr. Claudio Estévez y con otros protocolos existentes, particularmente BIC, CUBIC y RENO.
Los principales resultados de este trabajo caracterizan el comportamiento experimental de ESTP comparándolo con la teoría en que se basa la implementación, en cuanto al
comportamiento en el tiempo y a variaciones de Round Trip Time (RTT), poniendo énfasis en la reducción de la ventana de congestión, el cumplimiento de las condiciones de Carrier-Ethernet y la reducción del cuello de botella impuesto por la capa de transporte para valores altos de RTT. Además los resultados experimentales se contrastan con el funcionamiento general de otros métodos de congestión bajo un ambiente de pruebas controlado, demostrando la superioridad de ESTP en la medida que los valores de RTT aumentan. Así, se observa que a un valor de RTT de 70[ms], en un ambiente de pérdida variable, el flujo de datos de ESTP es superior a BIC en un 35,7% , a CUBIC en un 41,1% y a RENO en un 71,8%.
Cabe señalar que a raíz de esta investigación se publicaron tres papers titulados: A Carrier-Ethernet Oriented Transport Protocol with a Novel Congestion Control and QoS Integration: Analytical, Simulated and Experimental Validation ( ICC 2012), Ethernet-Services Transport Protocol Design oriented to Carrier Ethernet Networks (GLOBECOM 2012) y Ethernet-Services Transport Protocol forCarrier Ethernet Networks ( ICCCN 2012). Además de un journal enviado, denominado: QoS-supporting Transport Protocol with Congestion Intensity Estimation .
|
Page generated in 0.1379 seconds