• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 14
  • Tagged with
  • 14
  • 14
  • 14
  • 13
  • 13
  • 5
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Algoritmo de cifrado simétrico AES

Pousa, Adrián January 2011 (has links) (PDF)
El objetivo de este trabajo es mostrar la aceleración en el tiempo de cómputo del algoritmo criptográfico Advanced Encryption Standard (AES) con clave de tamaño 128bits, que se obtiene al aprovechar el paralelismo que proveen las arquitecturas multicores actuales utilizando herramientas de programación paralela. AES es uno de los algoritmos de criptografía más usados en la actualidad, con el crecimiento de las redes y la información que se maneja hoy en día puede ser necesario cifrar un volumen muy grande de información para lo que se requiere mayor velocidad en los procesadores, pero esto actualmente no es posible debido a que los procesadores han llegado al límite de velocidad por problemas térmicos y de consumo, por esta razón se está incrementando la cantidad de procesadores en los equipos. Como aporte de la concreción de este trabajo se pretende presentar un análisis de rendimiento que muestre cómo a pesar de las limitaciones de velocidad de los procesadores, es posible, mediante herramientas de programación paralela, aprovechar las arquitecturas multicore para acelerar el cómputo del algoritmo AES y así reducir el tiempo de cifrar información ya sea para almacenarla o enviarla por la red.
2

Sistemas inteligentes aplicados a redes de datos

Corbalán, Leonardo January 2007 (has links) (PDF)
El presente trabajo monográfico tiene por objetivo presentar una visión general sobre el estado actual y la actividad científica relacionada con los sistemas inteligentes aplicados en áreas inherentes a las redes de datos. He recopilado una vasta cantidad de publicaciones vinculadas con la temática aquí pretendida. Sin embargo, la enumeración detallada de éstas resultaría tediosa y de escasa utilidad. En su lugar he estructurado la presentación del material agrupándolos en cinco tópicos generales con los que espero haber realizado una buena cobertura de los temas abordados. Pretendo no profundizar en detalles que oscurezcan la visión general que deseo brindar. Sin embargo, cada temática estará acompañada de las referencias correspondientes para que el lector interesado pueda hallar fácilmente las fuentes originales y ampliar los conceptos de su interés. A medida que vaya avanzando en los temas propuestos, y conforme sea necesario, iré introduciendo de forma muy reducida los conceptos más generales de las estrategias inteligentes utilizadas en cada caso. Este trabajo está organizado de la siguiente manera. En la sección 2 abordaré la temática del diseño óptimo de redes confiables y algunas soluciones aportadas por los Algoritmos Evolutivos. La sección 3 tratará el tema de ruteo en redes y la aplicación de los sistemas basados en Colonias de Hormigas. La problemática sobre cómo lograr una transmisión multicast eficiente será el tema de la sección 4 presentando algunas soluciones evolutivas para resolverlo. En la sección 5 presentaré una importante área de aplicación de las Redes Neuronales y los Sistemas Inmunes Artificiales en el contexto de la seguridad informática: los Sistemas de Detección de Intrusos. Finalmente, antes de las conclusiones, dedicaré la sección 6 al tratamiento de la recuperación de la información en Internet utilizando Agentes Inteligentes.
3

Análisis de proxies cooperativos en sistemas educativos

Sosa, Eduardo Omar January 2002 (has links) (PDF)
La caracterización del tráfico en un servidor proxy en un servicio de redes es una ayuda en la determinación de parámetros de almacenamiento, la capacidad destinada a ese efecto y la necesidad de estudios de simulación. El caché a nivel local, o también llamado replicación, ayuda pero no alcanza en promedio al 16% del total de solicitudes, con lo que la mayoría de ellas deben ser completadas con solicitudes a los servidores originales. En este trabajo se han realizado las observaciones y mediciones sobre cuatro servidores proxy cooperando entre ellos, que se encuentran actualmente en operación en la Universidad de Karlsruhe, República Federal de Alemania. La información obtenida desde los archivos en los servidores instalados en los puntos de acceso de la red los cuales trabajan en forma transparente. Se ha hecho un estudio comparativo de los rendimientos de cooperación obtenida y los beneficios sobre la red y los usuarios. Si bien este servicio no es considerado primordial en la UKA, debido al ancho de banda que disponen, el estudio es pertinente para relacionarlos con implementaciones en nuestras Universidades Nacionales consideradas chicas, que deben considerar todos y cada uno de los métodos para optimizar el recurso más escaso al realizar el estudio, el ancho de banda.
4

Algoritmos genéticos y su aplicación en optimización de redes

Hernández, José Luis January 1998 (has links) (PDF)
El presente trabajo realiza un análisis de los algoritmos genéticos que se diseñan para resolver problemas de optimización, que involucran no sólo funciones objetivo continuas y derivables sino aplicados a funciones con puntos de discontinuidad o de no derivabilidad. Asimismo se aplican a problemas de secuenciación en donde el espacio de soluciones está determinado por un conjunto de secuencias una de las cuales es la óptima, presente en muchos problemas de optimización en redes. En este tipo de problemas están presente las permutaciones y su representación intrínseca ha constituido un reto para los algoritmos genéticos. Se presenta un análisis de diferentes representaciones de los cromosomas que pueden ser utilizados en la resolución de los distintos problemas y del funcionamiento de los AG en los distintos casos, representaciones y parámetros que los gobiernan. Se seleccionan algunos ejemplos de aplicaciones de algoritmos genéticos en redes en los cuales se distinguen diferentes tipos de problemas y de aportes en los AG en cada ejemplo. Se hace hincapié en los operadores genéticos seleccionando para cada caso los más apropiados. Posteriormente se encara el diseño e implementación de un AG, utilizando el problema del viajante para un testeo preliminar de los AG y finalmente se aplica este diseño en uno de los ejemplos seleccionados. Conjuntamente se implementan algunas técnicas clásicas para contrastar los resultados. Finalmente se realiza una interpretación de los resultados justificando la exploración de estas técnicas como una alternativa válida en problemas de optimización de redes de datos, analizando las ventajas y desventajas de estos métodos frente a técnicas clásicas.
5

Optimización de enlaces de redes IP

Velurtas, Facundo January 2010 (has links) (PDF)
El crecimiento tecnológico va de la mano con el crecimiento y evolución de las aplicaciones. Con el correr del tiempo las redes de datos requieren más disponibilidad tornándose crítico para una red académica o privada. Pequeños cambios en el uso de la red pueden causar alto impacto en la misma, cuando nos referimos a impacto en general hablamos que es un impacto negativo, por ejemplo saturando un enlace o utilizando recursos asignados para otra aplicación mas prioritaria, esto aumenta el costo de operación de la red y como consecuencia una degradación de servicio. Se pretende lograr una completa visión de la “salud” de la red, observando en puntos clave para lograr una buena administración y la calidad de servicio de la misma. Se dará alcance a los siguientes ítems: • Medir y clasificar el tráfico en una red. • Detectar las aplicaciones, funcionamiento normal, congestión, fallas, cambios en el tiempo y evolución de una red. • Rastreo y análisis en la red para identificar actividad no autorizada o actividad que provoque degradación. • Herramientas para el planeamiento y control.
6

Herramientas de gestión basadas en web

Arias Figueroa, Daniel January 2000 (has links) (PDF)
El presente trabajo surge como una necesidad en el Campus de la Universidad Nacional de Salta, de contar con herramientas que faciliten al Ingeniero de redes realizar tareas de administración desde cualquier punto de la red, independizándolo de esta manera de la plataforma necesaria para ejecutar aplicaciones de gestión. La Administración o Gestión basada en Web es la aplicación de la tecnología World Wide Web a redes y administración de dispositivos. Pretende aprovechar la amplia difusión de los navegadores como interfaz de usuario universal, para utilizarlos como interfaz para las aplicaciones de gestión. Debido a que esta tecnología es relativamente nueva, pocos investigadores se adentraron en el tema hasta ahora. El principal beneficio de los mecanismos de Gestión basados en Web es que los desarrolladores de aplicaciones no tienen por qué conocer los detalles de los protocolos de gestión para manejar dispositivos remotos. Adicionalmente esto permite abstraer los diferentes protocolos y unificarlos con una única visión. Este trabajo plantea por una parte inspeccionar el área de la Gestión basada en Web, y compararla con las Herramientas de Gestión tradicionales basadas en SNMP. Se hace énfasis en muchas características como seguridad, eficiencia, costo, interfaz amigable, etc. Por otro lado intenta desarrollar un conjunto de herramientas que sean rápidamente implementables y permitan al Ingeniero de red realizar algunas operaciones de administración en agentes del tipo pc/routers, ver estadísticas, estado y evolución de estos dispositivos.
7

Mecanismos de Transición hacia redes IPv6

Taffernaberry, Juan Carlos 19 July 2011 (has links)
Debido a que el Protocolo de red de Internet actual, llamado IPv4, está alcanzando actualmente sus propios límites de diseño y se muestra incapaz de proveer una respuesta adecuada a las nuevas características deseables para Internet, en 1995 la Internet Engineering Task Force (IETF) comenzó a desarrollar un nuevo protocolo, llamado IPv6, para reemplazar al anterior. Contempla mejoras fundamentalmente en el espacio de direccionamiento y nuevas características como servicios de tiempo real, calidad de servicio, seguridad intrínseca, etc. El crecimiento de Internet ha originado que cada vez más computadoras necesiten conectarse a ella. Hay una enorme cantidad de dispositivos como teléfonos celulares, cámaras de vigilancia, dispositivos inalámbricos, etc, que necesitarán, en el mediano plazo, sus propias direcciones IP para conectarse a Internet, incluso algunos necesitarán varias direcciones. Ésta es la principal causa que lo está llevando a sus límites de diseño, pues en la versión actual del protocolo, no existen suficientes direcciones disponibles. El protocolo IPv6 presenta un nuevo desafío que es su despliegue para ponerlo en producción. En la actualidad millones de computadores están interconectados al backbone de Internet usando IPv4 y es imposible cambiar a la nueva versión, IPv6, en forma simultánea cada uno de ellos para que sigan trabajando normalmente, fundamentalmente por la imposibilidad de actualizar a IPv6 sistemas operativos de routers intermedios, servidores web (HTTP), o de correo (SMTP), etc sin soporte IPv6; también se presentan problemas en servidores de nombre (DNS) sin registros AAAA o A6 para direcciones IPv6, etc. El protocolo IPv6 es un protocolo “disruptivo”. El término disruptivo tiene sus orígenes en el libro “El dilema de Innovador” de Clayton Christensen, donde trata como los desarrollos tecnológicos pueden tener un impacto económico. Se basa en un estudio de la industria de Discos Rígidos, a través de varios años y varios cambios de tecnologías. Para nuestro caso, no se trata de quitar o deshabilitar IPv4 para usar, habilitar o instalar IPv6. Tampoco es una una migración, pues no es un día, mes o año (como el Y2K) para realizar la migración. Esto es una actualización necesaria de IP, permitiendo que ambas versiones convivan al mismo tiempo y/o independientemente. Por tal motivo la IETF ha definido una serie de mecanismos para hacer una suave transición donde convivan por un largo tiempo ambos protocolos. El presente trabajo ayudará al lector a lograr una transición controlada hacia el nuevo protocolo. El objetivo del presente trabajo fue realizar un Análisis, Evaluación y Comparación de Métodos de Transición del protocolo IPv4 al protocolo IPv6. Las comparaciones se hicieron usando un Test Bed llamado CODAREC6, permitiendo colaborar en el lento, pero inexorable camino hacia la internet sobre IPv6.
8

Caso de estudio de comunicaciones seguras sobre redes móviles ad hoc

Rocabado, Sergio 11 March 2014 (has links)
En este trabajo se presenta el estudio de un caso de integración de una MANET, desplegada en una zona remota, a una red de infraestructura. La finalidad principal es la de proporcionar, a los nodos de la red ad hoc, acceso “seguro” a un servidor de la red de infraestructura, sin comprometer recursos como ancho de banda y energía que son limitados en la zona de despliegue. Para ello, se implemento un escenario de pruebas que comprende el despliegue de una MANET en zona remota y la integración de la misma a una red de infraestructura a través de la red celular. Sobre el escenario propuesto se establecieron canales de comunicación extremo a extremo, entre un nodo de la MANET y un servidor de infraestructura. Inicialmente, se realizaron pruebas inyectando tráfico de datos sobre un canal “no seguro” para obtener valores de referencia para latencia, throughput y consumo de energía. Luego, se efectuaron las mismas pruebas utilizando canales de comunicación “seguros” configurados sobre protocolos IPSEC y SSL/TLS. Los resultados obtenidos utilizando canales “seguros” fueron comparados con los valores de referencia para determinar las diferencias de consumo de recursos. Las desviaciones que surgieron de estas comparaciones, permitieron: - Establecer el consumo adicional de recursos generado por el uso de protocolos seguros. - Realizar un estudio comparativo de rendimiento, entre diferentes configuraciones de protocolos de seguridad. - Determinar que protocolo seguro se adapta mejor a este tipo de entornos.
9

Selección de emisores de streaming

Iglesias, Luciano 14 March 2014 (has links)
Objetivos generales: - Investigar los aspectos vinculados a la obtención de servicios de streaming, el modelado de redes de datos y la caracterización del tráfico allí cursado. - Determinar un mecanismo que permita establecer un orden entre los nodos que brindan un determinado servicio o recurso deseado en una red "best effort" como es Internet Objetivos específicos: - Armar una taxonomía de los servicios que se pueden brindar en redes IP. - Analizar diferentes formas de modelizar redes de datos, de manera tal que resulte lo más fiel posible a la realidad de una red como Internet, en cuanto a topología, velocidad de enlaces, agregación y caracterización del tráfico, congestión, etc. - Diagramar y ejecutar simulaciones, en un modelo de red, que permitan cuantificar parámetros de comunicación (bandwidth, delay, jitter, packet loss) en diferentes tipos de servicios que se pueden brindar en dicha red. - Establecer un criterio que permita ordenar los nodos que ofrecen el servicio deseado considerando los resultados de las simulaciones abordadas.
10

Implementación y análisis de CBTv2 en el medioambiente Ns

Rigotti, Guillermo January 1998 (has links)
Desde la definición del modelo de servicio multicast en IP, el uso de estas facilidades ha ido adquiriendo cada vez mayor importancia en el ámbito de la Internet. El número de aplicaciones que demandan transmisión multicast, tales como conferencias de audio y video, simulación interactiva distribuida, descubrimiento de recursos, etc, ha aumentado en forma continua, viéndose reflejado en el crecimiento experimentado por el MBONE, experimental en sus inicios en 1992 y actualmente considerado indispensable para decenas de miles de usuarios. Los protocolos de ruteo multicast son los encargados de construir y mantener los árboles de distribución por los que fluye la información multicast. Estos protocolos deben ofrecer una performance adecuada a los requerimientos de una diversidad de aplicaciones (demora máxima acotada, diferencia entre demoras acotada, etc.), y a su vez realizar un uso eficiente de los recursos de la red. Es además de suma importancia su escalabilidad, ya sea en cuanto a la cantidad de grupos, número de emisores por grupo, dispersidad de los grupos y extensión de la red sobre la cual operan. Mientras que los primeros protocolos fueron concebidos para grupos densos y áreas reducidas (DVMRP, MOSPF), basándose en el paradigma source-group trees y en mecanismos de integración a los grupos por defecto y podas explícitas, otros como SM-PIM y fundamentalmente CBT versión 2, han sido diseñados para lograr escalabilidad, basándose en el paradigma shared trees para la construcción del árbol de distribución y en la solicitud explícita de integración a un grupo por parte de los routers interesados. Para poder estudiar las características de estos protocolos, es necesario recurrir a la simulación, debido a que en algunas ocasiones un modelo analítico resulta en demasiadas simplificaciones que lo alejan de la realidad. Por otra parte, en la mayoría de los casos es imposible disponer de redes reales de las dimensiones necesarias para llevar a cabo la experimentación. En este trabajo se presenta una implementación del protocolo CBT versión 2 en el medioambiente de simulación provisto por Ns, y un análisis de los costos de recuperación (PDUs transmitidas) y demoras que insume la reconstrucción de subárboles de distribución que quedan aislados como consecuencia de fallas en los vínculos de transmisión.

Page generated in 0.046 seconds