Spelling suggestions: "subject:"ciencias dde lla computacional"" "subject:"ciencias dde lla computacionais""
71 |
Modelo epidemiológico simple para la fiebre tifoidea con tasa de incidenciaRivera Maldonado, Sheyla Melanie January 2017 (has links)
El documento digital no refiere asesor / Sugiere campañas de educación dirigidas, las cuales son eficaces para detener la transmisión de la fiebre tifoidea, si es en más del 40% de las veces, serán altamente efectivo para controlar la enfermedad en la comunidad. La fiebre tifoidea es una enfermedad contagiosa, que solo se encuentra en el hombre y se produce debido a la infección sistémica principalmente por el organismo de la Salmonella typhi. La enfermedad es endémica en muchos países en desarrollo y sigue siendo un importante problema de salud pública a pesar de los recientes avances en la cobertura de agua y saneamiento a nivel mundial, se estima que la fiebre tifoidea causa más de 16 millones de casos cada año, lo que resulta en más de 6000.000 muertes. Un modelo matemático para evaluar el impacto de las campañas de educación sobre el control de lo dinámica de transmisión de la fiebre tifoidea en la comunidad, se ha formulado y analizado el numero reproductivo se ha calculado. El impacto de las campañas educacionales sobre el control de la dinámica de transmisión de la fiebre tifoidea se he discutido a través de un número reproductivo básico y numerosas simulaciones. / Trabajo de suficiencia profesional
|
72 |
Procesamiento paralelo y distribuido aplicado al almacenamiento y recuperación de información documentalZorrilla Pantaleón, Marta Elena 20 December 2001 (has links)
Para la consecución del objetivo propuesto, se ha trabajado con redes neuronales con función de base radial, perceptrones multicapa y con métodos constructivos como Cascade Correlation. Los resultados obtenidos con estas arquitecturas no han sido positivos, pues, o bien fracasaban en el ajuste, o bien, la memoria requerida era muy superior a su alternativa con Índices Inversos.Por este motivo, se ha propuesto una nueva arquitectura, la de red Hiperbandas, cuyas características más relevantes se pueden resumir en que se trata de una red que se construye ex profeso para clasificar un conjunto de datos de entrada sin interacción del usuario, con error cero y adecuada para situaciones donde los patrones de entrada se agrupan formando clases que pueden estar solapadas. Para verificar las prestaciones de esta nueva arquitectura, se han realizado comparaciones con el sistema usual basado en la técnica de Índices Inversos implementado mediante un B-Tree simple. Para llevar a cabo este análisis, se han examinado los parámetros que se utilizan generalmente para evaluar el rendimiento de un DRS, estos son: el tiempo de indexación, el espacio de almacenamiento requerido, la eficiencia de búsqueda y la efectividad de la consulta.
|
73 |
Razonamiento geométrico basado en visión para la determinación y ejecución del agarre en robots manipuladoresSanz Valero, Pedro José 04 October 1996 (has links)
Se presenta un sistema capaz de coordinar una pinza de dedos plano-paralelos y un sistema de visión con el objetivo de determinar puntos de agarre bajo condiciones de estabilidad.La elección de puntos de agarre se realiza mediante una nueva heurística que trata de manejar todo tipo de objetos planos con centroide exterior o interior, permitiendo agujeros. Sólo se requieren dos características basadas en los momentos, centroide y dirección del eje principal, obtenidos a partir de una representación del código de cadena de Freeman del contorno. Los resultados son parámetros visuales exclusivamente, expresados en coordenadas visuales (píxeles).Dichos algoritmos se han implementado en un robot manipulador con 4 GDL y fijando una cámara CCD en su muñeca. El sistema de control utiliza realimentación visual, consiguiendo incrementar la precisión hasta el límite del sistema de visión utilizado.
|
74 |
Diseño de un entorno colaborativo y su aplicación a plataformas de aprendizajeMartínez Carreras, María Antonia 13 July 2005 (has links)
Los entornos colaborativos educacionales, así como las herramientas educacionales están tomando grandes repercusiones en nuestra sociedad, llevándose a cabo en la actualidad numerosos proyectos de investigación acerca de su construcción y su uso en comunidades educacionales. Las investigaciones llevadas a cabo durante estos años han estado basadas en la creación de entornos colaborativos y su aplicación en entornos educacionales, a través de las cuales se han realizado una serie de estudios sobre las ventajas y desventajas que proporcionan dichos entornos, tanto a nivel de arquitectura como a nivel de herramientas.Con lo cual uno de los objetivos de nuestro trabajo de investigación es ofrecer una plataforma colaborativa genérica que puede ser aplicada a cualquier ámbito colaborativo incluyendo el aprendizaje por descubrimiento. Para ello se han estudiado las principales tecnologías y las distintas plataformas existentes obteniendo a partir de ello los elementos necesarios para la creación de un entorno colaborativo genérico. Con el fin de consolidar dichos elementos mostramos como se han aplicado al desarrollo de aplicaciones y plataformas dentro del ámbito de dos proyectos europeos, ITCOLE y COLAB. / Earning collaborative environments as well as learning tools have taken a prominent relevance in society, producing a growth of research projects regarding the building and the use of this system in education area. During the last years the research in this area has been focused on the building of different kinds of collaborative platforms and its usage in the educational arena, providing different kinds of studies which indicate the advantages and disadvantages of the use of them. These studies have covered the architecture of these systems and the use of them. Therefore, the aim of this research is to provide a generic collaborative environment which can be applied to any area, including discovery learning. For that reason, we have studied the main technologies and platforms for obtaining the elements needed in the building of a generic collaborative environment. Moreover, we have included these elements in the development regarding two European projects, ITCOLE and COLAB.
|
75 |
El Método de Neville : un enfoque basado en computación de altas prestacionesCortina Parajón, Raquel 10 September 2008 (has links)
En esta memoria se ha llevado a cabo un trabajo original sobre las prestaciones de varios algoritmos organizados por bloques para aplicar la eliminación de Neville sobre un sistema de ecuaciones lineales (Ax=b) en un computador paralelo, utilizando el paradigma de paso de mensajes y distintas métricas que nos han permitido analizar las prestaciones de los algoritmos estudiados. La eliminación de Neville es un procedimiento alternativo a la eliminación de Gauss para transformar una matriz cuadrada A en una matriz triangular superior. Estrictamente hablando, la eliminación de Neville hace ceros en una columna de A añadiendo a cada fila un múltiplo de la fila previa. Esta estrategia se ha probado especialmente útil cuando se trabaja con cierto tipo de matrices, como por ejemplo, las totalmente positivas o las signo-regulares. Una matriz se dice totalmente positiva si todos sus menores son no negativos. Este tipo de matrices aparecen en muchas ramas de la ciencia, como por ejemplo en, Matemáticas, Estadística, Economía, o en Diseño Geométrico Asistido por Ordenador. En esta línea, los trabajos de un amplio número de autores han mostrado en los últimos años que la eliminación de Neville es una alternativa interesante a la de Gauss para cierto tipo de estudios.En el desarrollo de algoritmos paralelos para resolver problemas de Algebra Lineal Numérica la organización por bloques se muestra como la más eficiente para obtener el máximo provecho de las máquinas actuales, tanto en cuanto al buen uso de la jerarquía de memorias en máquinas con memoria compartida como al aprovechamiento del paralelismo explícito en máquinas de memoria distribuida. Con esta organización se suelen obtener algoritmos eficientes y escalables. Dos librerías bien conocidas como Lapack y ScaLapack utilizan como principal estrategia de diseño de sus algoritmos paralelos la organización por bloques. Para poder llegar a códigos óptimos es necesario definir los parámetros del problema y hacer un análisis profundo del comportamiento de los algoritmos desarrollados en función de las propiedades de éstos. Este análisis debe tener en cuenta el comportamiento de los algoritmos en cuanto a tiempo de ejecución, speedup/eficiencia y escalabilidad. Cuando los algoritmos se organizan por bloques es especialmente importante la relación entre el tamaño del bloque y las prestaciones en cada una de las métricas citadas. El tamaño de los bloques puede influir notablemente en las prestaciones. Es importante conocer como influye en cada una de ellas, si se desea un tipo de algoritmo concreto que optimice las prestaciones en una u otra métrica, o en el conjunto de todas ellas. En nuestro trabajo proponemos una organización del algoritmo de eliminación de Neville para computadores que sigan el modelo de paso de mensajes, y llevamos a cabo un análisis general basado en tres métricas: tiempo, speedup/eficiencia y escalabilidad. Este análisis se considera para las distribuciones por bloques más usuales de los datos, distribuciones unidimensionales (por filas y columnas) y bidimensionales, y se compara con el caso experimental en dos tipos de máquinas representativas del modelo de paso de mensajes: una red de estaciones de trabajo y un multicomputador, para lo que previamente se ha modelizado el comportamiento de ambos entornos.
|
76 |
Desarrollo de Sistemas de Visión en Fútbol RobóticoDodds Rojas, Ricardo January 2009 (has links)
Ingeniero Civil Electricista / Esta memoria tiene como objetivo diseñar e implementar algoritmos de visión computacional, en diferentes etapas del sistema de visión de un robot que juega fútbol robótico. Dado que por lo general un robot tiene una capacidad de procesamiento limitada, el principal objetivo de esta memoria es mejorar la eficiencia del sistema completo, sin afectar su rendimiento. Las mejoras propuestas consisten básicamente en tres etapas: adaptación del sistema de visión al uso de un lente gran angular, implementación de un perceptor visual del arco de fútbol basado en un clasificador construido a partir de una red neuronal y el diseño de un sistema de procesamiento de imágenes multi-resolución.
Para adaptar el sistema de visión al uso de un lente gran angular se utiliza un mapeo desde el espacio de la imagen con gran angular a un espacio que asume proyección plana en la imagen, basado en una transformación polinomial. Los parámetros de este mapeo corresponden a los coeficientes del polinomio de transformación y son determinados a partir de un algoritmo de optimización PSO (Particle Swarm Optimization), que utiliza como función objetivo una medida de distorsión de la imagen mapeada.
Para el perceptor del arco se utilizan en una primera etapa una serie de reglas binarias para descartar rápidamente percepciones erróneas. Posteriormente se extraen características de los candidatos que se utilizan como entrada a un clasificador basado en una red neuronal del tipo MLP (Multi Layer Perceptron). Así los candidatos reciben un puntaje de acuerdo a sus características y se escoge el mejor.
En el sistema de procesamiento multi-resolución se toma en cuenta el hecho que los objetos más lejanos, y que por lo tanto se ven más pequeños en la imagen, se encuentran cerca del horizonte. A partir de esta premisa se realiza un procesamiento más fino de la imagen en sectores cercanos al horizonte.
Dada la naturaleza del trabajo se utilizan distintas herramientas para medir el desempeño de cada parte. Para el caso del mapeo de la imagen se utiliza el error máximo de alineamiento en la imagen resultante de puntos co-lineales en el mundo real, medido a través de la norma de los residuos arrojados por un ajuste de mínimos cuadrados, obteniéndose un error de ajuste máximo de 1,02. Mientras que para medir el rendimiento del perceptor basado en un clasificador se miden: tasa de detecciones correctas y tasa de falsos positivos, encontrándose un 96,5 y 1,5 [%] respectivamente. Finalmente el resultado del algoritmo multi-resolución se evalúa a través del cálculo del máximo número de pixeles recorridos al procesar una imagen, con lo cual se determina que se analizan en el peor de los casos, menos de un tercio de los pixeles que usando el sistema anterior.
Los resultados obtenidos muestran que los métodos propuestos tienen un buen desempeño. En cada etapa se aprecia la ventaja de su uso, por lo que se considera el trabajo realizado como una mejora integral al sistema de visión del equipo de fútbol robótico. No obstante, no deja de ser interesante buscar mejores aproximaciones a cada problema y al sistema completo.
|
77 |
Un problema de Dirichlet no localSánchez Vera, Juan Carlos January 2017 (has links)
Se prueba que un problema de Dirichlet no local posee una solución débil. La demostración se realiza mediante el uso de un corolario del Teorema de Weierstrass Generalizado. Así mismo, se prueba un resultado de unicidad bajo una condición de pequeñez y se presenta la solución numérica del problema. / Tesis
|
78 |
Desarrollo de una metodología que permita realizar la formulación y evaluación de proyectos orientados al área de tecnología de informaciónPalacios Pacherres, Luis Héctor January 2017 (has links)
Las organizaciones a nivel mundial implementan diversos proyectos de tecnología de información, estudios realizados por diferentes consultoras de prestigio a nivel mundial muestran una elevada estadística de fracasos en los proyectos realizados, estas estadísticas se mencionan en el desarrollo de la tesis, teniendo como premisa que el desarrollar un proyecto de tecnología de información y comunicaciones es complejo, debido a que el resultado es abstracto (software) y no concreto como en otras industrias (construcción de un puente y/o edificios, etc.), donde las variables de medición son más sencillas de cuantificar y de evaluar, el principal origen es que se tiene una metodología inadecuada y/o inexistente, no definiéndose adecuadamente el objetivo esperado ni las expectativas esperadas luego de su implementación, excediéndose en tiempo y presupuesto asignado, no se tiene en cuenta la recuperación de la inversión, entre otros aspectos, y en casos extremos estos no se llegan a finalizar los proyectos. La presente investigación desarrolla una metodología para la formulación y evaluación de proyectos de tecnología de información y comunicaciones que permitan realizar proyectos exitosos y que garantice una gestión adecuada en la etapa de formulación y evaluación del proyecto. La investigación es de tipo aplicada, de nivel explicativo y de diseño pre experimental. Se tendrá una muestra de proyectos implementados bajo esta metodología con resultados exitosos, de acuerdo a las variables de estudio. / Tesis
|
79 |
Análisis Matemático y Computacional en Mercados Económicos: El Modelo de KrouglovValeriano Mamani, Javier Orlando January 2018 (has links)
Publicación a texto completo no autorizada por el autor / Analiza algunos de los modelos matemáticos propuestos para mercados económicos, descritos por sistemas de ecuaciones diferenciales ordinarias de segundo orden que se rigen por las fuerzas que actúan en dichos mercados sobre el comportamiento de la oferta y demanda. Parte de un modelo simple que considera un ofertante y un demandante, parta el cual realiza un análisis cualitativo y simulaciones numéricas junto con interpretaciones para la dinámica del mercado. / Tesis
|
80 |
Sanidad de las Rutas Chilenas en InternetSepúlveda Rojas, Pablo Ignacio January 2010 (has links)
Internet es una red de redes; para poder comunicarse, se debe encontrar un camino entre el emisor y el receptor. El protocolo más usado para encontrar caminos entre redes distantes es Border Gateway Protocol (BGP). Este protocolo se basa en la confianza, por lo que es vulnerable a ataques y a errores de configuración, además, estos errores se propagan rápidamente, pudiendo afectar una parte considerable de Internet. Por esto se hace necesario contar con herramientas que detecten estos problemas. Cada red se dice visible desde algún punto, si desde ese punto se puede enviar información hacia esa red. El ideal de internet, es que todas las redes sean visibles desde todos los puntos,pero por los problemas antes mencionados, esto no siempre se cumple. En este trabajo se estudió el porcentaje de visibilidad de las redes chilenas, agrupadas por empresa. Para esto se creó una herramienta dividida en tres partes: recolección de datos, procesamiento y visualización de los datos. La visualización se realiza vía web, y cuenta con gráficos generados dinámicamente, para ayudar a una mejor comprensión de los datos. Los resultados mostraron que Chile tiene una alta visibilidad, cercana al 100 % en IPv4,mientras que en IPv6, se mantiene cercana al 82 %. Así mismo, la cantidad de redes usadas difiere notablemente entre ambas versiones, se usan 315 redes chilenas IPv4 y sólo 13 de IPv6. Se concluye que las redes chilenas tienen una configuración adecuada, que les permite ser alcanzables desde todos los puntos estudiados. Además estas configuraciones son bastante estables. Se constató también que si bien IPv6 está aún muy por debajo de IPv4 en penetración, esta ha ido aumentando.
|
Page generated in 0.126 seconds