• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 2
  • Tagged with
  • 8
  • 8
  • 8
  • 4
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Diseño de Moldes para la Detección de Iris Mediante Optimización por Enjambre de Partículas

Navarro Clavería, Carlos Felipe January 2010 (has links)
La detección y localización de iris es uno de los temas más interesantes en el área de detección de patrones, debido a que es un paso crucial para el desarrollo adecuado de aplicaciones más complejas como: sistemas de vigilancia; verificación de identidad; interfaces hombre-máquina; sistemas de ayuda para individuos con discapacidad, entre muchos otros. Lo anterior mezclado al fuerte crecimiento en el mercado biométrico alrededor del mundo hacen que sea de gran importancia encontrar nuevas metodologías de detección de iris rápidas y precisas que permitan adaptarse a condiciones y ambientes complejos. En este trabajo de memoria se estudian dos métodos que apuntan a mejorar la localización del iris. El primero de ellos define parámetros asociados a moldes utilizados para detectar el borde entre el iris y la esclerótica del ojo. Dichos parámetros no han sido optimizados sino especificados intuitivamente por seres humanos. Por medio del algoritmo de optimización por enjambre de partículas son optimizados los parámetros en una base de entrenamiento, y se generalizan los resultados en varias bases de prueba y los errores utilizan una métrica basada la diferencia entre la detección y el centro real del iris. Este error es normalizado dividiendo por la distancia entre los centros de ambos ojos. Los resultados muestran mejoras respecto del caso sin optimizar en la eficacia de la detección de un 4% en FERET y un 5.7% en Bio ID. Estos porcentajes se refieren a la cantidad de imágenes que cumplen con poseer un error menor a un 1%. El costo computacional adicional es el aumento en los tiempos de detección en un de un 130 a un 172 milisegundos por cuadro en FERET y de 69.85 a 92.57 milisegundos por cuadro en Bio Id. El segundo método propone rediseñar los moldes de manera automática utilizando enjambre de partículas, ya que el modelo propuesto de arcos concéntricos puede no ser el óptimo. Se obtuvieron mejoras respecto de los moldes de arcos concéntricos en la base Bio ID del 8.5%. En la base FERET los resultados no mejoran, pero el tiempo de cómputo se reduce de 130 milisegundos por cuadro a 19.57 milisegundos por cuadro en el mejor caso. Estos moldes deben ser precisos en la detección del iris y también deben involucrar la menor cantidad de cómputos posibles. Para lograr este propósito se deben definir eficientemente los tamaños de dichos moldes, existiendo un compromiso entre los resultados de reconocimiento y la eficiencia de este resultado.
2

Object Detection Using Nested Cascades of Boosted Classifiers. A Learning Framework and Its Extension to The Multi-Class Case

Verschae Tannenbaum, Rodrigo January 2010 (has links)
No description available.
3

Modelo neurofisiológico para la difusión de información en redes sociales

Cleveland Ortega, Pablo Andre January 2018 (has links)
Magíster en Gestión de Operaciones / El creciente uso de los servicios de Internet, particularmente de las redes sociales (OSN) ha generado una gran oportunidad para entender mejor el comportamiento de los usuarios como también de los flujos de información. A pesar de que la modelación de los flujos de información no es un tema nuevo, sí es de mucha dificultad y gracias a la aparición de OSNs y comunidades virtuales de práctica (VCoPs) es que ha resurgido como tema, gracias a la disponibilidad de data. Sin embargo, la mayoría si no todos los estudios revisado solo modelan a un nivel macroscópico, donde los grandes números absorben comportamientos indeseados y así se reportan buenos resultados. Nuestra hipótesis es que es posible modelar la difusión de información a nivel microscópico mediante un modelo derivado de la neurofisiología. El objetivo principal de este trabajo es desarrollar e implementar una metodología para predecir el intercambio de información entre usuarios a un nivel microscópico usando el contenido de texto mediante técnicas de Text Mining, con el _n de apoyar el proceso de administración de una VCoP. Para ello se propone una metodología que combina dos procesos Knowledge Discovery in Databases (KDD) y SNA y fue aplicada sobre una VCoP real llamada Plexilandia. En la etapa de KDD se efectuó la selección, limpieza y transformación de los posts de los usuarios, para luego aplicar una estrategia de reducción de contenido Latent Dirichlet Allocation (LDA), que permite describir cada post en términos de tópicos. En la etapa de SNA se aplicó un modelo neurofisiológico de toma de decisiones adaptado a preferencias de texto para predecir la formación de arcos entre hilos y usuarios usando la información obtenida en la etapa anterior. Los resultados de los experimentos muestran que es posible predecir con un alto porcentaje de éxito, 65 a 80% cuando hay poco ruido y 40 a 60% cuando existe elevado ruido, las interacciones entre usuarios basándose en la similaridad de los textos producidos por ellos. Esto permite vislumbrar la forma en que se difundirá un mensaje e identificar a usuarios que potencialmente estén interesados en un hilo.
4

Desarrollo de un Método de Clasificación de Edad para Imágenes Faciales Basado en Análisis Antropométrico y de Texturas

Saravia Estrada, Jacob Alejandro January 2011 (has links)
Ingeniero Civil Eléctrico / Un sistema que ayude a determinar la edad de las personas se transforma en una gran ayuda para facilitar una serie de tareas, como estudios de mercadeo, selección de contenidos aptos para ciertos grupos etarios, entre otros sistemas basados en interacciones humanas. El presente trabajo expone el desarrollo de un algoritmo que sea capaz de estimar edad y clasificar en rangos etarios utilizando rostros frontales, realizando para ello un análisis antropométrico de proporciones faciales en conjunto con un análisis de textura de la piel en determinadas zonas claves del rostro. Para ello es que se calculan ciertas proporciones del rostro y, por otro lado, se determina el nivel de arrugas, mediante la obtención de la intensidad, cantidad y distribución espacial de dichos surcos en la piel. Con tales datos se efectúa un procedimiento de clasificación, contrastando un par de algoritmos de aprendizaje computacional conocidos como redes neuronales artificiales y máquinas de soporte vectorial. Para ajustar los parámetros del algoritmo anteriormente descrito, se aplica una optimización por enjambre de partículas. Con todo esto en mente, el clasificador con mejor desempeño es el que en función de la cantidad de grupos previamente definidos (e.g. niño, joven o adulto) entregue la mayor tasa de aciertos, o el que mediante una aproximación de la edad real (en cantidad de años) presente un menor error. Para dichas tareas se obtuvo una clasificación con una tasa de aciertos de un 98% en promedio para 2 clases, y 6 años de error en promedio para la estimación de la edad real del sujeto.
5

Flujo de carga óptimo estocástico con estabilidad transitoria para el estudio de la operación de la red de transmisión con nuevas tecnologías de control

Aldea Erices, Sebastián Andrés January 2015 (has links)
Ingeniero Civil Eléctrico / El problema de flujo de carga óptimo con restricciones de seguridad (o en inglés Security Constrained Optimal Power Flow -SCOPF-) en un sistema eléctrico de potencia (SEP) es un problema que consiste en determinar el despacho de cada máquina de la red, satisfaciendo los consumos de la misma, al menor costo posible y considerando soluciones que respeten las capacidades de los componentes eléctricos tanto antes como después de la ocurrencia de posibles fallas en el sistema. La solución a este problema significa, en la mayoría de los casos, una operación que subutilice la infraestructura de la red, elevando el costo de la operación del sistema. En este contexto, las tecnologías de control correctivas permiten operar un sistema eléctrico más cercano a las restricciones impuestas por su propia capacidad. Así, evaluar el efecto de la implementación de uno de estos esquemas correctivos y del tiempo de acción/latencia del mismo originada por posibles retrasos en la comunicación entre los diversos mecanismos que conforman el esquema, e implementar un método de resolución al problema de despacho óptimo económico con consideraciones de estabilidad angular, son los principales objetivos del trabajo. Esto se realiza mediante un modelo de optimización novedoso que incorpora explícitamente las ecuaciones diferenciales que representan la dinámica del sistema post-falla. Para la resolución del problema propuesto se utilizó un algoritmo PSO (Particle Swarm Optimization, por sus siglas en inglés) que permite lidiar de manera heurística con las complejidades de la formulación. Al estudiar el efecto del mecanismo de acción correctiva en sistemas de distinto tamaño sometidos a una falla trifásica cercana a bornes de uno de sus generadores de bajo costo se evidenció el notable aumento sobre el uso de la capacidad de la red, cuando la latencia de la acción correctiva es del orden de 0,2 segundos, aumentando notablemente la generación desde la zona exportadora hacia la importadora (hasta en un 35% en los ejemplos particulares de este trabajo).. En cuanto al algoritmo PSO propuesto para la resolución del problema de despacho óptimo se comprobó su exactitud en base a comparaciones con una búsqueda exhaustiva de la solución óptima sobre todo el dominio del problema. En los ejemplos de este trabajo, el algoritmo propuesto es capaz de entregar una solución en 0,46% del tiempo utilizado por la búsqueda exhaustiva (0,08 horas comparado con 18 horas) con el mismo nivel de exactitud.
6

Optimización y paralelización de un algoritmo de generación de Skeletons a partir de mallas geométricas aplicado a estructuras biológicas

Rojas Hernández, Iván Yerko January 2014 (has links)
Ingeniero Civil en Computación / El estudio cuantitativo de estructuras microscópicas 3D requiere de herramientas computacionales, tanto para realizar mediciones como para su visualización, dada su complejidad y gran volumen. Una de las herramientas para medir y visualizar estas estructuras es el skeleton. Un skeleton es la representacion simplificada de la estructura en forma de grafo, compuesta por nodos y segmentos. Si bien existen múltiples algoritmos para su generación, estos buscan generalmente mantener propiedades topológicas y geométricas del objeto de estudio. Actualmente se cuenta con la implementación de un algoritmo de generación de skeletons [2], basado en el algoritmo propuesto por Au et al [3]. Esta implementación, si bien entrega resultados satisfactorios, presenta tiempos de cálculo muy extensos. Dado lo anterior, es que esta memoriam tiene como objetivo analizar y optimizar el tiempo de ejecución de esta implementación. En este trabajo se realizaron optimizaciones seriales y la paralelización del cálculo. La optimización serial incluyó: (1) implementación del algoritmo con una nueva estructura de datos: Halfedge, (2) optimización en la actualización de costos de arcos, (3) optimización en el uso de la cola de costos y (4) optimización de estructuras de datos. La paralelización fue realizada sobre una de las etapas más demandantes del algoritmo usando la unidad de procesamiento gráfico (GPU). Para validar las optimizaciones y paralelización, se realizaron pruebas de la correctitud y speed-up alcanzado en: (1) modelos 3D creados simples, (2) modelos sintéticos de estructuras biológicas y (3) modelos de estructuras biológicas obtenidas de imágenes de microscopía. Con las optimizaciones y paralelización implementados, se logró una mejora sustancial en el tiempo, pasando de días a minutos o incluso segundos. Además, se verificó que estas mejoras mantienen los skeletons resultantes bien definidos, vale decir, mantienen las propiedades que deben cumplir.
7

Indexamiento en espacios no-métricos

Sepúlveda Benitez, Víctor Hugo January 2012 (has links)
Magíster en Ciencias, Mención Computación / Ingeniero Civil en Computación / La mayoría de los sistemas de recuperación de información multimedia utilizan algún esquema de indexamiento para acelerar las búsquedas por similitud en una colección de datos, evitando un análisis detallado de grandes porciones de la colección. Estos enfoques suelen utilizar la desigualdad triangular para descartar elementos. Esto requiere que la distancia de comparación satisfaga los postulados métricos. Sin embargo, estudios recientes muestran que para ciertas aplicaciones resulta apropiado el uso de distancias no métricas, que pueden entregar mejores juicios de la similitud de dos objetos. En esos casos, la falta de la desigualdad triangular hace imposible el uso de los enfoques tradicionales para el indexamiento. En esta tesis se estudian, implementan y prueban las principales técnicas del estado del arte para indexar espacios no métricos genéricos, en un ambiente que permite concluir acerca de varios aspectos y las ventajas de las diferentes estrategias probadas. Las técnicas consideradas fueron DynDex, LCE, QIC y TriGen, aunque la técnica QIC no es comparada con las demás pues falla en ser adecuadamente aplicable a los diferentes espacios en estudio. Se utilizan varios espacios no métricos con distintas características tanto en el índice de fallo de la desigualdad triangular, como en la capacidad de indexamiento. Adicionalmente, se propone e implementa CP-Index, una técnica de indexamiento aproximado original. Esta técnica hace uso de Clustering y de Pivotes para acelerar las búsquedas en espacios no métricos, sin comprometer significativamente la calidad de la respuesta. CP-Index se adapta dinámicamente a las condiciones del espacio no métrico, usando pivotes cuando la fracción de tríos que rompen la desigualdad triangular es pequeña, pero buscando secuencialmente los candidatos más prometedores cuando el uso de pivotes se vuelve inútil para descartar elementos. Una conclusión importante de esta investigación es que la mayoría de las técnicas que tratan de generar un resultado exacto durante las búsquedas por similitud resultan ser demasiado costosas para los conjuntos de datos utilizados. En su lugar, las técnicas aproximadas tienden a generar un mucho mejor trade-off de trabajo y calidad. Por ejemplo, LCE resulta ser una técnica excesivamente costosa tanto en tiempo de construcción como en tiempo de consulta pues modifica la distancia reduciendo mucho el poder de descarte de los índices tradicionales. Por otro lado, CP-Index obtiene resultados ligeramente superiores a los de DynDex y TriGen, pero con la ventaja de no necesitar exhaustivas pruebas y ajustes para adaptarse a las características del espacio. De este modo, en aquellos espacios en los que DynDex supera a TriGen, CP-Index se comporta igual o mejor que el primero, mientras que en los espacios en los que TriGen funciona mejor, CP-Index también obtiene resultados ligeramente superiores.
8

Detección de Anomalías en Procesos Industriales Usando Modelos Basados en Similitud

León Olivares, Alejandro Samir January 2012 (has links)
La detección de anomalías en procesos industriales es un tema de alto impacto que ha sido analizado y estudiado en diversas áreas de la ingeniería e investigación. La mayor parte de los métodos de detección actualmente disponibles posibilitan el estudio de las irregularidades encontradas en el historial de un proceso, ayudando a extraer información significativa (y a veces crítica) en una amplia variedad de aplicaciones, y convirtiéndose de este modo en parta fundamental e integral de esquemas de reducción de costos tanto humanos como económicos en la industria contemporánea. El objetivo general de este trabajo es desarrollar e implementar un enfoque modular de detección de anomalías, aplicable a procesos industriales multivariados y fundado en el análisis de residuos generados a partir de modelos no paramétricos basados en similitud (similarity-based modeling, SBM). La herramienta consiste principalmente de un sistema de generación automática de modelos SBM, una metodología de estudio de eventos y un algoritmo estadístico de detección. El trabajo realizado se enmarca en un proyecto de colaboración conjunta entre las empresas CONTAC, INGENIEROS LTDA. y ENDESA-CHILE. Gracias a esto, ha sido posible evaluar el sistema propuesto utilizando datos de operación correspondientes a una central termoeléctrica de ciclo combinado perteneciente a la segunda empresa ya mencionada. Las comparaciones en cuanto al desempeño del sistema de modelación implementado permiten concluir que el algoritmo es capaz de generar una representación más apropiada del proceso, basado en el error obtenido con la técnica de modelación SBM, la cual es cercana al 25% del error obtenido con la técnica de modelación lineal en los parámetros. Además, la metodología de estudio de eventos permite detectar correctamente las variables que no aportan al objetivo de detección de un evento en particular, así como también identifica las variables más significativas para lograr tal propósito, reduciendo el número de variables analizadas y con esto, los requerimientos de cómputo de operación en línea. La validación de los resultados entregados por el método de detección de anomalías desarrollado, permite aseverar que la utilización de modelos no-paramétricos tipo SBM, en combinación con la metodología de estudio de eventos y el algoritmo estadístico de detección, resultan eficaces a la hora de generar alarmas y detectar las anomalías estudiadas.

Page generated in 0.2847 seconds