• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 32
  • 5
  • Tagged with
  • 37
  • 37
  • 31
  • 16
  • 9
  • 9
  • 7
  • 7
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Evaluación de estrategias de fusión para un sistema de identificación de personas multimodal utilizando imágenes de rostro y zona periocular

Smith Albornoz, Felipe Eduardo January 2015 (has links)
Ingeniero Civil Eléctrico / La biometría corresponde al estudio de medidas en base a diferentes características humanas, tales como huellas digitales, iris, rostro y voz, entre otros. Un gran campo de aplicación de esta corresponde al reconocimiento de rostro para seguridad y control de identidad. Recientemente, se han realizado estudios que indican que la zona peri-ocular, segmento que rodea al ojo, puede ser usado en un sistema de reconocimiento con buenos resultados. Este trabajo de título propone como objetivo estudiar la fusión de información entre dos sistemas de reconocimiento, basado en imágenes de rostro e imágenes de zona peri-ocular, a nivel de características, puntaje y decisión. Para ello se usan las bases de datos AT&T de rostro y una base propia de imágenes de zona peri-ocular pertenecientes al laboratorio de procesamiento de imágenes del Departamento de Ingeniería Eléctrica de la Universidad de Chile. Se implementan sistemas de reconocimiento basándose en 3 métodos de extracción de características diferentes, PCA, LDA y LBP, en C++ utilizando la librería FaceRecognizer de OpenCV. Se implementa además un sistema de fusión para cada nivel de información: característica, puntaje y decisión. Se realizan pruebas de desempeño a los sistemas de reconocimiento de forma individual, fusionados por nivel e integrados totalmente y se comparan mediante el área bajo la curva ROC y la curva de Precision-Recall. Se crea además un sistema fusionado por puntaje válido y moda de decisión llegando a un 98.57% de clasificación correcta. Finalmente se concluye que el mejor tipo de fusión es en el nivel de decisión, considerando el costo computacional de los algoritmos, y se entregan detalles sobre las direcciones a seguir en una posible investigación futura.
22

Teclado Controlado por Posición Ocular Utilizando Referencias Propias del Rostro

Cament Riveros, Leonardo January 2008 (has links)
No description available.
23

Evaluación y mejora de un sistema de reconocimiento de iris a distancia utilizando cámara de alta resolución

Yonekura Baeza, Sebastián January 2014 (has links)
Ingeniero Civil Eléctrico / Los sistemas biométricos corresponden a sistemas que realizan el reconocomiento automático de individuos a través de atributos únicos. Para que un patrón biométrico sea utilizable, debe cumplir ciertas propiedades, entre ellas las más importantes son: universalidad; invarianza en el tiempo; fácil recolección y almacenamiento. Se considera que el iris cumple con todas estas características y ha sido utilizado en sistemas de reconocimiento por más de una década. A medida que ha transcurrido el tiempo, los sistemas basados en reconocimiento de iris han mejorado considerablemente con respecto a su exactitud, sin embargo, aún se utilizan sistemas altamente cooperativos y en particular en condiciones de iluminación dañinas para la salud, por lo que la comunidad de investigadores se ha volcado en torno a relajar las restricciones en las que operan estos sistemas, con el fin de mejorar la experiencia de uso y la calidad de vida de los usufructuarios. En este trabajo se evalúa un sistema de reconocimiento de iris a distancia, en donde se utilizan las características de color y textura del mismo para llevar a cabo la clasificación. El trabajo abarca el estudio de distintos algoritmos de preprocesamiento de imágenes, esquemas de codificación y comparación propuestos durante los últimos años, los cuales se evalúan cada uno por separado y finalmente se utilizan en conjunto, además de describir el método propuesto para computar la desición final del sistema. El algoritmo se evalúa en una base de datos que consta de 1505 imágenes correspondientes a 54 sujetos, tomadas a una distancia aproximada de 1.5 [m] de distancia de la cámara utilizando iluminación de espectro visible. A partir de esta base de datos se seleccionan las mejores imágenes de iris utilizando distintos sistemas de evaluación de enfoque, luego se particiona en una base de datos de entrenamiento de parámetros y otra de validación, y finalmente se muestran los resultados con respecto a la base de datos de validación. Se utilizaron kernels para evaluar el enfoque de las imágenes capturadas, en particular los propuestos por Daugman, Kang y Wei y se observó que el kernel de Daugman resulta ser más efectivo. Se utilizaron distintos métodos de corrección de enfoque, reducción de ruido y ecualización de imágenes combinados para mejorar la tasa de reconocimiento del sistema, y se concluyó que el filtro de Wiener para reducir el ruido otorga los mejores resultados. Se implementó un sistema de codificación generalizada para aumentar arbitrariamente la cantidad de bits que se obtienen por cada pixel de la imagen, concluyendo que el mejor tamaño de codificación fue de 4 bits por pixel luego de reducir el ruido en las imágenes utilizando el filtro de Wiener. Se implementó un mapa de pesos por cada usuario registrado en la base de datos, la cual se encarga de otorgarle mayor peso a los bits que a priori son menos variables entre muestras, lo que aumentó la exactitud promedio desde 17.72% a 26.6% utilizando sólo esta mejora, con 5 imágenes por usuario enrolado. Se evaluaron dos métodos para clasificar el iris de acuerdo a su coloración, diferencia promedio y distancia de difusión, en donde se concluyó que la diferencia promedio otorga mejores resultados, sin embargo esta característica no es lo suficientemente discriminadora como para ser utilizada por sí sola. El resultado final del índice de reconocimiento del sistema al utilizar todas las mejoras antes mencionadas y fusionando las características de textura iridal y color de iris de ambos ojos es del 90.77%, con una tasa de aceptación de impostores del 0% en promedio.
24

Astrometría desde un enfoque Bayesiano

Echeverría Solís, Alex Mauricio January 2016 (has links)
Ingeniero Civil Eléctrico / En la Astronomía ha habido un salto cuantitativo gigantesco desde el nacimiento de la tecnología CCD y las imágenes digitales. A pesar de ello, todavía existe un espacio de mejora en lo que respecta a las técnicas para estimación de parámetros importantes que caracterizan a las estrellas. Es por eso que esta Memoria de Título se presenta como objetivo el estudiar y cuantificar el uso de nuevos enfoques de estimación modernas no aplicados aún en esta disciplina para la estimación de la posición de objetos luminosos (Astrometría). Para poder entender el problema se presenta qué es una cámara digital y su uso en la astronomía, especificamente en la astrometría, además de presentar importantes conceptos astronómicos que se usan a lo largo de la memoria, como lo son el Point Spread Function y el Full Width at Half Maximum. Por otro lado, se da un repaso a los elementos de estimación necesarios para resolver el problema, como Cramér-Rao, Cramér-Rao Bayesiano y los estimadores Esperanza Condicional, Maximum Likelihood y Least Squares. La implementación del estimador se realizará a partir de una formalización completa del problema de estimación en astrometría, donde se incluirá también el trabajo de los algoritmos necesarios para encontrar el valor numérico tanto del estimador como de su error cuadrático medio. Se mostrará también la resolución de la cota de Cramér-Rao, tanto para la versión paramétrica como la bayesiana. Se hace un análisis de las herramientras presentadas usando como figura de mérito el MSE (Error Cuadrático Medio). A partir de ello, se muestra cómo varía este valor como función del tamaño del pixel, la relación de señal-ruido y sus ganancias relativas, para posteriormente estudiar las diferencias entre la Cota Bayesiana de Cramér-Rao y el MSE de la Esperanza Condicional, el estimador propuesto para el problema. Finalmente se concluye, viendo que existen ganancias significativas del enfoque Bayesiano en regímenes de baja relación señal-ruido y gran tamaño de pixel. Además se verifica que la cota Bayesiana de Cramér-Rao es un buen predictor del MSE de la Esperanza Condicional, lo cual trae nuevas preguntas que se pueden plantear como trabajo futuro a partir de esta Memoria de Título.
25

Achurado para Objetos 3D con Animación

Graells Garrido, Eduardo Nicolás January 2010 (has links)
El Rendering No Fotorrealista, o NPR (Non Photorealistic Rendering), es una aplicación del proceso de rendering tradicional que busca generar imágenes con algún grado de abstracción. Una técnica puntual de NPR es la de Hatching, o achurado. El achurado es una técnica de pintado a mano alzada que utiliza trazos de líneas para graficar un objeto. La dirección de las líneas abstrae la forma de éstos, mientras que la cantidad de ellas, denominada densidad del achurado, permite interpretar la intensidad de la iluminación a través de la superficie del objeto. La técnica de achurado que se aborda en esta tesis, propuesta por Praun, Hoppe, Webb y Finkelstein en SIGGRAPH 2001 en un artículo llamado “Realtime Hatching”, solamente está definida para modelos 3D estáticos, por lo que para modelos animados la deformación de la geometría no es considerada en el algoritmo. Esta tesis aborda esa problemática: se propone mejorar esa técnica de achurado, extendiéndola para ser aplicada en objetos animados. La elección del algoritmo mencionado se justifica en la tesis a través de una revisión bibliográfica. También se detalla la implementación realizada de dicho algoritmo, se especifican las componentes del sistema y se muestran las herramientas de software libre utilizadas: OpenMesh como estructura de datos base, Eigen como biblioteca de álgebra lineal y trimesh2 como apoyo para el cálculo de curvaturas y direcciones principales en la superficie. Luego de implementar el algoritmo original, se estudia su extensión para ser aplicado a un modelo 3D que presente animación. Ya que el algoritmo de achurado no está definido para objetos animados, la tesis estudia y define lo que se puede denominar como comportamiento correcto del achurado en modelos animados. Así, se presentan las extensiones necesarias para que el algoritmo de achurado funcione correctamente con modelos animados, junto con detalles de implementación de dichas extensiones. Además, se muestran resultados de la aplicación del algoritmo a conjuntos de datos de animación de captura de movimiento de personas. Estos resultados tienen una apariencia visual satisfactoria respecto a la definición de achurado y presentan un rendimiento adecuado para animaciones en tiempo real, al superar los 60 cuadros por segundo en su renderizado. Finalmente, se realiza una discusión en la que se comentan los resultados del algoritmo, en particular sus cualidades y limitantes. Entre sus cualidades se encuentra un planteamiento sencillo y fácil de entender que permite obtener resultados correctos. Entre sus limitantes se encuentra su aplicabilidad a objetos que mantienen una topología constante durante animaciones y el hecho de funcionar con animaciones preconcebidas, no con animaciones arbitrarias producto de interacción con el usuario. Sin embargo, estas limitantes son analizadas y se proponen diferentes alternativas para enfrentarlas como trabajo futuro.
26

FADRA: A CPU-GPU framework for astronomical data reduction and Analysis

Concha Ramírez, Francisca Andrea January 2016 (has links)
Magíster en Ciencias, Mención Computación / Esta tesis establece las bases de FADRA: Framework for Astronomical Data Reduction and Analysis. El framework FADRA fue diseñado para ser eficiente, simple de usar, modular, expandible, y open source. Hoy en día, la astronomía es inseparable de la computación, pero algunos de los software más usados en la actualidad fueron desarrollados tres décadas atrás y no están diseñados para enfrentar los actuales paradigmas de big data. El mundo del software astronómico debe evolucionar no solo hacia prácticas que comprendan y adopten la era del big data, sino también que estén enfocadas en el trabajo colaborativo de la comunidad. El trabajo desarollado consistió en el diseño e implementación de los algoritmos básicos para el análisis de datos astronómicos, dando inicio al desarrollo del framework. Esto consideró la implementación de estructuras de datos eficientes al trabajar con un gran número de imágenes, la implementación de algoritmos para el proceso de calibración o reducción de imágenes astronómicas, y el diseño y desarrollo de algoritmos para el cálculo de fotometría y la obtención de curvas de luz. Tanto los algoritmos de reducción como de obtención de curvas de luz fueron implementados en versiones CPU y GPU. Para las implementaciones en GPU, se diseñaron algoritmos que minimizan la cantidad de datos a ser procesados de manera de reducir la transferencia de datos entre CPU y GPU, proceso lento que muchas veces eclipsa las ganancias en tiempo de ejecución que se pueden obtener gracias a la paralelización. A pesar de que FADRA fue diseñado con la idea de utilizar sus algoritmos dentro de scripts, un módulo wrapper para interactuar a través de interfaces gráficas también fue implementado. Una de las principales metas de esta tesis consistió en la validación de los resultados obtenidos con FADRA. Para esto, resultados de la reducción y curvas de luz fueron comparados con resultados de AstroPy, paquete de Python con distintas utilidades para astrónomos. Los experimentos se realizaron sobre seis datasets de imágenes astronómicas reales. En el caso de reducción de imágenes astronómicas, el Normalized Root Mean Squared Error (NRMSE) fue utilizado como métrica de similaridad entre las imágenes. Para las curvas de luz, se probó que las formas de las curvas eran iguales a través de la determinación de offsets constantes entre los valores numéricos de cada uno de los puntos pertenecientes a las distintas curvas. En términos de la validez de los resultados, tanto la reducción como la obtención de curvas de luz, en sus implementaciones CPU y GPU, generaron resultados correctos al ser comparados con los de AstroPy, lo que significa que los desarrollos y aproximaciones diseñados para FADRA otorgan resultados que pueden ser utilizados con seguridad para el análisis científico de imágenes astronómicas. En términos de tiempos de ejecución, la naturaleza intensiva en uso de datos propia del proceso de reducción hace que la versión GPU sea incluso más lenta que la versión CPU. Sin embargo, en el caso de la obtención de curvas de luz, el algoritmo GPU presenta una disminución importante en tiempo de ejecución comparado con su contraparte en CPU. / Este trabajo ha sido parcialmente financiado por Proyecto Fondecyt 1120299
27

Sistema interactivo por voz para robot PR2

Guerrero Díaz, Sebastián Adolfo January 2015 (has links)
Ingeniero Civil Eléctrico / En el marco de la línea de investigación: Interacción Humano Robot, el lenguaje es un candidato natural para la interacción con máquinas y robots. En particular las tecnologías de procesamiento y transmisión voz juegan un rol fundamental en lo que respecta al reconocimiento automático de la voz o \gls{ASR}, ya que como concepto entrega la habilidad de escuchar al momento de interaccionar con un robot.\\ El objetivo principal de esta memoria es implementar una aplicación para comandar a un \gls{PR2} a través de instrucciones por voz, utilizando arquitectura cliente-servidor mediante un micrófono como elemento para muestrear la señal de audio o comando enunciado por el usuario. \\ En el desarollo de la aplicación se crea una interfaz de interacción con el usuario que permite grabar audio usando HTML5/CSS/JS. Para el funcionamiento de la aplicación la comunicación con todos los servidores se realiza a través de \textit{socket} TCP/IP y el procesamiento de la señal de audio se realiza utilizando KALDI, estado del arte en \gls{ASR}. Luego de obtener el resultado de la transcripción de la elocución grabada por el usuario, es analizada por el \textit{Robot \gls{PR2}} y entrega la respuesta del comando de voz mediante el \gls{TTS} Festival y ejecuta el movimiento correspondiente al requerimiento del usuario.\\ A partir esta investigación y el desarrollo de la aplicación se concluye que es posible comandar el \textit{Robot \gls{PR2}} de forma exitosa mediante la interfaz de interacción con el usuario. Dicha aplicación puede ser instalada en cualquier versión del sistema operativo Ubuntu. Utilizando un modo de conexión local para los servidores: ASR y WEB, se cumple el objetivo de realizar procesamiento en tiempo real. El sistema de reconocimiento de voz obtiene un 10\% de \gls{WER} cuando es probado con el mismo micrófono con el que se construye la base de datos, que corresponde a un conjunto de 4991 elocuciones de base de datos Latino-4k y 200 elocuciones grabadas en el Laboratorio de Procesamiento y Transmisión de Voz LPTV, todas a una frecuencia de 16~kHz y 16~bit.\\ El trabajo futuro considera la realización de una base de datos independiente del hablante y género. Considerar el efecto del canal en el \gls{ASR}: ambiente y micrófonos. Debido a la forma de construcción de la aplicación, ésta es escalable ,por lo que es factible complementar el diccionario utilizado en el \gls{ASR} y la personalización de los movimientos.
28

Improvements in illumination compensation for face recognition under noncontrolled illumination conditions

Castillo Faune, Luis Ernesto January 2017 (has links)
Doctor en Ingeniería Eléctrica / Face recognition depends strongly on illumination conditions, especially in non-controlled scenarios where face illumination is not homogeneous. For this reason, illumination compensation is crucial in this task. Several methods for illumination compensation have been developed and tested on the face recognition task using international available face databases. Among the methods with best results are the Discrete Cosine Transform (DCT), Local Normalization (LN) and Self-Quotient Image (SQI). Most of these methods have been applied with great success in face recognition using a principal component classifier (PCA). In the last decade, Local Matching Gabor (LMG) classifiers have shown great success in face classification relative to other classifiers. In all cases, the illumination compensation methods improve the face recognition rates in unevenly illuminated images, but affect negatively in some well illuminated images. The aim of this thesis is to propose improvements to the current illumination compensation methods to obtain improved face recognition rates under different illumination conditions. Using genetic algorithms (GAs), parameters of the SQI method were selected to improve face recognition. The parameters optimized by the GA were: the fraction of the mean value within the region for the SQI, selection of Arctangent, Sigmoid, Hyperbolic Tangent or Minimum functions to eliminate noise, and the weight values of each filter are selected within a range between 0 and 1. The results obtained after using the proposed method were compared to those with no illumination compensation and to those previously published for SQI method. Four internationally available face databases were used: Yale B, CMU PIE, AR, Color FERET (grayscaled), where the first three contain face images with significant changes in illumination conditions, and the fourth one contains face images with small changes in illumination conditions. The proposed method performed better than SQI in images with non-homogeneous illumination. In the same way, GAs were used to optimize parameters of the modified LN and SQI methods in cascade for illumination compensation to improve face recognition. The main novelty of this proposed method is that it applies to non-homogeneous as well as homogeneous illumination conditions. The results were compared to those of the best illumination compensation methods published in the literature, obtaining 100% recognition on faces with non-homogeneous illumination and significantly better results than other methods with homogeneous illumination. Also, the DCT, LN, and SQI illumination compensation methods were optimized using GAs to be used with the LMG face classifier. Results were tested on the FERET international face database. Results show that face recognition can be significantly improved by modified versions of the current illumination compensation methods. The best results are obtained with the optimized LN method which yields a 31% reduction in the total number of errors in the FERET database. Finally, an extension of the LN method using Kolmogorov-Nagumo-based statistics was proposed to improve face recognition. The proposed method is a more general framework for illumination normalization and it was showed that LN is a particular case of this framework. The proposed method was assessed using two different classifiers, PCA and LMG, on the standard face databases Extended Yale B, AR and Gray FERET. The proposed method reached significantly better results than those previously published for other versions of LN on the same databases.
29

Análisis de características de forma del bacilo de koch para detección automática de tuberculosis en imágenes digitales

Ticona Huaroto, Javier Eduardo 26 August 2017 (has links)
La Tuberculosis es una de las enfermedades más letales a nivel mundial. Los esfuerzos en salud pública están dirigidos a la temprana detección de los casos bacilíferos, ya que son la fuente de infección. En el mundo la detección se realiza mediante baciloscopía, que consiste en la observación de muestras de esputo para identificar y contar bacilos con la ayuda de un microscopio. Sin embargo, el procedimiento es subjetivo y consume excesivo tiempo al personal de salud. El presente estudio tiene como objetivo identificar bacilos en imágenes digitales captadas desde el microscopio. Dichas imágenes muestran bacilos y otros artefactos con el mismo color. Ambos tipos de estructura se almacenaron y etiquetaron individualmente conformando la base de datos. Se analizó el espectro de magnitudes de los descriptores de Fourier de dichas estructuras, con el fin de seleccionar los necesarios para la óptima caracterización e identificación. Mediante el método sub-óptimo de selección de características hacia atrás (backward feature selection) se determinó los 14 descriptores que mejor discriminan entre las clases. Para comprobar este método se diseño un programa que procesó las 480 estructuras de la base de datos. Dicho programa obtuvo un porcentaje de acierto de 96.86%, una sensibilidad de 100% y una especificidad de 91.47% El estudio demuestra que es posible la identificación de bacilos mediante la clasificación de descriptores de Fourier previamente seleccionados. Estos resultados sugieren que las técnicas de procesamiento de imágenes digitales tienen el potencial de agilizar el diagnóstico de Tuberculosis. / Tesis
30

Diseño de un espectrómetro digital de transformada rápida de Fourier para radioastronomía basado en un sistema de procesamiento heterogéneo

Freundt Rueda, Rodrigo Guillermo 03 May 2017 (has links)
El proceso experimental en radioastronomía consiste en captar y analizar las ondas electromagnéticas emitidas por diversas fuentes de radio en el universo. Para poder extraer información espectral de dichas fuentes, es necesario contar con un instrumento que procese digitalmente las señales eléctricas obtenidas a la salida del receptor del radiotelescopio. En particular, para medir con precisión tanto el espectro continúo como las líneas espectrales de dichas señales de origen astrofísico, es necesario un análisis de banda ancha y alta resolución espectral, lo cual eleva el costo computacional del instrumento. Este trabajo de tesis tiene como objetivo diseñar un espectrómetro de transformada rápida de Fourier haciendo uso de un GPU TESLA K40c donado por la compañía NVIDIA y una tarjeta FPGA FlexRIO NI-7966R para adquirir las muestras digitalizadas a la salida del módulo receptor FlexRIO NI-5792R. Estos dispositivos de la compañía National Instruments, entre otros, fueron adquiridos por el Instituto de Radioastronomía (INRAS) de nuestra universidad, gracias al Proyecto de Equipamiento Científico para Laboratorios de FINCyT (Innóvate-Perú) con número de contrato 127-ECL-2014. Los resultados muestran que el uso del entorno de desarrollo integrado de hardware y software de National Instruments, potenciado con el lenguaje de programación gráfico orientado al flujo de datos de LabVIEW, permite acelerar el ciclo de diseño y desarrollo de este tipo de instrumentos científicos. Por otro lado, el uso de recursos de GPUs de NVIDIA a través del modelo de programación CUDA, permite acelerar considerablemente aplicaciones con gran complejidad computacional como el espectrómetro de alta resolución y de banda ancha diseñado. En el Capítulo 1, se realiza una breve introducción a la radioastronomía, explicando rápidamente su historia y los conceptos básicos necesarios para ubicar al espectrómetro en la cadena de recepción del radiotelescopio. En el Capítulo 2, se expone el marco teórico y el estado de arte correspondiente a los espectrómetros digitales para radioastronomía. En el Capítulo 3, se procede a detallar el diseño de la cadena de procesamiento del instrumento. Finalmente, en el Capítulo 4 se muestra un resumen de las principales pruebas realizadas para validar y contrastar el funcionamiento y rendimiento del FFTS diseñado. Este trabajo de tesis finaliza con las conclusiones y recomendaciones pertinentes.

Page generated in 0.0626 seconds