Spelling suggestions: "subject:"atécnicas digitales"" "subject:"etécnicas digitales""
21 |
Evaluación de estrategias de fusión para un sistema de identificación de personas multimodal utilizando imágenes de rostro y zona periocularSmith Albornoz, Felipe Eduardo January 2015 (has links)
Ingeniero Civil Eléctrico / La biometría corresponde al estudio de medidas en base a diferentes características humanas,
tales como huellas digitales, iris, rostro y voz, entre otros. Un gran campo de aplicación de esta
corresponde al reconocimiento de rostro para seguridad y control de identidad. Recientemente, se han realizado estudios que indican que la zona peri-ocular, segmento que rodea al ojo, puede ser usado en un sistema de reconocimiento con buenos resultados.
Este trabajo de título propone como objetivo estudiar la fusión de información entre dos
sistemas de reconocimiento, basado en imágenes de rostro e imágenes de zona peri-ocular, a nivel de características, puntaje y decisión. Para ello se usan las bases de datos AT&T de rostro y una base propia de imágenes de zona peri-ocular pertenecientes al laboratorio de procesamiento de imágenes del Departamento de Ingeniería Eléctrica de la Universidad de Chile.
Se implementan sistemas de reconocimiento basándose en 3 métodos de extracción de
características diferentes, PCA, LDA y LBP, en C++ utilizando la librería FaceRecognizer de
OpenCV. Se implementa además un sistema de fusión para cada nivel de información: característica, puntaje y decisión.
Se realizan pruebas de desempeño a los sistemas de reconocimiento de forma individual,
fusionados por nivel e integrados totalmente y se comparan mediante el área bajo la curva ROC
y la curva de Precision-Recall. Se crea además un sistema fusionado por puntaje válido y moda de decisión llegando a un 98.57% de clasificación correcta.
Finalmente se concluye que el mejor tipo de fusión es en el nivel de decisión, considerando el
costo computacional de los algoritmos, y se entregan detalles sobre las direcciones a seguir en una posible investigación futura.
|
22 |
Teclado Controlado por Posición Ocular Utilizando Referencias Propias del RostroCament Riveros, Leonardo January 2008 (has links)
No description available.
|
23 |
Evaluación y mejora de un sistema de reconocimiento de iris a distancia utilizando cámara de alta resoluciónYonekura Baeza, Sebastián January 2014 (has links)
Ingeniero Civil Eléctrico / Los sistemas biométricos corresponden a sistemas que realizan el reconocomiento automático de
individuos a través de atributos únicos. Para que un patrón biométrico sea utilizable, debe cumplir ciertas
propiedades, entre ellas las más importantes son: universalidad; invarianza en el tiempo; fácil recolección
y almacenamiento. Se considera que el iris cumple con todas estas características y ha sido utilizado en
sistemas de reconocimiento por más de una década. A medida que ha transcurrido el tiempo, los sistemas
basados en reconocimiento de iris han mejorado considerablemente con respecto a su exactitud, sin embargo,
aún se utilizan sistemas altamente cooperativos y en particular en condiciones de iluminación dañinas para la
salud, por lo que la comunidad de investigadores se ha volcado en torno a relajar las restricciones en las que
operan estos sistemas, con el fin de mejorar la experiencia de uso y la calidad de vida de los usufructuarios.
En este trabajo se evalúa un sistema de reconocimiento de iris a distancia, en donde se utilizan las
características de color y textura del mismo para llevar a cabo la clasificación. El trabajo abarca el estudio de
distintos algoritmos de preprocesamiento de imágenes, esquemas de codificación y comparación propuestos
durante los últimos años, los cuales se evalúan cada uno por separado y finalmente se utilizan en conjunto,
además de describir el método propuesto para computar la desición final del sistema. El algoritmo se evalúa
en una base de datos que consta de 1505 imágenes correspondientes a 54 sujetos, tomadas a una distancia
aproximada de 1.5 [m] de distancia de la cámara utilizando iluminación de espectro visible. A partir de
esta base de datos se seleccionan las mejores imágenes de iris utilizando distintos sistemas de evaluación de
enfoque, luego se particiona en una base de datos de entrenamiento de parámetros y otra de validación, y
finalmente se muestran los resultados con respecto a la base de datos de validación. Se utilizaron kernels para
evaluar el enfoque de las imágenes capturadas, en particular los propuestos por Daugman, Kang y Wei y se
observó que el kernel de Daugman resulta ser más efectivo. Se utilizaron distintos métodos de corrección de
enfoque, reducción de ruido y ecualización de imágenes combinados para mejorar la tasa de reconocimiento
del sistema, y se concluyó que el filtro de Wiener para reducir el ruido otorga los mejores resultados. Se
implementó un sistema de codificación generalizada para aumentar arbitrariamente la cantidad de bits que
se obtienen por cada pixel de la imagen, concluyendo que el mejor tamaño de codificación fue de 4 bits
por pixel luego de reducir el ruido en las imágenes utilizando el filtro de Wiener. Se implementó un mapa de
pesos por cada usuario registrado en la base de datos, la cual se encarga de otorgarle mayor peso a los bits que
a priori son menos variables entre muestras, lo que aumentó la exactitud promedio desde 17.72% a 26.6%
utilizando sólo esta mejora, con 5 imágenes por usuario enrolado. Se evaluaron dos métodos para clasificar
el iris de acuerdo a su coloración, diferencia promedio y distancia de difusión, en donde se concluyó que
la diferencia promedio otorga mejores resultados, sin embargo esta característica no es lo suficientemente
discriminadora como para ser utilizada por sí sola. El resultado final del índice de reconocimiento del sistema
al utilizar todas las mejoras antes mencionadas y fusionando las características de textura iridal y color de
iris de ambos ojos es del 90.77%, con una tasa de aceptación de impostores del 0% en promedio.
|
24 |
Astrometría desde un enfoque BayesianoEcheverría Solís, Alex Mauricio January 2016 (has links)
Ingeniero Civil Eléctrico / En la Astronomía ha habido un salto cuantitativo gigantesco desde el nacimiento de la tecnología CCD y las imágenes digitales. A pesar de ello, todavía existe un espacio de mejora en lo que respecta a las técnicas para estimación de parámetros importantes que caracterizan a las estrellas. Es por eso que esta Memoria de Título se presenta como objetivo el estudiar y cuantificar el uso de nuevos enfoques de estimación modernas no aplicados aún en esta disciplina para la estimación de la posición de objetos luminosos (Astrometría).
Para poder entender el problema se presenta qué es una cámara digital y su uso en la astronomía, especificamente en la astrometría, además de presentar importantes conceptos astronómicos que se usan a lo largo de la memoria, como lo son el Point Spread Function y el Full Width at Half Maximum. Por otro lado, se da un repaso a los elementos de estimación necesarios para resolver el problema, como Cramér-Rao, Cramér-Rao Bayesiano y los estimadores Esperanza Condicional, Maximum Likelihood y Least Squares.
La implementación del estimador se realizará a partir de una formalización completa del problema de estimación en astrometría, donde se incluirá también el trabajo de los algoritmos necesarios para encontrar el valor numérico tanto del estimador como de su error cuadrático medio. Se mostrará también la resolución de la cota de Cramér-Rao, tanto para la versión paramétrica como la bayesiana.
Se hace un análisis de las herramientras presentadas usando como figura de mérito el MSE (Error Cuadrático Medio). A partir de ello, se muestra cómo varía este valor como función del tamaño del pixel, la relación de señal-ruido y sus ganancias relativas, para posteriormente estudiar las diferencias entre la Cota Bayesiana de Cramér-Rao y el MSE de la Esperanza Condicional, el estimador propuesto para el problema.
Finalmente se concluye, viendo que existen ganancias significativas del enfoque Bayesiano en regímenes de baja relación señal-ruido y gran tamaño de pixel. Además se verifica que la cota Bayesiana de Cramér-Rao es un buen predictor del MSE de la Esperanza Condicional, lo cual trae nuevas preguntas que se pueden plantear como trabajo futuro a partir de esta Memoria de Título.
|
25 |
Achurado para Objetos 3D con AnimaciónGraells Garrido, Eduardo Nicolás January 2010 (has links)
El Rendering No Fotorrealista, o NPR (Non Photorealistic Rendering), es una aplicación
del proceso de rendering tradicional que busca generar imágenes con algún grado de
abstracción. Una técnica puntual de NPR es la de Hatching, o achurado. El achurado es
una técnica de pintado a mano alzada que utiliza trazos de líneas para graficar un objeto.
La dirección de las líneas abstrae la forma de éstos, mientras que la cantidad de ellas,
denominada densidad del achurado, permite interpretar la intensidad de la iluminación a
través de la superficie del objeto.
La técnica de achurado que se aborda en esta tesis, propuesta por Praun, Hoppe, Webb
y Finkelstein en SIGGRAPH 2001 en un artículo llamado “Realtime Hatching”, solamente
está definida para modelos 3D estáticos, por lo que para modelos animados la deformación
de la geometría no es considerada en el algoritmo. Esta tesis aborda esa problemática:
se propone mejorar esa técnica de achurado, extendiéndola para ser aplicada en objetos
animados.
La elección del algoritmo mencionado se justifica en la tesis a través de una revisión
bibliográfica. También se detalla la implementación realizada de dicho algoritmo, se
especifican las componentes del sistema y se muestran las herramientas de software libre
utilizadas: OpenMesh como estructura de datos base, Eigen como biblioteca de álgebra
lineal y trimesh2 como apoyo para el cálculo de curvaturas y direcciones principales en la
superficie.
Luego de implementar el algoritmo original, se estudia su extensión para ser aplicado
a un modelo 3D que presente animación. Ya que el algoritmo de achurado no está
definido para objetos animados, la tesis estudia y define lo que se puede denominar
como comportamiento correcto del achurado en modelos animados. Así, se presentan las
extensiones necesarias para que el algoritmo de achurado funcione correctamente con
modelos animados, junto con detalles de implementación de dichas extensiones. Además,
se muestran resultados de la aplicación del algoritmo a conjuntos de datos de animación
de captura de movimiento de personas. Estos resultados tienen una apariencia visual
satisfactoria respecto a la definición de achurado y presentan un rendimiento adecuado
para animaciones en tiempo real, al superar los 60 cuadros por segundo en su renderizado.
Finalmente, se realiza una discusión en la que se comentan los resultados del
algoritmo, en particular sus cualidades y limitantes. Entre sus cualidades se encuentra
un planteamiento sencillo y fácil de entender que permite obtener resultados correctos.
Entre sus limitantes se encuentra su aplicabilidad a objetos que mantienen una topología
constante durante animaciones y el hecho de funcionar con animaciones preconcebidas,
no con animaciones arbitrarias producto de interacción con el usuario. Sin embargo, estas
limitantes son analizadas y se proponen diferentes alternativas para enfrentarlas como
trabajo futuro.
|
26 |
FADRA: A CPU-GPU framework for astronomical data reduction and AnalysisConcha Ramírez, Francisca Andrea January 2016 (has links)
Magíster en Ciencias, Mención Computación / Esta tesis establece las bases de FADRA: Framework for Astronomical Data Reduction and Analysis. El framework FADRA fue diseñado para ser eficiente, simple de usar, modular, expandible, y open source. Hoy en día, la astronomía es inseparable de la computación, pero algunos de los software más usados en la actualidad fueron desarrollados tres décadas atrás y no están diseñados para enfrentar los actuales paradigmas de big data. El mundo del software astronómico debe evolucionar no solo hacia prácticas que comprendan y adopten la era del big data, sino también que estén enfocadas en el trabajo colaborativo de la comunidad.
El trabajo desarollado consistió en el diseño e implementación de los algoritmos básicos para el análisis de datos astronómicos, dando inicio al desarrollo del framework. Esto consideró la implementación de estructuras de datos eficientes al trabajar con un gran número de imágenes, la implementación de algoritmos para el proceso de calibración o reducción de imágenes astronómicas, y el diseño y desarrollo de algoritmos para el cálculo de fotometría y la obtención de curvas de luz. Tanto los algoritmos de reducción como de obtención de curvas de luz fueron implementados en versiones CPU y GPU. Para las implementaciones en GPU, se diseñaron algoritmos que minimizan la cantidad de datos a ser procesados de manera de reducir la transferencia de datos entre CPU y GPU, proceso lento que muchas veces eclipsa las ganancias en tiempo de ejecución que se pueden obtener gracias a la paralelización. A pesar de que FADRA fue diseñado con la idea de utilizar sus algoritmos dentro de scripts, un módulo wrapper para interactuar a través de interfaces gráficas también fue implementado.
Una de las principales metas de esta tesis consistió en la validación de los resultados obtenidos con FADRA. Para esto, resultados de la reducción y curvas de luz fueron comparados con resultados de AstroPy, paquete de Python con distintas utilidades para astrónomos. Los experimentos se realizaron sobre seis datasets de imágenes astronómicas reales. En el caso de reducción de imágenes astronómicas, el Normalized Root Mean Squared Error (NRMSE) fue utilizado como métrica de similaridad entre las imágenes. Para las curvas de luz, se probó que las formas de las curvas eran iguales a través de la determinación de offsets constantes entre los valores numéricos de cada uno de los puntos pertenecientes a las distintas curvas.
En términos de la validez de los resultados, tanto la reducción como la obtención de curvas de luz, en sus implementaciones CPU y GPU, generaron resultados correctos al ser comparados con los de AstroPy, lo que significa que los desarrollos y aproximaciones diseñados para FADRA otorgan resultados que pueden ser utilizados con seguridad para el análisis científico de imágenes astronómicas. En términos de tiempos de ejecución, la naturaleza intensiva en uso de datos propia del proceso de reducción hace que la versión GPU sea incluso más lenta que la versión CPU. Sin embargo, en el caso de la obtención de curvas de luz, el algoritmo GPU presenta una disminución importante en tiempo de ejecución comparado con su contraparte en CPU. / Este trabajo ha sido parcialmente financiado por Proyecto Fondecyt 1120299
|
27 |
Sistema interactivo por voz para robot PR2Guerrero Díaz, Sebastián Adolfo January 2015 (has links)
Ingeniero Civil Eléctrico / En el marco de la línea de investigación: Interacción Humano Robot, el lenguaje es un candidato natural para la interacción con máquinas y robots. En particular las tecnologías de procesamiento y transmisión voz juegan un rol fundamental en lo que respecta al reconocimiento automático de la voz o \gls{ASR}, ya que como concepto entrega la habilidad de escuchar al momento de interaccionar con un robot.\\
El objetivo principal de esta memoria es implementar una aplicación para comandar a un \gls{PR2} a través de instrucciones por voz, utilizando arquitectura cliente-servidor mediante un micrófono como elemento para muestrear la señal de audio o comando enunciado por el usuario. \\
En el desarollo de la aplicación se crea una interfaz de interacción con el usuario que permite grabar audio usando HTML5/CSS/JS. Para el funcionamiento de la aplicación la comunicación con todos los servidores se realiza a través de \textit{socket} TCP/IP y el procesamiento de la señal de audio se realiza utilizando KALDI, estado del arte en \gls{ASR}. Luego de obtener el resultado de la transcripción de la elocución grabada por el usuario, es analizada por el \textit{Robot \gls{PR2}} y entrega la respuesta del comando de voz mediante el \gls{TTS} Festival y ejecuta el movimiento correspondiente al requerimiento del usuario.\\
A partir esta investigación y el desarrollo de la aplicación se concluye que es posible comandar el \textit{Robot \gls{PR2}} de forma exitosa mediante la interfaz de interacción con el usuario. Dicha aplicación puede ser instalada en cualquier versión del sistema operativo Ubuntu. Utilizando un modo de conexión local para los servidores: ASR y WEB, se cumple el objetivo de realizar procesamiento en tiempo real. El sistema de reconocimiento de voz obtiene un 10\% de \gls{WER} cuando es probado con el mismo micrófono con el que se construye la base de datos, que corresponde a un conjunto de 4991 elocuciones de base de datos Latino-4k y 200 elocuciones grabadas en el Laboratorio de Procesamiento y Transmisión de Voz LPTV, todas a una frecuencia de 16~kHz y 16~bit.\\
El trabajo futuro considera la realización de una base de datos independiente del hablante y género. Considerar el efecto del canal en el \gls{ASR}: ambiente y micrófonos. Debido a la forma de construcción de la aplicación, ésta es escalable ,por lo que es factible complementar el diccionario utilizado en el \gls{ASR} y la personalización de los movimientos.
|
28 |
Improvements in illumination compensation for face recognition under noncontrolled illumination conditionsCastillo Faune, Luis Ernesto January 2017 (has links)
Doctor en Ingeniería Eléctrica / Face recognition depends strongly on illumination conditions, especially in non-controlled scenarios where face illumination is not homogeneous. For this reason, illumination compensation is crucial in this task. Several methods for illumination compensation have been developed and tested on the face recognition task using international available face databases. Among the methods with best results are the Discrete Cosine Transform (DCT), Local Normalization (LN) and Self-Quotient Image (SQI). Most of these methods have been applied with great success in face recognition using a principal component classifier (PCA). In the last decade, Local Matching Gabor (LMG) classifiers have shown great success in face classification relative to other classifiers. In all cases, the illumination compensation methods improve the face recognition rates in unevenly illuminated images, but affect negatively in some well illuminated images.
The aim of this thesis is to propose improvements to the current illumination compensation methods to obtain improved face recognition rates under different illumination conditions. Using genetic algorithms (GAs), parameters of the SQI method were selected to improve face recognition. The parameters optimized by the GA were: the fraction of the mean value within the region for the SQI, selection of Arctangent, Sigmoid, Hyperbolic Tangent or Minimum functions to eliminate noise, and the weight values of each filter are selected within a range between 0 and 1. The results obtained after using the proposed method were compared to those with no illumination compensation and to those previously published for SQI method. Four internationally available face databases were used: Yale B, CMU PIE, AR, Color FERET (grayscaled), where the first three contain face images with significant changes in illumination conditions, and the fourth one contains face images with small changes in illumination conditions. The proposed method performed better than SQI in images with non-homogeneous illumination.
In the same way, GAs were used to optimize parameters of the modified LN and SQI methods in cascade for illumination compensation to improve face recognition. The main novelty of this proposed method is that it applies to non-homogeneous as well as homogeneous illumination conditions. The results were compared to those of the best illumination compensation methods published in the literature, obtaining 100% recognition on faces with non-homogeneous illumination and significantly better results than other methods with homogeneous illumination. Also, the DCT, LN, and SQI illumination compensation methods were optimized using GAs to be used with the LMG face classifier. Results were tested on the FERET international face database. Results show that face recognition can be significantly improved by modified versions of the current illumination compensation methods. The best results are obtained with the optimized LN method which yields a 31% reduction in the total number of errors in the FERET database.
Finally, an extension of the LN method using Kolmogorov-Nagumo-based statistics was proposed to improve face recognition. The proposed method is a more general framework for illumination normalization and it was showed that LN is a particular case of this framework. The proposed method was assessed using two different classifiers, PCA and LMG, on the standard face databases Extended Yale B, AR and Gray FERET. The proposed method reached significantly better results than those previously published for other versions of LN on the same databases.
|
29 |
Análisis de características de forma del bacilo de koch para detección automática de tuberculosis en imágenes digitalesTicona Huaroto, Javier Eduardo 26 August 2017 (has links)
La Tuberculosis es una de las enfermedades más letales a nivel mundial. Los
esfuerzos en salud pública están dirigidos a la temprana detección de los casos
bacilíferos, ya que son la fuente de infección. En el mundo la detección se realiza
mediante baciloscopía, que consiste en la observación de muestras de esputo para
identificar y contar bacilos con la ayuda de un microscopio. Sin embargo, el
procedimiento es subjetivo y consume excesivo tiempo al personal de salud. El
presente estudio tiene como objetivo identificar bacilos en imágenes digitales
captadas desde el microscopio.
Dichas imágenes muestran bacilos y otros artefactos con el mismo color. Ambos
tipos de estructura se almacenaron y etiquetaron individualmente conformando la
base de datos. Se analizó el espectro de magnitudes de los descriptores de Fourier
de dichas estructuras, con el fin de seleccionar los necesarios para la óptima
caracterización e identificación. Mediante el método sub-óptimo de selección de
características hacia atrás (backward feature selection) se determinó los 14
descriptores que mejor discriminan entre las clases. Para comprobar este método
se diseño un programa que procesó las 480 estructuras de la base de datos. Dicho
programa obtuvo un porcentaje de acierto de 96.86%, una sensibilidad de 100% y
una especificidad de 91.47%
El estudio demuestra que es posible la identificación de bacilos mediante la
clasificación de descriptores de Fourier previamente seleccionados. Estos
resultados sugieren que las técnicas de procesamiento de imágenes digitales tienen
el potencial de agilizar el diagnóstico de Tuberculosis. / Tesis
|
30 |
Diseño de un espectrómetro digital de transformada rápida de Fourier para radioastronomía basado en un sistema de procesamiento heterogéneoFreundt Rueda, Rodrigo Guillermo 03 May 2017 (has links)
El proceso experimental en radioastronomía consiste en captar y analizar las ondas
electromagnéticas emitidas por diversas fuentes de radio en el universo. Para poder extraer
información espectral de dichas fuentes, es necesario contar con un instrumento que procese
digitalmente las señales eléctricas obtenidas a la salida del receptor del radiotelescopio. En
particular, para medir con precisión tanto el espectro continúo como las líneas espectrales de
dichas señales de origen astrofísico, es necesario un análisis de banda ancha y alta resolución
espectral, lo cual eleva el costo computacional del instrumento.
Este trabajo de tesis tiene como objetivo diseñar un espectrómetro de transformada rápida de
Fourier haciendo uso de un GPU TESLA K40c donado por la compañía NVIDIA y una tarjeta FPGA FlexRIO
NI-7966R para adquirir las muestras digitalizadas a la salida del módulo receptor FlexRIO NI-5792R.
Estos dispositivos de la compañía National Instruments, entre otros, fueron adquiridos por el
Instituto de Radioastronomía (INRAS) de nuestra universidad, gracias al Proyecto de Equipamiento
Científico para Laboratorios de FINCyT (Innóvate-Perú) con número de contrato 127-ECL-2014.
Los resultados muestran que el uso del entorno de desarrollo integrado de hardware y software de
National Instruments, potenciado con el lenguaje de programación gráfico orientado al flujo de
datos de LabVIEW, permite acelerar el ciclo de diseño y desarrollo de este tipo de instrumentos
científicos. Por otro lado, el uso de recursos de GPUs de NVIDIA a través del modelo de
programación CUDA, permite acelerar considerablemente aplicaciones con gran complejidad
computacional como el espectrómetro de alta resolución y de banda ancha diseñado.
En el Capítulo 1, se realiza una breve introducción a la radioastronomía, explicando rápidamente su
historia y los conceptos básicos necesarios para ubicar al espectrómetro en la cadena de recepción
del radiotelescopio. En el Capítulo 2, se expone el marco teórico y el estado de arte
correspondiente a los espectrómetros digitales para radioastronomía. En el Capítulo 3, se procede a
detallar el diseño de la cadena de procesamiento del instrumento. Finalmente, en el Capítulo 4 se
muestra un resumen de las principales pruebas realizadas para validar y contrastar el
funcionamiento y rendimiento del FFTS diseñado. Este trabajo de tesis finaliza con
las conclusiones y recomendaciones pertinentes.
|
Page generated in 0.0626 seconds