Spelling suggestions: "subject:"processamento dde imagens."" "subject:"processamento dee imagens.""
21 |
Diseño e implementación de una plataforma de software para reconocimiento facial en videoVillalon de la Vega, Dario Eduardo January 2012 (has links)
Ingeniniero Civil Electricista / Este trabajo aborda el reconocimiento facial en video, cuya problemática se ha convertido en los últimos años en un tema altamente recurrente en diversos ámbitos tales como sistemas de seguridad, plataformas de redes sociales, aplicaciones de marketing, etc.
A modo de contextualización se presenta una revisión del estado del arte en el ámbito de las metodologías de reconocimiento facial y sus principales áreas de aplicación hoy en día. También se abordan los avances actuales en reconocimiento de rostro en video, detallando iniciativas privadas y de comunidades abiertas.
El objetivo general planteado corresponde al diseño, implementación y validación de una plataforma de software para el reconocimiento facial en un archivo de video, utilizando métodos ya establecidos y validados en el campo de la biometría, como lo son el algoritmo Haar para detección de rostros y el algoritmo PCA Eigenface para el reconocimiento facial.
La problemática de fondo tiene que ver con la utilización de estos algoritmos en un escenario como el de un video, en el cual no necesariamente existe una actitud colaborativa de parte de las personas, aportando gestos, poses y luminosidad muy cambiantes, lo cual dificulta la comparación entre los rostros detectados y el rostro objetivo que se desea identificar.
El sistema desarrollado se compone principalmente de 4 módulos funcionales: módulo de ingreso de imágenes del rostro objetivo para el entrenamiento del sistema; módulo de ingreso del video a procesar; módulo del proceso de reconocimiento y módulo de entrega de resultados.
Adicionalmente se desarrolló un módulo con una herramienta que facilita la generación de la referencia de verdad o Ground Truth para el rostro objetivo en el video de interés, con el fin de evaluar de la efectividad del sistema.
Para la ejecución de pruebas, se seleccionaron tres rostros objetivo a partir de los cuales se construyó una base de imágenes con 100 fotografías por cada rostro las que fueron recolectadas desde Internet. También se seleccionó desde Internet un video de alta resolución para cada rostro.
Los resultados de las pruebas son presentados mediante el análisis de curvas ROC y cálculo del índice AUC para cada curva.
Las conclusiones obtenidas apuntan a una alta dependencia de la calidad de la información de entrenamiento del sistema para lograr una aceptable capacidad de reconocimiento, que en este caso alcanzo a un 73% en el caso más favorable.
Las líneas de trabajo futuras propuestas apuntan a la utilización de algoritmos alternativos para reconocimiento facial, y a la inclusión de funciones adicionales de pre-proceso de imágenes, con el fin de mejorar la estandarización de los rostros a procesar.
|
22 |
Reconocimiento robusto de rostros en ambientes dinámicosCorrea Pérez, Mauricio Alfredo January 2012 (has links)
Doctor en Ingeniería Eléctrica / En la actualidad un problema fundamental para los sistemas robóticos que basan su sistema sensorial en la utilización de cámaras de video y sistemas de visión computacional es detectar y reconocer objetos de interés en ambientes no controlados. Por otro lado, el análisis del rostro juega un papel muy importante en la construcción de un sistema de Interacción Humano-Robot (HRI) que permita a los humanos interactuar con sistemas robóticos de un modo natural. En este trabajo de tesis se diseña e implementa un sistema de visión que opera en ambientes no controlados, y que es capaz de detectar y reconocer rostros humanos en forma robusta, utilizando métodos de visión activa e integrando diferentes tipos de contexto.
Se plantea una metodología para la construcción del sistema de visión propuesto en forma general y se define cuales son los módulos principales que lo componen. Entre los cuales están los módulos de detección y reconocimiento de rostros, en particular el uso de contexto y un módulo de visión activa. Estos módulos permiten descartar falsas detecciones y realizar modificaciones a las observaciones para así mejorar el rendimiento del sistema de reconocimiento de rostros.
Se desarrolla un simulador que se utiliza para validar el sistema general y en particular evaluar el funcionamiento de los diferentes módulos planteados. Este simulador es una poderosa herramienta que permite realiza evaluaciones de métodos de detección y reconocimiento de rostros ya que genera las observaciones de un agente dentro de un mapa virtual con personas. De los experimentos en el simulador y en otros ambientes se puede concluir que los módulos de contexto realizan un aporte significativo en el rendimiento del sistema de visión, mejorando las tasas de reconocimiento y reduciendo las tasas de falsos positivos en las detecciones de rostros. La tasa de reconocimiento aumenta de 78.41% a 86.77% con el uso de filtros de contexto. El uso de visión activa permite que la tasa de reconocimiento mejore de 86.77% a 92.92%, ya que permite que se construya una mejor galería (en caso que la galería se construye online), y mejorar la pose del robot con respecto a la persona en la etapa de reconocimiento.
Se desarrolla un sistema robusto para la detección y la identificación de seres humanos en entornos domésticos el cual es evaluado en un robot de servicio. La principal función es evaluar el funcionamiento del sistema de visión propuesto en una aplicación real. Se agrega un nuevo sensor (cámara térmica) y se agregan nuevos módulos al sistema (Detección de Piel Visible y Térmica, Detección y reconocimiento de Rostros Térmico, Detección de Personas). Los resultados de la evaluación del sistema en una aplicación real (prueba enmarcada en la competencia de robótica RoboCup, que se llama Who is Who ) confirman que el uso de contexto mejora el rendimiento del sistema, permitiendo aumentar la tasa de reconocimiento de 54% a 74% y reduciendo el numero de falsos positivos a 0. Nuevamente la visión activa fue un factor importante para mejorar el desempeño del sistema en general, en todos los experimentos influyó de forma positiva en el funcionamiento del sistema.
|
23 |
Gender classification using pair group feature selection based on mutual information from frontal faces and iris imagesTapia Farías, Juan Eduardo January 2015 (has links)
Doctor en Ingeniería Eléctrica / El uso de imágenes de rostros o iris para estimar información demográfica, tal como género, raza, edad y emociones se denomina Soft Biometrics . En un marco de reconocimiento biométrico, la información de género nos puede ayudar a buscar solo en la mitad de la base de datos. La mayoría de los métodos reportados en la literatura usan todas las características disponibles para la clasificación de imágenes. En el procesamiento de imágenes, el ingreso directo de los datos a los clasificadores tiene una alta dimensionalidad y un limitado número de ejemplos. En este escenario la selección de características juega un rol importante mejorando la tasa de clasificación, la eficiencia y la escalabilidad de las imágenes en el proceso de identificación. Un manera de realizar esta tarea, es mediante la selección de características usando información mutua (IM)
y ordenándolas en un ranking de acuerdo a su valor individual de relevancia usando métodos de filtros. Los métodos de ranking se caracterizan por ser rápidos y efectivos, particularmente cuando el número de características es grande y el número de ejemplos disponibles para entrenamiento es comparativamente pequeño, como en el caso de los bases de datos benchmark (Sonar, Spambase, Ionosphere y Madelon). Sin embargo, el ranking reduce la capacidad de selección debido a que no estima ningún tipo de complementariedad entre las variables, lo cual es poco adecuado para la función de selección de conjuntos de datos que tienen altos niveles de complementariedad. Las posibles redundancias entre más de dos variables no se tienen en cuenta.
Dos métodos fueron desarrollados en esta tesis, el primero selecciona características en pares y el segundo en grupos. En el primer método, usamos selección de características basados en la información mutua en pares, aplicada al problema de clasificación de género usando rostros frontales e iris. Se fusionaron las características seleccionadas obtenidas desde la intensidad de los píxeles, forma y textura en varias escalas espaciales. Los resultados fueron evaluados y comparados con los publicados anteriormente en bases de datos estándares tales como las bases de datos FERET y UND usadas para ambientes controlados y la base de datos Labeled Faces in the Wild (LFW) para ambientes no controlados. Este método fue también aplicado a imágenes de iris de bandas espectrales cercanas al infrarrojo de la Universidad de Notre Dame, llamada Gender From Iris (GFI).
El segundo método es basado en filtros y envolventes (filtrappers), para la selección de características en grupo en vez de pares usando información mutua. Este método fue aplicado a la clasificación de género usando rostros e imágenes de iris. La selección de grupos basadas en características relevantes y redundantes fue realizada asignándole un peso a cada característica en relación a sus vecinos. El método fue aplicado a imágenes de rostros usando las bases de datos UND, LFW, MORPH II y en iris usando la base de datos GFI.
Los resultados del primer método de selección de características usando rostros, fueron obtenidos con la fusión de 18.900 características seleccionadas alcanzando una tasa de clasificación de 99.13% en la base de datos FERET. Para la base de datos UND, la mejor tasa de clasificación de género fue obtenida por la fusión de 14.200 características seleccionadas con 94.01%. Para la base de datos LFW la mejor tasa de clasificación fue obtenida con la fusión de 10.400 características seleccionadas, usando 3 escalas espaciales diferentes con un 98.01%. A nuestro entender estos resultados son los mejores resultados reportados para la clasificación de género usando estas bases de datos. Dependiendo del tamaño de la imagen, el número total de características seleccionadas fue reducido a lo menos en 70% en FERET, 73% en UND y 90% en LFW.
En iris, el mejor resultado usando ventanas de 10x10 con un solapamiento del 50% usando histogramas de LBP(8,1) fue de 91.33%, Este nivel de precisión superar los resultados previamente publicados.
Para el segundo método, la mejor tasa de clasificación fue obtenida para la base de datos UND en la fusión de 2.100 características seleccionadas y 30 vecinos cercanos con un 98.25%. El mejor resultado para la base de datos MORPH II fue obtenida con 1.300 características y 25 vecinos cercanos con un 95.50%. Para la base de datos LFW el mejor resultado fue obtenido con 900 características y 25 vecinos cercanos con un 97%, usando validación cruzada de cinco grupos. Nuestros resultados muestran que la clasificación de género puede ser mejorada significativamente mediante el uso de la selección de características en grupos. La mejor tasa de clasificación para el uso de benchmark fue obtenida por la base de datos Sonar, obteniendo 95.68% usando 55 características y 35 vecinos cercanos. En la selección de características para iris, nuestra propuesta obtiene una precisión de 89% basada en la fusión de la información de las mejores características provenientes del iris derecho e izquierdo.
|
24 |
Reconocimiento frontal de rostros en base a imágenes de alta resoluciónZúñiga Paredes, Felipe Andrés January 2015 (has links)
Ingeniero Civil Eléctrico / Un sistema de identificación facial consiste en un método que toma una imagen del rosto de un individuo desconocido y un banco de imágenes de personas conocidas, con el objetivo de identificar a este individuo y decidir si está presente o no en el banco de imágenes conocidas.
Este Trabajo de Titulo se propone como objetivo estudiar el uso de escalas de alta resolución y combinaciones de las mismas en el problema de reconocimiento frontal de rostros. Para esto se utiliza la base de datos XM2VTS que contiene imágenes de rostros de individuos a una resolución de 720x576 píxeles.
Se propone generar imágenes a escalas del 50 % y 25% de escala de resolución mediante el método de Pirámides de Gauss, obteniendo tres distintas resoluciones. Luego son procesadas mediante LBP y Filtros Gabor para realizar combinaciones de la información extraída por estos métodos en distintas escalas de resolución. Finalmente se utiliza este vector de información en un clasificador K-NN y se logra el reconocimiento de cada individuo.
Se realizan pruebas de reconocimiento para realizar el ajuste de parámetros de los métodos de extracción de características en distintas escalas de resolución y pruebas para detectar las combinaciones de información de estas últimas que entreguen los mejores resultados. Por separado los métodos LBP y Filtros Gabor obtuvieron como máximos desempeños un 97,96% y un 94,12% de reconocimiento exitoso respectivamente. Sin embargo, al fusionar la información obtenida a través de estas técnicas de extracción de características, se obtiene un método de reconocimiento frontal de rostros que logra un 98,9% de reconocimiento exitoso, con un tiempo de procesamiento total de 21 minutos y 1,26 segundos por cada individuo como resultado final.
Comparando con trabajos similares realizados con las mismas muestras se posiciona a la par de estos, demostrando ser un método competente y eficiente, además de entregar pautas para seguir el estudio del problema del reconocimiento facial.
|
25 |
Diseño e implementación de técnicas de procesamiento de imágenes para dispositivo de ultrasonido portátilHerrera Gajardo, Javier Ignacio January 2017 (has links)
Ingeniero Civil Eléctrico / Taote es un dispositivo de ultrasonido portátil de bajo costo completamente diseñado y
construido en la Universidad de Chile. Su portabilidad, fácil uso y bajo costo lo hacen una
herramienta idónea para el pre diagnostico conducido por médicos generales, dando solución
al problema de congestión de la red de salud pública al evitar derivar casos innecesarios
a otros centros de atención de mayor complejidad y dando un mayor acceso a este tipo
de exámenes en zonas donde su acceso es restringido. Como producto en desarrollo, aún
enfrenta diversos desafíos que deben resolverse, entre ellos, el tratamiento de imágenes para su
realce. Los dispositivos de ultrasonido son afectos a un fenómeno particular llamado speckle,
generado por la interferencia de la señal exploradora con los elementos pequeños en las
superficies examinadas, lo que se traduce en artefactos granulares, zonas de alta y baja
intensidad que dificultan el diagnóstico médico y automatizado. El objetivo principal de este
trabajo consiste en diseñar e implementar distintas técnicas de procesamiento considerando
las restricciones que impone Taote, tal que permitan realzar las imágenes de ultrasonido que
provienen de él. Para ello, se estudian algunas técnicas existentes en el estado del arte ,
se simulan y evalúan para su posterior implementación. Al respecto, el operador lineal con
ganancia adaptable de Lee y el operador no lineal de mediana multicapa, entregan los mejores
desempeños seguidos por los operadores fundamentales (promedio y mediana convencional)
para los índices de transformación de imágenes. Éstos entregan una métrica de la calidad de la
transformación y no de la calidad de la imagen por sí misma (la cual es subjetiva y depende del
observador) . Debido a la complejidad computacional, se diseñan circuitos que implementan
estos operadores con ganancia fija, es decir, representándolos como la interpolación constante
de operadores fundamentales en Verilog, para su posterior síntesis e implementación en la
FPGA del equipo. En su implementación en el equipo, las capturas de las nuevas imágenes
procesadas demuestran transformaciones similares a las obtenidas en las simulaciones, aunque
con métricas de transformación diferente. Aún así , éstas logran validar las transformaciones
en la imagen original de Taote. Finalmente, estas capturas fueron sometidas a la evaluación
del ojo experto, donde el operador no lineal con ventana de tamaño 5 X 5 fue la elegida
para ser incorporada en el proyecto. Si bien fue posible incorporar técnicas que modifican
métricas de la imagen, un examen exhaustivo debe hacerse al obtener el índice de eficiencia de
diagnostico de los operadores del producto y compararlos con los del producto sin la técnica
de procesamiento. Hacer estas pruebas escapa a los alcances de este trabajo, pero hacerlo
llevará a validar objetivamente las técnicas de procesamiento y abre las puertas a nuevos
desarrollos, como el diagnóstico automatizado, segmentación de imágenes y otro tipo de
desarrollos que acercarán al proyecto para lograr su cometido; incorporar un nuevo elemento
en el diagnóstico médico general. / 03/10/2021
|
26 |
Identificación de daños en placas compuestas mediante procesamiento automático de imágenesGuillen Palacios, Felipe Ignacio January 2018 (has links)
Ingeniero Civil Mecánico / Hoy en día el análisis de fallas o desgastes en estructuras es un punto de investigación que ha mantenido a varios científicos a la vanguardia con respecto a estos temas. Siempre se ha buscado optimizar el análisis de fallas, de tal forma de realizarlo en el menor tiempo y de la forma más precisa posible.
En este contexto y basado en el problema de la detección de anomalías de pacientes en mamografías, las cuales se detectan en gran parte en base a la experiencia de los doctores, ha dado pie a la investigación de metodologías de procesamiento de imágenes para evaluar el daño en estructuras compuestas.
La memoria comprende un estudio específico de imágenes tomadas a estructuras compuestas, por ejemplo, en paneles tipo sándwich, en donde se diseñarán métodos de procesamiento automático de imágenes para la detección de zonas delaminadas o dañadas.
Se desarrolla una metodología para estudiar los distintos tipos de métodos de reconocimiento de imágenes que se usan hoy en día en detección de masas en mamogramas y analizar cuáles son factibles a aplicar en reconocimiento de daños en estructuras compuestas. Luego se busca aplicar estos métodos en imágenes simuladas al azar para obtener algoritmos lo más eficientes posibles. Finalmente se aplican estos algoritmos en imágenes experimentales y se concluyen la eficacia de estos.
Se trabaja con 7 métodos de análisis de imágenes hasta el momento, Promedio Factor de Correlación el cual busca encontrar una cota la cual limita las intensidades de colores. Para ello se trabaja con una matriz de confusión para poder obtener la proporción de falsos positivos y negativos, la cual se aplica en todos los métodos de tal forma de obtener la certeza de cada uno. Junto con este método se implementa una mejora en donde se eliminan objetos o anomalías de menores tamaño ya que no se consideran como daños.
También se trabaja identificando los outliers considerando una distribución T-Student. Se trabaja con la caracterización del perímetro y del área de las anomalías obtenidas ya sea modelándolas por default al momento de ser procesadas o a través de una elipse con similar segundo momento normalizado. Por último tambien se trabaja con un método el cual compra la variación de gradiente entre una imagen procesado y una imagen con índices de daños y define las anomalías en base a la magnitud del gradiente.
Como principales resultados se obtuvo una Proporción de Falsos Negativos (FNR) de 0,046 con el método de Ponderación con Factor Correlación con Filtro, pero aplicando el método de área y perímetro en base a elipses se obtiene un valor mayor de FNR de 0,052 pero con menos variabilidad, con lo que lo hace un algoritmo más confiable pero menos certero. / Este trabajo ha sido parcialmente financiado por Proyecto Fondecyt 1170535
|
27 |
Plataforma de depurado para renderizadores basados en raytracingGioia Chehade, Stefano January 2019 (has links)
Memoria para optar al título de Ingeniero Civil en Computación / Encontrar un error en una aplicación gráfica mediante las herramientas de depurado que
proveen los lenguajes de programación convencionales suele no ser una tarea fácil. En este
trabajo se propone un método y se implementa una solución para llevar a cabo el depurado
de aplicaciones que utilizan raytracing como técnica de renderizado.
En concreto, se describe el diseño y construcción de una plataforma web que permite la
carga, manipulación y visualización de rayos a través de un esquema particular, que consta
de propiedades que describen rayos como típicamente se encuentran en los raytracers, como
el origen, dirección, y punto de término, en el caso de rayos finitos.
Se propone un sistema de etiquetado, que consiste en asignarle etiquetas a los rayos durante
el proceso de generación del esquema, y se muesta cómo se pueden realizar consultas del tipo
"¿cuáles son los rayos que fueron reflejados desde un espejo?", o "¿cuáles son los rayos que
intersectan con el n-ésimo objeto de la escena?".
Por último, la herramienta se valida con 4 desarrolladores, a quienes se les presenta un
conjunto de 5 problemas. Estos consisten de una descripción de una escena, una imagen
con un error generada por un raytracer con algún tipo de problema, y un registro de rayos
generado por este raytracer. El objetivo en cada caso es descubrir, mediante el uso de la
aplicación web cargada con este registro, cuál es el problema con la imagen. En 2 de los 5
casos, todos los desarrolladores fueron capaces de encontrar el problema, mientras que en los
restantes 3, la mitad fue capaz de encontrar el problema.
|
28 |
Metamorphosis imaginis : exploraciones en la mutabilidad de la imagen-materiaRivera Céspedes, Ivana January 2018 (has links)
Memoria para optar al título de Diseñadora Gráfica
|
29 |
Desarrollo e implementación de un sistema de detección automatica de publicidad en prensa escritaRamírez Mellado, Maximiliano January 2014 (has links)
Ingeniero Civil Eléctrico / La revisión sistemática de la prensa es una importante herramienta para el análisis de presencia de marcas y desarrollo de estrategias publicitarias, el monitoreo de estos medios tradicionalmente es realizado por operadores que manualmente extraen la información.
Este trabajo tiene como objetivo presentar un novedoso sistema de detección automática de publicidad sobre imágenes procedentes de diarios y revistas, dentro del marco del proyecto IntelliMEDIA, llevado a cabo por el startup chileno CPDLabs.
La metodología para detectar anuncios publicitarios se basa en un modelamiento específico de la estructura de la prensa escrita, permitiendo llegar a obtener una estimación del costo de los anuncios detectados. Para ello se separa el problema en 4 bloques: Preprocesamiento que separa el texto de las imágenes dentro de la página.
Detección de logos que busca logos dentro de la página. Detección de publicidad que identifica el anuncio publicitario al que pertenece el logo y finalmente una etapa de tarificación que entrega una estimación del costo asociado al espacio publicitario.
El problema es abordado principalmente mediante tres estrategias: Primero la representación de la imagen en descriptores locales, que permite calzar características similares entre imágenes. Segundo, la estrategia de detección de objetos Viola-Jones, algoritmo de machine learning que genera un clasificador en base a un conjunto de imágenes de entrenamiento. La última estrategia es comparar histogramas de color permitiendo integrar información de color a la clasificación.
Para medir el desempeño de dichas estrategias se desarrolla un marco de evaluación, que consiste en una base de validación de 20.000 páginas de diario con 27 logos marcados, para así medir el desempeño de las distintas estrategias y configuraciones de parámetros, encontrar una solución eficaz para el problema y analizar las fortalezas y debilidades de los distintos métodos.
Los resultados demuestran que la solución es viable y es posible detectar logos mediante descriptores locales y Viola-Jones, logrando desempeños mayores al 90%. Por lo tanto IntelliMediA puede llegar a ser una manera eficaz y eficiente de extraer información publicitaria automáticamente de prensa escrita.
|
30 |
Utilización de Imágenes Digitales para el Mejoramiento de la Productividad de Operaciones de ConstrucciónMora Aguirre, Miguel Alejandro January 2009 (has links)
Diversos estudios demuestran que a nivel mundial la industria de la construcción presenta bajos niveles de productividad. A pesar de que la construcción es un sector considerado tradicionalmente lento para adoptar innovaciones, la aplicación de herramientas que faciliten la captura y el procesamiento de datos para el mejoramiento de procesos, en base a tecnología de información, puede ser una estrategia efectiva para ayudar a mejorar indicadores de productividad.
Este trabajo desarrollado bajo la rama de productividad del proyecto FONDEF D06I1013: “UTILIZACIÓN DE IMÁGENES Y VIDEOS DIGITALES PARA EL MEJORAMIENTO DE LA SEGURIDAD, PRODUCTIVIDAD Y CALIDAD EN PROCESOS DE CONSTRUCCIÓN”. Presenta el diseño de metodologías computacionales que facilitan la captura, el procesamiento y análisis de información para el mejoramiento de la productividad en operaciones de construcción, utilizando videos e imágenes digitales. Se discuten los problemas y necesidades de obra que pueden ser atendidos mediante el uso de imágenes y videos digitales. Se describen las metodologías, su adaptación; las tecnologías disponibles y el diseño de los nuevos métodos que fueron incorporados en un sistema de captura, procesamiento y análisis de información a partir de videos e imágenes digitales. Finalmente se presenta un set de herramientas cuyo uso puede contribuir al mejoramiento significativo de la productividad en proyectos de construcción.
|
Page generated in 0.1032 seconds