Spelling suggestions: "subject:"procesamiento dde imagens"" "subject:"procesamiento dee imagens""
51 |
Seguimiento de una persona con robot de servicio de recursos limitadosHormazabal Correa, Eduardo Andrés January 2019 (has links)
Memoria para optar al título de Ingeniero Civil Eléctrico / Los robots de servicio son cada vez más frecuentes dado su potencial para realizar diversos tipos de tareas. Una actividad con gran potencial es la de seguir a una persona, ya que se puede utilizar para ejecutar acciones más complejas, como aprender un recorrido predeterminado, ayudar a transportar objetos, monitorear a una persona, etc. Luego, el objetivo de este trabajo es el de implementar un sistema de seguimiento de una persona con el robot de servicio Pepper de SoftBank Robotics, que implica ser capaz de funcionar en tiempo real, con la presencia de múltiples personas, entre otros.
Tras investigar en la literatura distintos métodos relacionados con este trabajo, se propone e implementa un sistema modular que basa su funcionamiento en imágenes de color y profundidad adquiridas por el robot. Primero se obtienen candidatos de personas utilizando la nube de puntos generada por la imagen de profundidad para reducir el costo computacional, y luego se detectan utilizando la imagen de color. Posteriormente se asocian las detecciones de todas las personas a lo largo del stream de video. A continuación se entrena un clasificador adaptativo capaz de diferenciar a la persona que se está siguiendo de las demás, mediante un conjunto de características elegidas previamente. Por último, se tiene un módulo encargado de accionar al robot para realizar la rutina de movimiento, que permite seguir a la persona.
El sistema se evaluó en un conjunto de videos generados específicamente para la tarea de seguimiento. Los resultados obtenidos indican que el sistema sí se puede ejecutar en tiempo real, con una tasa aproximada de 12 fps. Por otro lado, la detección de la persona a seguir alcanzó una media del 90.49%, además de ser capaz de reencontrarla la mayoría de las veces con una tasa promedio del 92.01%. Estos resultados compiten con métodos tradicionales utilizados en la literatura, pero que no logran ejecutarse en tiempo real en una máquina de las mismas características a la utilizada en este trabajo.
Se concluye que el sistema cumple con los objetivos planteados, y también da la posibilidad de realizar una mejora continua de éste por la naturaleza modular de la solución propuesta. Aún así, existe un conjunto de problemáticas no resueltas que se esperan resolver con métodos modernos y hardware especializado, como por ejemplo las redes neuronales convolucionales.
|
52 |
Multi-object tracking with cameraThomas Brigneti, Andrés Attilio January 2019 (has links)
Memoria para optar al título de Ingeniero Civil Eléctrico / En este trabajo se evaluarán distintos algoritmos de trackeo para el problema de seguimiento de peatones, donde teniendo un video obtenido de una camara de seguridad, nos interesa reconocer correctamente cada individuo a traves del tiempo, buscando minimizar la cantindad de etiquetas mal asignadas y objetos (peatones) no identificados.
Para esto se ocuparán algorimos basados en el concepto de Conjuntos Aleatorios Finitos (Random Finite Sets - RFS), los cuales usan mediciones pasadas de los objetos para predecir posiciones futuras de todos ellos simultaneamente, mientras que también se consideran los casos de nacimientos y muertes de los objetos. Estos algoritmos fueron concebidos para el trackeo de objetos con movimientos simples y predecibles en condiciones de una gran cantidad ruido en las mediciones. mientras que las condiciones en las que se evaluarán son drasticamente opuestas, con un nivel muy alto de certeza en las mediciones pero con movimientos altamente no linear y muy impredecible.
Se ocupará una libreria abierta creada por el investigador Ba Tuong Vo, donde están implementados varios de los más clásicos algoritmos en esta área. Es por esto que el trabajo se basará más en el análisis de los resultados en estas nuevas condiciones y observar como se comparán a los algoritmos actuales del area de Computer Vision (CV)/ Machine Learning (ML), usando tanto métricas de RFS como del área de CV.
|
53 |
Image sequence simulation and deep learning for astronomical object classificationCarrasco Davis, Rodrigo Antonio January 2019 (has links)
Tesis para optar al grado de Magíster en Ciencias de la Ingeniería, Mención Eléctrica / Memoria para optar al título de Ingeniero Civil Eléctrico / En esta tesis, se propone un nuevo modelo de clasificación secuencial para objetos astronómicos basado en el modelo de red neuronal convolucional recurrente (RCNN) que utiliza secuencias de imágenes como entradas. Este enfoque evita el cálculo de curvas de luz o imágenes de diferencia. Esta es la primera vez que se usan secuencias de imágenes directamente para la clasificación de objetos variables en astronomía.
Otra contribución de este trabajo es el proceso de simulación de imagen. Se simularon secuencias de imágenes sintéticas que toman en cuenta las condiciones instrumentales y de observación, obteniendo una serie de películas de ruido variable, realistas, muestreadas de manera irregular para cada objeto astronómico. El conjunto de datos simulado se utiliza para entrenar el clasificador RCNN. Este enfoque permite generar conjuntos de datos para entrenar y probar el modelo RCNN para diferentes estudios astronómicos y telescopios. Además, el uso de un conjunto de datos simulado es más rápido y más adaptable a diferentes surveys y tareas de clasificación. El objetivo es crear un conjunto de datos simulado cuya distribución sea lo suficientemente cercana al conjunto de datos real, de modo que un ajuste fino sobre el modelo propuesto pueda hacer coincidir las distribuciones y resolver el problema de adaptación del dominio entre el conjunto de datos simulado y el conjunto de datos real. Para probar el clasificador RCNN entrenado con el conjunto de datos sintéticos, se utilizaron datos reales de High Cadence Transient Survey (HiTS), obteniendo un recall promedio del 85% en 5 clases, mejorado a 94% después de realizar un ajuste fino de 1000 iteraciones con 10 muestras reales por clase. Los resultados del modelo RCNN propuesto se compararon con los de un clasificador de bosque aleatorio o random forest de curvas de luz. El RCNN propuesto con ajuste fino tiene un rendimiento similar en el conjunto de datos HiTS en comparación con el clasificador de bosque aleatorio de curva de luz, entrenado en un conjunto de entrenamiento aumentado con 100 copias de 10 muestras reales por clase. El enfoque RCNN presenta varias ventajas en un escenario de clasificación de streaming de alertas astronómicas, como una reducción del preprocesamiento de datos, una evaluación más rápida y una mejora más sencilla del rendimiento utilizando unas pocas muestras de datos reales. Los resultados obtenidos fomentan el uso del método propuesto para los sistemas astronomical alert brokers que procesarán streamings de alertas generados por nuevos telescopios, como el Large Synoptic Survey Telescope (LSST). Se proponen ideas para un clasificador multibanda y un mejor simulador de imágenes en función de las dificultades encontradas en este trabajo.
|
54 |
Detección automática de objetos espaciales usando imágenes capturadas con cámaras all-skySan Martín Vásquez, Felipe Ignacio January 2019 (has links)
Tesis para optar al grado de Magíster en Ciencias de la Ingeniería, Mención Eléctrica / Memoria para optar al título de Ingeniero Civil Eléctrico / Detectar, clasificar y caracterizar los objetos espaciales son tareas relevantes para diversas
áreas de investigación. La detección de los objetos espaciales tiene importantes aplicaciones,
tales como predecir colisiones en órbitas cercanas a la Tierra provocadas por basura espacial o
satélites que, a su vez, pueden convertirse en peligros latentes para nuevos satélites o misiones
espaciales. En el presente trabajo de tesis, se desarrolla un sistema flexible capaz de detectar
objetos espaciales de manera automática utilizando imágenes obtenidas con cámaras del tipo
all-sky, las que poseen un campo de visión muy amplio.
El sistema propuesto se compone de dos módulos principales: el primero, un módulo
de mejoramiento de imágenes, incluye en una serie de procesamientos que se aplican de
forma secuencial con el fin de mejorar la visibilidad de los objetos espaciales; el segundo,
un módulo de detección de objetos, considera métodos para detectar los objetos espaciales
automáticamente.
Más detalladamente, el módulo de mejoramiento de las imágenes está compuesto por las
siguientes etapas: corrección de la distorsión geométrica, filtrado para reducir el ruido, gene-
ración de un modelo de fondo para ser restado a las imágenes, fusión de imágenes que fueron
capturadas de forma simultánea, borrado de estrellas usando un catálogo y mejoramiento de
contraste adaptivo por zonas.
Para el módulo de detección automática de objetos espaciales, se estudiaron dos metodo-
logías. Una de ellas usa un detector de bordes Canny junto con un detector de segmentos
Progressive Probabilistic Hough Transform. La segunda metodología está basada en el uso
de la Transformada de Radon para detectar los segmentos correspondientes a los objetos
espaciales.
El sistema desarrollado se aplicó a un conjunto de 22×3 imágenes obtenidas desde el Om-
nidirectional Space Situational Awareness (OmniSSA) del Instituto de Tecnología de Georgia
en la ciudad de Atlanta. El OmniSSA posee tres sensores que capturan imágenes de alta re-
solución simultáneamente (3352×2532 pixeles) con un amplio campo de visión para cada
cámara.
Para evaluar la etapa de mejoramiento de las imágenes se definió la Intensidad Escalada
sobre el Ruido (I SN ). Además, para evaluar las detecciones obtenidas se generó un ground-
truth utilizando información obtenida desde el catálogo Space-Track y validada por expertos.
Los resultados muestran que el sistema desarrollado fue capaz de detectar prácticamente
todos los objetos espaciales considerados visibles a una altura menor a 900 kilómetros. / AFOSR #FA9550-16-1-0027, a través del proyecto RG458-G1: “All-Sky Image Fusion for a Synoptic Survey”, del Instituto
de Tecnología de Georgia, Estados Unidos, y el proyecto FONDECYT 1161034 de CONICYT, Chile
|
55 |
Teclado Controlado por Posición Ocular Utilizando Referencias Propias del RostroCament Riveros, Leonardo January 2008 (has links)
No description available.
|
56 |
Evaluación y mejora de un sistema de reconocimiento de iris a distancia utilizando cámara de alta resoluciónYonekura Baeza, Sebastián January 2014 (has links)
Ingeniero Civil Eléctrico / Los sistemas biométricos corresponden a sistemas que realizan el reconocomiento automático de
individuos a través de atributos únicos. Para que un patrón biométrico sea utilizable, debe cumplir ciertas
propiedades, entre ellas las más importantes son: universalidad; invarianza en el tiempo; fácil recolección
y almacenamiento. Se considera que el iris cumple con todas estas características y ha sido utilizado en
sistemas de reconocimiento por más de una década. A medida que ha transcurrido el tiempo, los sistemas
basados en reconocimiento de iris han mejorado considerablemente con respecto a su exactitud, sin embargo,
aún se utilizan sistemas altamente cooperativos y en particular en condiciones de iluminación dañinas para la
salud, por lo que la comunidad de investigadores se ha volcado en torno a relajar las restricciones en las que
operan estos sistemas, con el fin de mejorar la experiencia de uso y la calidad de vida de los usufructuarios.
En este trabajo se evalúa un sistema de reconocimiento de iris a distancia, en donde se utilizan las
características de color y textura del mismo para llevar a cabo la clasificación. El trabajo abarca el estudio de
distintos algoritmos de preprocesamiento de imágenes, esquemas de codificación y comparación propuestos
durante los últimos años, los cuales se evalúan cada uno por separado y finalmente se utilizan en conjunto,
además de describir el método propuesto para computar la desición final del sistema. El algoritmo se evalúa
en una base de datos que consta de 1505 imágenes correspondientes a 54 sujetos, tomadas a una distancia
aproximada de 1.5 [m] de distancia de la cámara utilizando iluminación de espectro visible. A partir de
esta base de datos se seleccionan las mejores imágenes de iris utilizando distintos sistemas de evaluación de
enfoque, luego se particiona en una base de datos de entrenamiento de parámetros y otra de validación, y
finalmente se muestran los resultados con respecto a la base de datos de validación. Se utilizaron kernels para
evaluar el enfoque de las imágenes capturadas, en particular los propuestos por Daugman, Kang y Wei y se
observó que el kernel de Daugman resulta ser más efectivo. Se utilizaron distintos métodos de corrección de
enfoque, reducción de ruido y ecualización de imágenes combinados para mejorar la tasa de reconocimiento
del sistema, y se concluyó que el filtro de Wiener para reducir el ruido otorga los mejores resultados. Se
implementó un sistema de codificación generalizada para aumentar arbitrariamente la cantidad de bits que
se obtienen por cada pixel de la imagen, concluyendo que el mejor tamaño de codificación fue de 4 bits
por pixel luego de reducir el ruido en las imágenes utilizando el filtro de Wiener. Se implementó un mapa de
pesos por cada usuario registrado en la base de datos, la cual se encarga de otorgarle mayor peso a los bits que
a priori son menos variables entre muestras, lo que aumentó la exactitud promedio desde 17.72% a 26.6%
utilizando sólo esta mejora, con 5 imágenes por usuario enrolado. Se evaluaron dos métodos para clasificar
el iris de acuerdo a su coloración, diferencia promedio y distancia de difusión, en donde se concluyó que
la diferencia promedio otorga mejores resultados, sin embargo esta característica no es lo suficientemente
discriminadora como para ser utilizada por sí sola. El resultado final del índice de reconocimiento del sistema
al utilizar todas las mejoras antes mencionadas y fusionando las características de textura iridal y color de
iris de ambos ojos es del 90.77%, con una tasa de aceptación de impostores del 0% en promedio.
|
57 |
Astrometría desde un enfoque BayesianoEcheverría Solís, Alex Mauricio January 2016 (has links)
Ingeniero Civil Eléctrico / En la Astronomía ha habido un salto cuantitativo gigantesco desde el nacimiento de la tecnología CCD y las imágenes digitales. A pesar de ello, todavía existe un espacio de mejora en lo que respecta a las técnicas para estimación de parámetros importantes que caracterizan a las estrellas. Es por eso que esta Memoria de Título se presenta como objetivo el estudiar y cuantificar el uso de nuevos enfoques de estimación modernas no aplicados aún en esta disciplina para la estimación de la posición de objetos luminosos (Astrometría).
Para poder entender el problema se presenta qué es una cámara digital y su uso en la astronomía, especificamente en la astrometría, además de presentar importantes conceptos astronómicos que se usan a lo largo de la memoria, como lo son el Point Spread Function y el Full Width at Half Maximum. Por otro lado, se da un repaso a los elementos de estimación necesarios para resolver el problema, como Cramér-Rao, Cramér-Rao Bayesiano y los estimadores Esperanza Condicional, Maximum Likelihood y Least Squares.
La implementación del estimador se realizará a partir de una formalización completa del problema de estimación en astrometría, donde se incluirá también el trabajo de los algoritmos necesarios para encontrar el valor numérico tanto del estimador como de su error cuadrático medio. Se mostrará también la resolución de la cota de Cramér-Rao, tanto para la versión paramétrica como la bayesiana.
Se hace un análisis de las herramientras presentadas usando como figura de mérito el MSE (Error Cuadrático Medio). A partir de ello, se muestra cómo varía este valor como función del tamaño del pixel, la relación de señal-ruido y sus ganancias relativas, para posteriormente estudiar las diferencias entre la Cota Bayesiana de Cramér-Rao y el MSE de la Esperanza Condicional, el estimador propuesto para el problema.
Finalmente se concluye, viendo que existen ganancias significativas del enfoque Bayesiano en regímenes de baja relación señal-ruido y gran tamaño de pixel. Además se verifica que la cota Bayesiana de Cramér-Rao es un buen predictor del MSE de la Esperanza Condicional, lo cual trae nuevas preguntas que se pueden plantear como trabajo futuro a partir de esta Memoria de Título.
|
58 |
Clasificación de garras de pollo mediante imágenes digitalesSáenz Valenzuela, Diego January 2016 (has links)
Ingeniero Civil Eléctrico / En las plantas faenadoras de pollos se busca sacar el máximo provecho a cada animal, por lo que no solo se comercializan sus partes altas en carne como lo son la pechuga y el trutro, sino que también se venden partes como alas, interiores y patas. El presente trabajo trata de la categorización de patas, ya que no todas tienen el mismo precio, sino que se dividen en categorías dependiendo de su peso y cantidad de defectos, siendo las más grandes y sanas las mejor valoradas. Actualmente, la categorización de patas de pollo se hace de forma manual, lo cual puede estar sujeto a la subjetividad de cada operador, toma bastante tiempo y, a su vez, se refleja en el balance de las empresas como un alto costo fijo por mano de obra. Dado lo anterior, se vuelve muy interesante la automatización de procesos que permitan aumentar su eficiencia en la separación por categorías.
En la industria del pollo, las patas del animal son conocidas como garras y sus categorías son llamadas calibres, los que dependen del peso y cantidad de defectos de cada garra. En este trabajo de título se proponen y comparan distintas metodologías para definir el calibre de una garra a partir de dos imágenes, mostrando su parte superior e inferior. Debido a la complejidad del problema, solo se consideran garras sin fracturas o raspaduras, limitando la clasificación a garras con defectos reconocibles por su color como lo son las cutículas, callos y hematomas.
Tras probar distintos métodos para clasificar las garras según sus calibres, se llega a uno que consiste en una cuantificación de defectos utilizada como entrada para un clasificador en base a rangos, el cual, con un 97.4% de exactitud, demostró ser el mejor método para definir el calibre. La cuantificación mencionada consiste en utilizar una cascada de clasificadores binarios, con las intensidades RGB de los pixeles como entrada, identificando aquellos que muestran cutícula, callo, hematoma o garra sana, para finalmente obtener la cuantificación con la suma de pixeles de cada defecto.
Como conclusión se puede decir que, a pesar de las limitaciones impuestas para el desarrollo de la metodología propuesta, se han logrado los objetivos planteados en forma satisfactoria, logrando obtener un método de clasificación de garras, escalable a la industria faenadora de pollos.
|
59 |
Identificación de daño en un panel compuesto utilizando la deformación de los modos de vibraciónFernández Délano, Ignacio Abelino January 2018 (has links)
Memoria para optar al título de Ingeniero Civil Mecánico / Capturar las vibraciones de un objeto usando cámaras estereoscópicas de alta velocidad posibilita la determinación en campo completo de su geometría y desplazamiento en tres dimensiones, ya que permiten medir un elevado número de grados de libertad simultáneamente. Disponer de datos de medición de campo completo de una estructura es de interés para la aplicación de metodologías de identificación de daño centradas en la respuesta vibracional.
El objetivo de este trabajo de título es desarrollar e implementar indicadores de daño basados en la deformación, curvatura y en derivadas de orden superior de los modos de vibración, que sean capaces de identificar daño por delaminación en un panel compuesto tipo panal de abeja usando un sistema de correlación de imágenes digital de alta velocidad (DIC).
Las muestras consistieron en paneles de geometría plana tipo sándwich con núcleos del tipo panal de abeja, y se diferenciaron según su composición y según distintos escenarios de daño por delaminación.
Las muestras fueron excitadas a rangos cercanos de sus respectivas frecuencias naturales, esta vibración se captó por el sistema DIC y se identificaron un determinado número de modos de vibración para cada muestra. Se procesó la información recabada por las cámaras, se les aplicó un algoritmo de suavizado y se construyeron indicadores de daño basados en la deformación, curvatura, y en la tercera y cuarta derivada parcial del desplazamiento normal a la superficie modal. Finalmente, a los indicadores resultantes se les aplicó un tratamiento estadístico de selección de datos (asociados a daño) y se les comparó mediante un algoritmo evaluador de predicción.
Se utilizaron dos técnicas distintas para la estimación de los parámetros vibracionales de deformación, curvatura y derivadas de orden superior: diferencias finitas y point least-squares (PLS). Luego, en conjunto con la metodología \textit{Gapped Smoothing} (GSM) se construyeron los indicadores de daño.
Se concluyó que aquellos indicadores basados en parámetros estimados mediante diferencias finitas presentaron ser sensibles al ruido experimental y por tanto poco confiables. En cambio, los indicadores basados en parámetros estimados mediante point least-squares presentaron ser sensibles al daño y robustos ante la presencia de ruido experimental. En particular, los indicadores de daño basados en la deformación, curvatura y tercera derivada del desplazamiento normal a la superficie de los modos estimadas mediante point least-squares presentan las mejores predicciones de detección según el algoritmo evaluador. Además, la detección de delaminaciones pequeñas fue realizada de mejor manera por el indicador basado en la curvatura estimada mediante point least-squares. / FONDECYT
|
60 |
Diseño y desarrollo de un sistema para la detección automática de retinopatía diabética en imágenes digitalesArenas Cavalli, José Tomas Alejandro January 2012 (has links)
Memoria para optar al título de Ingeniero Civil Electricista / Memoria para optar al título de Ingeniero Civil Industrial / La detección automática de la patología oftalmológica denominada retinopatía diabética tiene el potencial de prevenir casos de pérdida de visión y ceguera, en caso de impulsar la exanimación masiva de pacientes con diabetes. Este trabajo apunta a diseñar y desarrollar un clasificador a nivel de prototipo que permita discriminar entre pacientes con y sin presencia de la enfermedad, por medio del procesamiento automático de imágenes de fondo de ojo digitales. Los procedimientos se basan en la adaptación e integración de algoritmos publicados.
Las etapas desarrolladas en el procesamiento digital de las imágenes de retina para este objetivo fueron: localización de vasos sanguíneos, localización de disco óptico (DO), detección de lesiones claras y detección de lesiones rojas. Las técnicas utilizadas para cada una de las etapas fueron, respectivamente: Gabor wavelets y clasificadores bayesianos; características de los vasos y predicción de posición mediante regresores kNN; segmentación mediante fuzzy c-means y clasificación usando una red neuronal multicapas; y, operadores morfológicos ajustados óptimamente.
La base de datos de imágenes para el entrenamiento y prueba de los métodos desarrollados cuenta con 285 imágenes de un centro médico local, incluyendo 214 normales y 71 con la enfermedad. Los resultados específicos fueron: 100% de precisión en la ubicación del DO en las 142 imágenes de prueba; identificación del 91,4% de las imágenes con lesiones claras, i.e., la sensibilidad, mientras se reconocieron 53,3% de las imágenes sin lesiones claras, i.e., la especificidad (84,1% de sensibilidad y 84,7% de especificidad a nivel de pixel) en las mismas 142 muestras; y, 97% de sensibilidad y 92% de especificidad en la detección de lesiones rojas en 155 imágenes. El desempeño en la ubicación de la red vascular es medido por el resultado del resto de los pasos. El rendimiento general del sistema es de un 88,7% y 49,1% en cuanto a sensibilidad y especificidad, respectivamente.
Algunas medidas fundamentales son necesarias para la implementación a futuro. En primer lugar, acrecentar la base de datos de imágenes para entrenamiento y prueba. Además, es posible pulir cada una de las etapas intermedias de las cuatro grandes fases. Con todo, una ronda de implementación a nivel usuario de un prototipo general permitirá evaluación y mejora de los métodos diseñados y desarrollados.
|
Page generated in 0.126 seconds