• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 10
  • 3
  • Tagged with
  • 13
  • 13
  • 7
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Interfaz humano máquina controlada por gestos

Escalona Neira, Ismael Fernando January 2014 (has links)
Ingeniero Civil Eléctrico / El lenguaje corporal es importante para comunicarse fluidamente con las personas. En el ámbito de la interacción con máquinas, existen sistemas para reconocer automáticamente gestos, pero confunden cuerpos de color similar y sus capacidades son muy inferiores a las de los seres humanos. Para contribuir a la solución de este problema, se presenta una plataforma que sigue una esquina e identifica pulsaciones utilizando una webcam, independientemente del tono del objeto y del fondo, lo que se efectúa analizando variaciones luminosas. El sistema registra imágenes con una cámara y las preprocesa para disminuir el ruido. Posteriormente, obtiene las zonas con cambios luminosos y reconstruye los objetos móviles. Luego, identifica las esquinas de los cuerpos, sigue la trayectoria de una de ellas y verifica si hay oscilaciones. La plataforma es complementada con módulos para configurar su funcionamiento, dibujar trayectorias y controlar un cursor. La programación se realiza en C++ y utiliza las librerías OpenCV para procesar imágenes y Qt para mostrar la interfaz de usuario. El desempeño se evalúa con videos en que un dedo recorre trayectorias predefinidas. En las pruebas se utilizan varios tipos de iluminación, fondos, distancias a la cámara, posturas y velocidades de movimiento. Los resultados muestran que el algoritmo ubica el dedo con error promedio de 10 píxeles y detecta pulsaciones en el 82% de los intentos. Se producen fallas cuando hay fuentes de luz frente a la cámara, oscuridad o movimiento detrás de la mano. El programa se ejecuta a 30fps y utiliza el 16% de un procesador Intel Core i5-3337u. La plataforma es capaz de distinguir objetos de tono similar, pero es poco tolerante a movimientos en el fondo. Una combinación de los métodos basados en variaciones luminosas y color puede corregir sus deficiencias mutuamente y habilitar aplicaciones que utilicen señales hechas con las manos para ordenadores personales y robots.
2

Implementación de un sistema reconocedor de eventos en videos, con un clasificador K-NN

Onofri Soto, Ranato Vicenzo January 2014 (has links)
Ingeniero Civil en Computación / Hoy en día el fácil acceso a la tecnología permite al ser humano registrar, con un mínimo esfuerzo, eventos de interés en su vida. Como consecuencia se genera una gran cantidad de información multimedia, en particular videos, cuyo análisis de contenido es muy difícil de automatizar, siendo deseable el uso de técnicas de minería de datos y visión computacional para aprovechar esta oportunidad. En este contexto, surge la inquietud de clasificar dichos objetos en base a los eventos presentes en ellos, y de esa forma generar una herramienta predictiva que pueda ser usada posteriormente en aplicaciones de diversas áreas, como por ejemplo, en la publicidad. El presente trabajo de título da cuenta de la implementación de un sistema reconocedor de eventos en video, además de la experimentación con el mismo, la posterior modificación de su componente de clasificación, y la comparación de ambas versiones en términos de eficacia. El tipo de datos que emplea el sistema corresponde a videos de consumidor, los que fueron recolectados por una comunidad científica y agrupados en un dataset de uso público. El sistema se basa en un reconocedor de eventos planteado en un artículo, y está formado por descriptores de características, un módulo de clasificación SVM y un módulo de creación de histogramas. La modificación planteada consiste en cambiar SVM por un clasificador K-NN. Para cumplir con los objetivos mencionados anteriormente, se sigue la implementación propuesta en el artículo, esto significa que, primero se descarga el dataset y se implementan los descriptores escogidos, posteriormente, se implementa el clasificador SVM y se compara el sistema preliminar con las mediciones de eficacia del artículo, se repite el proceso hasta obtener valores similares y considerar que el sistema ha sido ajustado correctamente. Finalmente, se implementa el módulo K-NN y se comparan ambos sistemas en base a las métricas de rendimiento. A partir de los resultados de eficacia de las dos versiones, se muestra que el clasificador SVM es una mejor alternativa que K-NN para enfrentar el problema de reconocimiento de eventos en videos de consumidor. Esto es válido para los descriptores con los que se probó el sistema, pero puede no ser cierto si se utiliza otro conjunto de descriptores. Además, se deja en evidencia la dificultad que presenta el manejo de grandes volúmenes de información, y la necesidad de soluciones para su procesamiento.
3

Enhancements by weighted feature fusion, selection and active shape model for frontal and pose variation face recognition

Cament Riveros, Leonardo January 2015 (has links)
Doctor en Ingeniería Eléctrica / Face recognition is one of the most active areas of research in computer vision because of its wide range of possible applications in person identification, access control, human computer interfaces, and video search, among many others. Face identification is a one-to-n matching problem where a captured face is compared to n samples in a database. In this work a new method for robust face recognition is proposed. The methodology is divided in two parts, the first one focuses in face recognition robust to illumination, expression and small age variation and the second part focuses in pose variation. The proposed algorithm is based on Gabor features; which have been widely studied in face identification because of their good results and robustness. In the first part, a new method for face identification is proposed that combines local normalization for an illumination compensation stage, entropy-like weighted Gabor features for a feature extraction stage, and improvements in the Borda count classification through a threshold to eliminate low-score Gabor jets from the voting process. The FERET, AR, and FRGC 2.0 databases were used to test and compare the proposed method results with those previously published. Results on these databases show significant improvements relative to previously published results, reaching the best performance on the FERET and AR databases. Our proposed method also showed significant robustness to slight pose variations. The method was tested assuming noisy eye detection to check its robustness to inexact face alignment. Results show that the proposed method is robust to errors of up to three pixels in eye detection. However, face identification is strongly affected when the test images are very different from those of the gallery, as is the case in varying face pose. The second part of this work proposes a new 2D Gabor-based method which modifies the grid from which the Gabor features are extracted using a mesh to model face deformations produced by varying pose. Also, a statistical model of the Borda count scores computed by using the Gabor features is used to improve recognition performance across pose. The method was tested on the FERET and CMU-PIE databases, and the performance improvement provided by each block was assessed. The proposed method achieved the highest classification accuracy ever published on the FERET database with 2D face recognition methods. The performance obtained in the CMU-PIE database is among those obtained by the best published methods. Extensive experimental results are provided for different combinations of the proposed method, including results with two poses enrolled as a gallery.
4

Seguimiento de Objetos Utilizando Información Multi-Sensorial y Cooperación entre Múltiples Robots

Marchant Matus, Román January 2011 (has links)
Ingeniero Civil Electricista / En esta memoria de título se desarrolla una metodología que permite realizar la estimación del estado cinemático de múltiples robots utilizando información de variados sensores y cooperación entre robots compañeros. Para que ello sea posible, se crea un sistema capaz de detectar robots en un ambiente dinámico y estimar su posición relativa. Además, se genera un sistema externo de detección y seguimiento de robots que permite evaluar las metodologías propuestas debido a su alta precisión. Esta memoria apunta a una mejora importante de la estimación del entorno utilizando información de otros agentes, fundamentalmente debido a la ampliación de la porción observable del entorno. El primer tema abordado es la detección y la estimación de la posición de robots detectados. La información proveniente de una cámara se procesa en cada robot para generar detecciones de los objetos de interés. Además, se integran mediciones de sensores ultrasónicos para utilizar múltiples fuentes de información. Luego, se presenta una metodología de estimación de la posición relativa de objetos donde se utiliza la información proveniente de las percepciones propias y estimaciones realizadas por otros robots. Esta metodología utiliza como herramienta un algoritmo Bayesiano recursivo llamado Filtro de Kalman. Además, se soluciona el calce entre una nueva percepción recibida y un estimador, cuando se poseen objetos idénticos. En la siguiente etapa, se crea un sistema que permite generar datos precisos acerca del estado real del entorno utilizando un sensor láser y un computador externo. De esta manera, se generan datos que permiten validar la metodología propuesta para la estimación cooperativa. El correcto funcionamiento del sistema está sujeto al marco de trabajo actual, donde se poseen robots con un sistema visual ruidoso y con un campo visual limitado. Además, los robots poseen una baja capacidad de cómputo que no permite implementar algoritmos con alto consumo de recursos computacionales. Asimismo, se supone que los objetos se mueven sobre un plano geométrico y que el ruido existente se puede aproximar por una función de densidad de probabilidad Gaussiana. Los resultados indican que el perceptor visual de robots utilizando estimadores geométricos de distancia posee un error de estimación media de $14[cm]$. De igual manera, el sistema de generación de datos de validación entrega datos de muy bajo error y desviación estándar, por lo que permite evaluar las metodologías propuestas. Los resultados del método de estimación cinemática indican una mejora de la estimación al integrar múltiples fuentes de información. Se logra realizar dos publicaciones a nivel internacional, una publicación aceptada en la conferencia RoboCup 2011 y otra en proceso de revisión en una de las conferencias más importante de robótica a nivel mundial IROS 2011. Como trabajo futuro se propone generalizar el perceptor visual para situaciones más complejas donde se pueda detectar la orientación de los objetos. Además, se propone perfeccionar el sistema de generación de datos de validación para lograr una evaluación aun más confiable. Por último, se propone estimar y considerar la velocidad de los objetos para completar y mejorar la estimación del estado cinemático.
5

Modelamiento semántico del entorno de un robot utilizando información RGB-D

Silva Pérez, Cristóbal Ignacio January 2016 (has links)
Ingeniero Civil Eléctrico / En el ámbito de visión computacional, uno de los paradigmas más desafiantes es el de segmentación semántica. La dificultad de esta área de estudio radica en tener que identificar todo lo que se encuentra en la imagen de una escena, cosa que resulta particularmente complicada en entornos pequeños debido a la gran cantidad de oclusiones, cambios de iluminación e información ruidosa que rodean a éstos. En este trabajo de memoria se diseñó e implementó un sistema de visión capaz de detectar y etiquetar todos los objetos en una imagen tomada dentro de un entorno pequeño y cerrado. La idea es que este sistema no sólo utilice la información del posible objeto para etiquetarlo, sino que también sea capaz de usar la información de los objetos que lo rodean para optimizar dicho etiquetado y tomar una decisión final. Esto se conoce como aprendizaje estructurado y existen varias representaciones que son capaces de lidiar con el problema. Para este caso particular se utilizaron Modelos Gráficos Probabilísticos debido a su capacidad de abstraer problemas de visión como si fueran grafos. Este enfoque entregó la libertad de poder definir las relaciones entre componentes del grafo de la manera más conveniente, permitiendo darle mayor o menor importancia a las relaciones semánticas en función de parámetros arbitrarios. La principal contribución de este trabajo es la introducción de un Modelo Gráfico Probabilístico que puede ser fácilmente modificado para utilizar en problemas de segmentación semántica en general, cuyas implementaciones son difíciles de encontrar para un sistema de clasificación de entornos o son implementaciones muy específicas y poco modulares como para reutilizar en otro sistema. Se realizaron diversas pruebas de desempeño para evaluar y analizar la efectividad del modelo en términos de resultados de detección, tiempo de procesamiento e influencia de parámetros sobre el etiquetado de objetos. Para ello se utilizó la base de datos NYUD de la Universidad de Nueva York que contiene imágenes RGB-D tomadas con un sensor Microsoft Kinect que fue creada con la intención de entrenar robots. Los resultados son prometedores, entregando para todos los casos un aumento de detección con respecto al caso base, permitiendo confirmar la utilidad del modelo de inferencia utilizado. En base a esto se concluye que los modelos semánticos o contextuales son capaces de mejorar considerablemente la capacidad de detección de un sistema de visión, sin embargo el tiempo de procesamiento aún requiere trabajo para tener aplicaciones en tiempo real que es lo que se desea usualmente en el área de robótica.
6

Reconocimiento robusto de rostros en ambientes dinámicos

Correa Pérez, Mauricio Alfredo January 2012 (has links)
Doctor en Ingeniería Eléctrica / En la actualidad un problema fundamental para los sistemas robóticos que basan su sistema sensorial en la utilización de cámaras de video y sistemas de visión computacional es detectar y reconocer objetos de interés en ambientes no controlados. Por otro lado, el análisis del rostro juega un papel muy importante en la construcción de un sistema de Interacción Humano-Robot (HRI) que permita a los humanos interactuar con sistemas robóticos de un modo natural. En este trabajo de tesis se diseña e implementa un sistema de visión que opera en ambientes no controlados, y que es capaz de detectar y reconocer rostros humanos en forma robusta, utilizando métodos de visión activa e integrando diferentes tipos de contexto. Se plantea una metodología para la construcción del sistema de visión propuesto en forma general y se define cuales son los módulos principales que lo componen. Entre los cuales están los módulos de detección y reconocimiento de rostros, en particular el uso de contexto y un módulo de visión activa. Estos módulos permiten descartar falsas detecciones y realizar modificaciones a las observaciones para así mejorar el rendimiento del sistema de reconocimiento de rostros. Se desarrolla un simulador que se utiliza para validar el sistema general y en particular evaluar el funcionamiento de los diferentes módulos planteados. Este simulador es una poderosa herramienta que permite realiza evaluaciones de métodos de detección y reconocimiento de rostros ya que genera las observaciones de un agente dentro de un mapa virtual con personas. De los experimentos en el simulador y en otros ambientes se puede concluir que los módulos de contexto realizan un aporte significativo en el rendimiento del sistema de visión, mejorando las tasas de reconocimiento y reduciendo las tasas de falsos positivos en las detecciones de rostros. La tasa de reconocimiento aumenta de 78.41% a 86.77% con el uso de filtros de contexto. El uso de visión activa permite que la tasa de reconocimiento mejore de 86.77% a 92.92%, ya que permite que se construya una mejor galería (en caso que la galería se construye online), y mejorar la pose del robot con respecto a la persona en la etapa de reconocimiento. Se desarrolla un sistema robusto para la detección y la identificación de seres humanos en entornos domésticos el cual es evaluado en un robot de servicio. La principal función es evaluar el funcionamiento del sistema de visión propuesto en una aplicación real. Se agrega un nuevo sensor (cámara térmica) y se agregan nuevos módulos al sistema (Detección de Piel Visible y Térmica, Detección y reconocimiento de Rostros Térmico, Detección de Personas). Los resultados de la evaluación del sistema en una aplicación real (prueba enmarcada en la competencia de robótica RoboCup, que se llama Who is Who ) confirman que el uso de contexto mejora el rendimiento del sistema, permitiendo aumentar la tasa de reconocimiento de 54% a 74% y reduciendo el numero de falsos positivos a 0. Nuevamente la visión activa fue un factor importante para mejorar el desempeño del sistema en general, en todos los experimentos influyó de forma positiva en el funcionamiento del sistema.
7

Visión Computacional Robótica Basada en Contexto

Palma Amestoy, Rodrigo January 2011 (has links)
No description available.
8

Object Detection Using Nested Cascades of Boosted Classifiers. A Learning Framework and Its Extension to The Multi-Class Case

Verschae Tannenbaum, Rodrigo January 2010 (has links)
No description available.
9

Generación Automática de Landmarks Visuales Naturales Tridimensionales para Slam Visual

Loncomilla Zambrana, Patricio Alejandro January 2011 (has links)
En los métodos actuales de SLAM visual, los mapas son representados mediante landmarks puntuales. Como la observación de un landmark puntual entrega sólo información angular sobre la cámara, se debe estimar una matriz de covarianza que considere todos los puntos para poder converger a una escala global. Sin embargo, como la complejidad computacional asociada al trabajo con matrices de covarianza crece de una forma cuadrática respecto al número de landmarks, la cantidad máxima de puntos con los cuales se puede trabajar n tiempo real está limitada a unos cientos. En este trabajo se propone un sistema de SLAM visual basado en el uso de los denominados landmarks cuerpo rígido. Un landmark cuerpo rígido representa la pose completa 6D (posición y orientación) de un cuerpo rígido en el espacio, y la observación de uno de estos landmarks proporciona información completa acerca de la pose de una cámara móvil. Cada landmarks cuerpo rígido es creado a partir de un conjunto de N landmarks puntuales mediante el colapso de 3N componentes del estado en 7 nuevas componentes del estado, además de un conjunto de parámetros que describe la forma del landmark. Los landmark cuerpo rígido son representados y estimados usando puntocuaterniones, los cuales son introducidos en este trabajo. Mediante el uso de los landmarks cuerpo rígido, el tiempo de ejecución del sistema de SLAM puede reducirse hasta un 5.5% a medida que la cantidad de landmarks aumenta. El sistema SLAM propuesto es validado y simulado en secuencias de video reales. El método propuesto puede ser extendido a cualquier sistema de SLAM que se base en el uso de landmarks puntuales, incluyendo aquellos generados mediante sensores láser.
10

Analysis and evaluation of optical flow methods with applications in biology

Delpiano Costabal, José Francisco January 2013 (has links)
Doctor en Ingeniería Eléctrica / El flujo óptico (OF, por sus siglas en inglés) es un campo vectorial que representa las velocidades aparentes de movimiento de los patrones de intensidad en una imagen que varía en el tiempo. El OF ha sido aplicado ampliamente a tareas de visión computacional y está siendo usado para análisis de imágenes biológicas. La literatura relevante muestra que (i) la mayoría de los artículos apenas cubre el tema de la selección óptima de parámetros y (ii) el criterio para optimización y ranking de métodos de OF tiende a ser precisión o velocidad, pero no un criterio conjunto de precisión y velocidad. Esta tesis presenta como su contribución principal una metodología novedosa para la selección de parámetros de un método de OF cualquiera, basado en la optimización concurrente de varios objetivos. Esta metodología está basada en optimización multi-objetivo evolutiva y busca los parámetros que optimizan dos objetivos, precisión y velocidad del OF, al mismo tiempo. La metodología encuentra un conjunto de configuraciones que son óptimas en el sentido de Pareto, es decir que no hay configuraciones mejores que otras en todos los objetivos. Este conjunto de configuraciones caracteriza cada método de OF, dando una curva de operación precisión-velocidad para el método y permitiendo la comparación entre distintos métodos. Los resultados muestran que la metodología propuesta logra mejoras tanto en la precisión como en la velocidad de un método de OF, entendidos como una medida de error de OF y el tiempo de ejecución del método de OF. La metodología presentada fue aplicada exitosamente a un problema biológico. Fue probada para la selección de parámetros de OF para experimentos de seguimiento (tracking) apuntando al análisis 3D de estructura en microscopía electrónica de objetos biológicos. Produjo una reducción importante en tiempo de ejecución, manteniendo bajo el error de tracking. Esta metodología ahorraría tiempo a investigadores que trabajan con OF, evitando selección manual de parámetros y dándoles la configuración de parámetros adecuada para su aplicación. Sería interesante desarrollar rankings en línea para comparación de métodos de OF, aprovechando las curvas de operación multi-objetivo.

Page generated in 0.0947 seconds