Spelling suggestions: "subject:"fisión robótica"" "subject:"cisión robótica""
1 |
Detección robusta de objetos en robots humanoidesYáñez Arancibia, José Miguel January 2013 (has links)
Magíster en Ciencias de la Ingeniería, Mención Eléctrica / En este trabajo se presenta un sistema de detección de objetos para robots móviles basado en la información visual entregada por las cámaras del robot y el estado de los encoders de cada articulación. Debido a la baja capacidad de procesamiento que poseen los computadores de este tipo de robots, no es posible utilizar técnicas clásicas de visión computacional para la detección de objetos. Por ésto, esta tesis propone un sistema de percepción alternativo, de bajo consumo computacional, de alto desempeño y robusto. El sistema desarrollado no sólo detecta objetos sino que también les calcula: la pose respecto al sistema de referencia del robot y el error de la medición dada por una matriz de covarianza. También identifica el objeto detectado en caso de tratarse de objetos repetidos en el entorno.
El ambiente de trabajo es el fútbol robótico, por lo que los objetos de interés a detectar corresponden a: los arcos, las líneas de la cancha y sus respectivas intersecciones. Dado que éstos objetos poseen una geometría regular, los sistemas de percepción se basan en el ajuste de modelos de líneas rectas que luego son considerados posibles bordes de los objetos. Los puntos que conforman las líneas de borde son determinados a partir de la información de color para el caso de arcos, e información de altos gradiente de intensidad para el caso de las líneas. Luego una serie de reglas dispuestas en cascada determinan si los modelos encontrados corresponden a objetos en la imagen.
La detección de objetos también hace uso de la información del estado de los encoders de los motores de cada articulación para eliminar falsos positivos y para calcular la pose de los objetos respecto al sistema de referencia del robot. Éste cálculo se realiza mediante técnicas de geometría proyectiva y hace uso de la información sobre el estado de la cámara, el cual está dado por una matriz homogénea calculada a partir de la información de los encoders. Dado que el estado de la cámara está sometido a condiciones de ruido e imperfecciones de fabricación del robot, se ha diseñado un sistema de calibración que mejora notablemente la exactitud del cálculo de la pose de los objetos detectados.
Las detecciones son acompañadas de una matriz de covarianza generada a partir de funciones determinadas mediante análisis de información estadística. De esta forma las detecciones pueden ser utilizadas como observaciones directas para estimadores de estados basados en filtros de Kalman extendido (por ejemplo, el proceso de auto-localización). Con esta información el comportamiento del filtro de Kalman es más cercano a la realidad y menos susceptible a oscilaciones dadas por detecciones con poses ruidosas (como por ejemplo, cuando el objeto se encuentra a grandes distancias).
Dado que los objetos líneas, esquinas y t-líneas son ambiguos, es decir, no se pueden identificar utilizando sólo información visual, se ha diseñado un sistema de identificación basado en la auto-localización del robot.
El sistema funciona con una tasa de detección alta (93.8\% para el caso de los arcos) y funciona a una velocidad de aproximadamente 10 cuadros por segundo, lo cual satisface lo esperado. El sistema funciona en un robot móvil humanoide que posee un procesador AMD Geode de 500MHz y con 256MB de memoria RAM.
|
2 |
Visión Computacional Robótica Basada en ContextoPalma Amestoy, Rodrigo January 2011 (has links)
No description available.
|
3 |
Visión Activa en un Robot Humanoide AntropomorfoSchulz Serrano, Rodrigo Andrés January 2010 (has links)
La estimación de la pose es un elemento de gran importancia para sistemas robóticos móviles que se desenvuelven en ambientes dinámicos. Existen diversas metodologías utilizadas para estimar esta pose, siendo esencial para el desempeño de todas ellas la calidad y abundancia de las observaciones obtenidas desde el ambiente.
El objetivo del presente trabajo es aumentar la cantidad y mejorar la calidad de las observaciones de un robot humanoide antropomorfo. Para esto se implementó un sistema de visión activa, el cual permite discernir qué objeto o grupo de objetos resulta más conveniente observar para reducir la incerteza en la estimación de la pose del robot, desarrollando con tal propósito la capacidad para observar simultáneamente más de un objeto.
Durante el período de trabajo se realizaron cuatro tareas principales para posibilitar el funcionamiento del sistema desarrollado. Estas consistieron en: (i) implementación de un detector de faros basado en el análisis de los puntos característicos de las regiones de color,(ii) habilitación en el simulador HL-Sim de la posibilidad de observar gráficamente las poses de los objetos presentes en el mapa local del robot, (iii) implementación de la funcionalidad de realizar seguimiento por posición, la que además contó con la capacidad de planificar trayectorias para la cabeza que consideren objetos extras durante el desplazamiento y de realizar seguimiento basado en la función de distribución de probabilidad de la ubicación del objeto, (iv) implementación de un algoritmo para discernir qué elementos observar, junto con la capacidad para observarlos.
Los resultados obtenidos muestran en el perceptor de faros una alta tasa detecciones correctas (92,76%) y a la vez una baja tasa de falsos positivos (1,1%), lo cual corresponde a un resultado satisfactorio. En la rutina de seguimiento, se observó coherencia entre el seguimiento por posición y el seguimiento visual (diferencia angular del orden de 1 a 3 grados), además de evidenciar el correcto funcionamiento de las capacidades implementadas. Por último, en la rutina de visión activa los resultados y el comportamiento observado, revelan un correcto funcionamiento bajo un espacio de acciones en el que se consideran posibles la observación de objetos individualmente o en forma grupal.
En conclusión, los resultados obtenidos revelan el buen funcionamiento de los métodos y algoritmos propuestos. Particularmente, el sistema implementado para la selección de los objetos a observar, a pesar de no mostrar una tendencia clara respecto a la reducción de la incerteza, permitió generar observaciones de diferentes objetos o grupos de estos, lo que resulta positivo para el sistema pues genera un mayor flujo de información que ingresa a éste.
|
4 |
Desarrollo de Sistemas de Visión en Fútbol RobóticoDodds Rojas, Ricardo January 2009 (has links)
Ingeniero Civil Electricista / Esta memoria tiene como objetivo diseñar e implementar algoritmos de visión computacional, en diferentes etapas del sistema de visión de un robot que juega fútbol robótico. Dado que por lo general un robot tiene una capacidad de procesamiento limitada, el principal objetivo de esta memoria es mejorar la eficiencia del sistema completo, sin afectar su rendimiento. Las mejoras propuestas consisten básicamente en tres etapas: adaptación del sistema de visión al uso de un lente gran angular, implementación de un perceptor visual del arco de fútbol basado en un clasificador construido a partir de una red neuronal y el diseño de un sistema de procesamiento de imágenes multi-resolución.
Para adaptar el sistema de visión al uso de un lente gran angular se utiliza un mapeo desde el espacio de la imagen con gran angular a un espacio que asume proyección plana en la imagen, basado en una transformación polinomial. Los parámetros de este mapeo corresponden a los coeficientes del polinomio de transformación y son determinados a partir de un algoritmo de optimización PSO (Particle Swarm Optimization), que utiliza como función objetivo una medida de distorsión de la imagen mapeada.
Para el perceptor del arco se utilizan en una primera etapa una serie de reglas binarias para descartar rápidamente percepciones erróneas. Posteriormente se extraen características de los candidatos que se utilizan como entrada a un clasificador basado en una red neuronal del tipo MLP (Multi Layer Perceptron). Así los candidatos reciben un puntaje de acuerdo a sus características y se escoge el mejor.
En el sistema de procesamiento multi-resolución se toma en cuenta el hecho que los objetos más lejanos, y que por lo tanto se ven más pequeños en la imagen, se encuentran cerca del horizonte. A partir de esta premisa se realiza un procesamiento más fino de la imagen en sectores cercanos al horizonte.
Dada la naturaleza del trabajo se utilizan distintas herramientas para medir el desempeño de cada parte. Para el caso del mapeo de la imagen se utiliza el error máximo de alineamiento en la imagen resultante de puntos co-lineales en el mundo real, medido a través de la norma de los residuos arrojados por un ajuste de mínimos cuadrados, obteniéndose un error de ajuste máximo de 1,02. Mientras que para medir el rendimiento del perceptor basado en un clasificador se miden: tasa de detecciones correctas y tasa de falsos positivos, encontrándose un 96,5 y 1,5 [%] respectivamente. Finalmente el resultado del algoritmo multi-resolución se evalúa a través del cálculo del máximo número de pixeles recorridos al procesar una imagen, con lo cual se determina que se analizan en el peor de los casos, menos de un tercio de los pixeles que usando el sistema anterior.
Los resultados obtenidos muestran que los métodos propuestos tienen un buen desempeño. En cada etapa se aprecia la ventaja de su uso, por lo que se considera el trabajo realizado como una mejora integral al sistema de visión del equipo de fútbol robótico. No obstante, no deja de ser interesante buscar mejores aproximaciones a cada problema y al sistema completo.
|
Page generated in 0.0577 seconds