• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 1
  • Tagged with
  • 5
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Diseño e implementación de un robot móvil con Control de trayectoria mediante principios odométricos

Arellano Zea, Luis Alberto January 2015 (has links)
El presente trabajo de tesis consiste en el diseño e implementación de un robot móvil de tres grados de libertad, capaz de controlar su posición y trayectoria en un plano cartesiano, además de posicionarse en lugares definidos por el usuario. El objetivo del proyecto es controlar el movimiento del robot, manipulando su traslación y rotación de manera precisa y eficiente. El móvil utiliza dos motores acoplados a llantas para su locomoción, estos motores están colocados en una configuración diferencial, haciendo que el desplazamiento y la rotación sobre su eje sea mucho más eficiente. El robot cuenta con un sistema de medición basado en dos encoders incrementales situados a los lados de los motores. Las señales generadas por estos sensores son procesadas por el móvil, el cual hará el análisis cinemático en línea empleando principios de odometría y ecuaciones en diferencia para estimar la posición y orientación relativa del robot. El resultado de esta operación es utilizado en el algoritmo de control, que consiste en dos controladores PID (proporcional, integral y derivativo) discretos [1]. El primero controla la orientación del robot, asegurando que se posicione en el ángulo correcto antes de iniciar su movimiento y durante el recorrido lineal para que el móvil no se desvíe de su trayectoria. El segundo controlador PID regula la posición lineal del robot en función de las coordenadas iniciales y finales de la trayectoria trazada. Este recorrido es planificado en línea en función a las coordenadas de puntos predefinidos en la lógica de generación de trayectorias. El robot es monitoreado en tiempo real por una computadora que a través de una interfaz gráfica desarrollada en Java permite observar los parámetros de control en cuadros de texto y gráficas dinámicas. Además, permite el envío de comandos pre configurados y secuencias de trayectorias lineales. Para establecer la conexión entre el robot y la PC se utilizó comunicación serial asíncrona bajo el estándar RS-232 y utilizando el protocolo UART. La unidad de procesamiento para la implementación de lógica y algoritmos de control fue un dsPIC30F4011 [2] (controlador digital de señales), ya que posee una alta velocidad para el procesamiento de señales y operaciones matemáticas de punto flotante. Además, cuenta con módulos especializados para el control de motores y comunicación serial, haciendo que la programación sea mucho más eficiente. Al finalizar la implementación del robot, este mostró muy buenos resultados durante las pruebas cumpliendo con los algoritmos de control de rotación y traslación, así como el monitoreo y control desde la PC. Uno de los principales aportes de este trabajo es que se demostró poder tener un control eficiente y preciso de un robot móvil empleando únicamente 2 encoders como sistema de medición. / --- The present thesis consists in the design and implementation of a mobile robot of three degrees of freedom, able to control their position and trajectory in a Cartesian plane, besides being positioned in user-defined locations. The objective of the project is controlling the movement of the robot, manipulating its translation and rotation accurately and efficiently. The robot uses two motors coupled wheels for locomotion, these engines are placed in a differential configuration, causing the displacement and rotation on its axis much more efficient. The robot has a measurement system based on two incremental encoders situated on the sides of the engines. The signals generated by these sensors are processed by the robot, which will do a kinematic analysis in line using odometry principles and difference equations to estimate the relative position and orientation of the robot. The result of this operation is used in the control algorithm, which consists of two discrete PID controllers (proportional, integral and derivative). The first controls the orientation of the robot, ensuring that it is positioned at the correct angle before starting its motion and during the linear path in order to the robot does not deviate from its trajectory. The second linear PID controller regulates the position of the robot according to the initial and final coordinates of the traced path. This trajectory is planned in line according to the coordinates of the predefined points in the logic of paths generation. The robot is monitored in real time by a computer through a graphical interface developed in Java, which allows observing the control parameters in dynamic text boxes and graphics. Additionally, allows sending pre-configured commands and sequences of linear trajectories. To establish the connection between the robot and the PC, it has used serial asynchronous communication under the RS- 232 standard and using the UART protocol. The processing unit for the implementation of logic and control algorithms was a dsPIC30F4011 (digital signal controller), as it has a highspeed signal processing and floating point math operations. It also has specialist modules for motor control and serial communication, making programming much more efficient. After the implementation of the robot, this showed very good results during testing, compliance with the rotation and translation control algorithms, as well as monitoring and controlling from the PC. One of the main contributions of this work is that it showed that you could have an efficient and accurate control of a mobile robot with three degrees of freedom using only two encoders as a measurement system. / Tesis
2

Implementación de odometría visual utilizando una cámara estereoscópica

Peñaloza González, Andrés January 2015 (has links)
Ingeniero Civil Eléctrico / En ciertas aplicaciones de robótica es importante la utilización de un odómetro para poder estimar la posición de un robot en movimiento. Esto permite que el actor tenga una noción de la ubicación en el entorno por donde se mueve. En aplicaciones como vehículos autónomos es especialmente importante, pues es crítico conocer la posición del vehículo con respecto a su mapa interno para evitar colisiones. Usualmente los odómetros más utilizados son las ruedas y el GPS. Sin embargo estos no siempre están disponibles, debido a adversidades del ambiente. Es por estos motivos que se emplea odometría visual. La odometría visual es el proceso de estimación del movimiento de un vehículo o agente utilizando las imágenes que éste obtiene de sus cámaras. Ella ha sido utilizada en la industria minera con los camiones de carga, y, últimamente en drones aéreos que podrían ser ocupados para el transporte de paquetes. También se ha utilizado para estimar la posición de los robots que actualmente transitan en la superficie de Marte. El presente trabajo tiene por finalidad la implementación de un algoritmo de odometría visual usando una cámara estereoscópica para estimar la trayectoria de un robot, y la evaluación del desempeño de éste comparándola con los valores conocidos de posición. La metodología utilizada permite identificar qué parámetros del algoritmo de estimación de movimiento tienen mayor relevancia y cómo influyen en la rapidez y calidad de la solución. También se determina la influencia de las condiciones de iluminación, y se determina qué zona geométrica de la imagen es mejor para realizar la triangulación de puntos. La solución se compone de un sistema capaz de ejecutar las distintas partes que requiere el algoritmo de manera extensible, siendo fácil reemplazar un método en el futuro con un mínimo impacto en el código. Se obtienen resultados favorables, donde el error de estimación de movimiento es pequeño y, además, se concluye acerca de los factores más importantes en la ejecución del algoritmo. Se discute acerca de la rapidez del algoritmo y se proponen soluciones que ayuden a su implementación en tiempo real.
3

Localización visual en robots de recursos computacionales limitados

Mattamala Aravena, Matías Eduardo January 2018 (has links)
Magíster en Ciencias de la Ingeniería, Mención Eléctrica. Ingeniero Civil Eléctrico / Este trabajo presenta un sistema de Localización y Mapeo Simultáneo (SLAM) de robots humanoides basado en la fusión del sistema ORB-SLAM con información propioceptiva. El objetivo es desarrollar una metodología que permita fusionar ambas informaciones de manera consistente y obtener una auto-localización métrica validada con datos de un robot real. De modo de lograr este objetivo, se propuso una solución que contempla tres objetivos específicos: (1) desarrollar una plataforma de hardware y software que extienda las capacidades computacionales limitadas del robot NAO; (2) proponer una metodología teórica y práctica que permita fusionar la información de odometría propioceptiva del robot dentro de los procesos ejecutados por el sistema ORB-SLAM y (3) desarrollar un sistema de estimación de odometría netamente propioceptivo para el robot NAO. Para la primer aparte se desarrolló una plataforma novedosa, llamada NAO Backpack, que se sujeta al NAO como una mochila y permite cargar un computador de tamaño reducido con mayor poder de cómputo que el NAO. El desarrollo además involucró el software que realiza la comunicación entre ambos con el popular framework de robótica ROS (Robot Operating System). Para la segunda aparte se desarrolló una completa metodología que interviene varias etapas del sistema ORB-SLAM, incluyendo un thread adicional que fusiona la información propioceptiva del robot y genera mediciones de odometría que son propagadas al resto del sistema. Adicionalmente se presentó una solución para obtener la escala típicamente desconocida en sistemas de SLAM visual, se modificaron diversas etapas de las optimizaciones realizadas por el sistema original y se presentaron estrategias para mantener una hipótesis de auto-localización continua incluso en casos de fallas de la localización visual. La última parte contempló el desarrollo de un sistema de odometría basado en un two-state implicit filtering (TSIF), que fusionaba sensores internos como unidades inerciales y encoders, además de considerar otros supuestos sobre la cinemática del robot. El sistema fue validado con datos reales registrados utilizando un preciso sistema de captura de movimiento OptiTrack en ambientes cerrados, así como también en pruebas cualitativas desarrolladas en laboratorios del Departamento de Ingeniería Eléctrica. Los resultados demuestran la efectividad del enfoque presentado para localizar el robot de manera consistente y robusta en lugares desconocidos mediante la fusión de información visual y odométrica.
4

Random finite sets in visual Slam

Falchetti Pareja, Angelo January 2017 (has links)
Magíster en Ciencias de la Ingeniería, Mención Eléctrica. Ingeniero Civil Eléctrico / Este trabajo trata sobre el diseño e implementación de un sistema de Localización y Mapeo Simultáneo (SLAM) visual usando la teoría de Conjuntos Finitos Aleatorios (RFS), en el que un navegador (e.g. robot, auto, teléfono celular, etc.) utiliza una cámara de vídeo RGB-D para reconstruir la escena a su alrededor y al mismo tiempo descubrir su propia posición. Esta capacidad es relevante para las tecnologías del futuro, que deberán desplazarse sin ayuda externa. Se considera la inclusión de modelos realistas de medición y movimiento, incluyendo la intermitencia de las detecciones de objetos, la presencia de falsos positivos en las mediciones y el ruido en la imagen. Para ello se analizan sistemas basados en la teoría RFS, que es capaz de incluir estos efectos de manera fundamentada, a diferencia de otras alternativas del estado del arte que se basan en heurísticas poco realistas como el conocimiento absoluto de las asociaciones de datos entre mediciones y puntos en el mapa. Se incluye una amplia revisión de la literatura, desde Structure from Motion a Odometría Visual, a los distintos algoritmos para SLAM. Luego, se procede a explicar los detalles de implementación de un sistema flexible para el análisis de algoritmos de SLAM, así como la implementación particular del algoritmo Rao-Blackwellized (RB)-Probability Hypothesis Density (PHD)-SLAM. Se presentan análisis del desempeño de este algoritmo al cambiar las distintas estadísticas que pueden variar en su uso práctico. Se hace una comparación detallada con la alternativa Incremental Smoothing and Mapping (iSAM2), usualmente usada en otros sistemas del estado del arte. Luego, basado en la teoría de Modelos Gráficos Probabilísticos (PGM) que está detrás de iSAM2, se propone un nuevo algoritmo, Loopy PHD-SLAM, capaz de propagar información a lo largo del grafo inducido de manera eficiente, incluyendo las estadísticas de RFS. Con una implementación sencilla como prueba de concepto, se observa la capacidad de este nuevo método de cerrar ciclos y converger a soluciones correctas. / Este trabajo ha sido auspiciado por Conicyt
5

Localización de robots móviles de recursos limitados basada en fusión sensorial por eventos

Marin Paniagua, Leonardo Jose 18 July 2014 (has links)
Uno de los aspectos esenciales en la robótica móvil es la obtención y procesamiento de la información relativa a la localización del robot en el espacio de movimiento, con el fin utilizarla para generar los movimientos deseados del robot. Para esto se busca utilizar la mayor cantidad posible de fuentes de información con el fin de corregir los errores de posición asociados a la presencia de ruido en las mediciones del robot. La fusión de esta información es tema central de la tesis en la cual se exponen distintos algoritmos de fusión, desarrollados específicamente para robots móviles con recursos de computación limitados. Utilizando modelos dinámicos en conjunto con técnicas de fusión basadas en filtro de Kalman se realiza una estimación local de la posición utilizando sensores inerciales. Esta estimación se fusiona mediante un filtro de Kalman con información de un sensor global y una corrección basada en eventos. Esta combinación de filtros en cascada con corrección basada en eventos es el principal aporte de la presente tesis. Esta solución al problema de localización permite una precisión similar pero un coste computacional menor a esquemas más complejos de fusión, lo que permite su implementación en robots de recursos limitados. El esquema propuesto se extiende para permitir la localización cooperativa de grupos de robots, modificando la actualización por eventos para incorporar la fusión de la posición de distintos robots cercanos entre si. Para esto se determina la posición entre los robots y se utiliza un sistema de comunicación y gestión basada en agentes. Este método permite realizar una fusión sensorial inteligente, tomando en cuenta únicamente la información de posición más fiable para actualizar al grupo de robots, lo que nuevamente reduce el costo computacional de la solución sin repercusiones considerables en la precisión de la localización. Los algoritmos propuestos son probados extensivamente mediante simulación y en distintas plataformas, principalmente en el LEGO NXT. Se presentan además ejecuciones de tiempo extendido que comprueban la estabilidad y robustez del método en largas distancias. / Marin Paniagua, LJ. (2014). Localización de robots móviles de recursos limitados basada en fusión sensorial por eventos [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/38902

Page generated in 0.0342 seconds