• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 142
  • 37
  • 3
  • 3
  • 1
  • Tagged with
  • 186
  • 72
  • 47
  • 39
  • 34
  • 33
  • 30
  • 30
  • 30
  • 30
  • 30
  • 29
  • 28
  • 27
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Navegación de vehículos autónomos subacuáticos basados en control por visión

Berger, Carlos Enrique 14 May 2014 (has links)
La presente tesis tiene como principal objetivo el estudio de factibilidad del uso de cámaras de video como elemento sensor para el soporte de sistemas de control abocados al seguimiento de trayectorias con vehículos del tipo denominado AUV (Autonomous Underwater Vehicle). Este sensor basado en visión permite determinar el posicionamiento relativo del vehículo con respecto a un determinado objeto en el fondo, generando una estimación de estados que puede ser empleada en diversos tipos de controladores. Como particularidad adicional se describe el seguimiento de líneas con patrones regularmente distribuidos a lo largo de ésta, lo que permite estimar también la velocidad lineal y angular del vehículo. La hipótesis que sustenta el objetivo es que la línea presenta un contraste adecuado respecto al fondo y que exista un grado de transparencia del agua suficientemente alto para la detección de patrones de la misma. Como parte de la verificación experimental de la presente Tesis se construye un vehículo prototípico con los grados de libertad necesarios para ilustrar los resultados obtenidos. Con este planteo, el objetivo de control primordial es reducir los errores de desplazamiento lateral y rumbo respecto a la línea, y simultaneamente forzar la navegación a una determinada velocidad crucero. A partir de técnicas digitales de procesamiento de imágenes, se desarrollan algoritmos para extracción de características del segmento de línea encuadrado en el video en cada instante. Inicialmente, el desplazamiento respecto al centro de la imagen y el ángulo respecto a la vertical sirven como medidas geométricas para la descripción de errores de seguimiento de línea. A su vez, las diferencias de posiciones de determinados puntos visibles (patrones) en dos fotogramas consecutivos define el campo de velocidades de la línea en la imagen. Por otro lado, mediante un modelo matemático de la cámara y el entorno, se elabora un sistema de ecuaciones que permite relacionar las métricas en el plano 2D de la imagen con el espacio 3D en el que se desplaza el vehículo. La transformación de coordenadas obtenida representa una estimación de variables de estados respecto a sistemas de referencia fijos a la línea o al vehículo en una métrica Euclideana. Los parámetros constantes del modelo son estimados en una única calibración de la cámara. Con el fin de incrementar la robustez del sensor ante perturbaciones del video debido a la mala calidad de la imagen o turbidez del agua, se realiza un estudio de propiedades estadísticas del histograma de una región particular de la imagen para determinar la presencia o ausencia de la línea en dicha región, a la vez que se obtiene una indicación cualitativa de la calidad de imagen. La selección de la región para el análisis se efectúa dinámicamente y es actualizada en cada imagen. De los resultados del análisis se desprende una señal que alerta al controlador en caso de ausencia de la línea o mala calidad de imagen. Seguidamente se proponen y diseñan sistemas de control basados en visión pura a través de los datos del sensor. Los diseños conllevan la distorsión del entorno visible acorde a la métrica de la cámara. La estructura general de un sistema de control propuesto consiste en una cascada de controladores cinemáticos y dinámicos. A los fines de disponer de criterios de comparación para los análisis de estabilidad y performance de control, se diseñan controladores más familiares como los del tipo PID y de dinámica inversa. No obstante, su utilización en un sistema de control, donde el sensor principal es una cámara, requiere de adaptaciones que aseguren acciones de control que mantengan al vehículo en posiciones dentro del campo de visión. De esta manera, se describe el diseño de controladores híbridos capaces de operar con el sensor de visión empleando para ello transformaciones de estados 2D del plano de la imagen a estados 3D de métrica Euclideana según el modelo de cámara. Adicionalmente, se presenta un controlador cinemático basado en imagen en el cual sólo es necesaria la estimación de estados en el plano de la imagen para generar las referencias de velocidad. Las salidas de éste pueden ser utilizadas en diversos tipos de controladores dinámicos para efectuar el seguimiento de velocidades. El desempeño de los sistemas de visión y control es analizado mediante numerosas simulaciones y pruebas experimentales de laboratorio y en pileta bajo diversas condiciones del medio. En la práctica puede observarse que la hipótesis de la existencia de cierto nivel de contraste mínimo entre el suelo y la línea se manifiesta aproximadamente a pesar de las altas perturbaciones de turbidez del agua y ondas cáusticas debido al oleaje y los rayos luminosos pasantes hacia el fondo. Las conclusiones de la tesis indican que el sensor basado en visión es apto para tareas de seguimiento en donde la distancia del vehículo al fondo es relativamente baja (menos de 10 metros según la visibilidad), y su inclusión en un sistema de control es posible mediante controladores de características de razonamiento lógico o difuso. Se hace hincapié que en los diseños de controlador abordados con imágenes en tiempo real, no es necesario un modelo de la dinámica del sistema, sólo se necesita una calibración de la cámara y el relevamiento de curvas características de la relación entre métrica de visión y Euclideana. En particular, se demuestra que con ciertas adaptaciones, en su combinación con controladores del tipo PID se llega a sistemas de control de mejor prestación para alcanzar mejor los objetivos propuestos. / The main objective of this Thesis is the feasibility study of video cameras as sensor element in control systems for path-tracking with AUVs (Autonomous Underwater Vehicle). This vision-based sensor allows to determine the relative positioning of the vehicle with respect to an object on the sea bottom. It generates a states estimation which could be employed by different types of controllers. As additional particularity one describes the path-following of lines with regularly distributed patterns, which also allows to estimate the linear and angular velocities of the vehicle. The hypothesis behind the goal is that the line presents a suitable contrast with the background and enough water transparency exists in order to detect its patterns. The experimental verification in this Thesis included the building of a prototype of underwater vehicle with the necessary degrees of freedom to illustrate the obtained results. Under the described suppositions, the main control goal is to reduce the lateral and orientation path errors with respect to the line, simultaneously forcing the navigation at a certain cruise speed. Digital image processing techniques were used for feature extraction of the visible line stretch in each frame. Initially, the displacement of the stretch with respect to the frame center and its angle with respect to the vertical axis serve as geometric measures for the path errors description. At the same time, the position differences between identified line patterns of two consecutive frames provide a velocity field of the image. On the other side, by the help of a mathematical camera model and an environment model, an equation system is constructed in order to connect the metrics in the 2D image plane with the 3D space in where the vehicle navigates. The obtained coordinate transformation represents a state variable estimation with respect to a coordinate system which is fixed to the line or to the vehicle in an Euclideanmetrics. The constant parameters of the model are estimated by a single camera calibration. With the purpose to increase the sensor robustness against video perturbations like bad image quality or water turbidity, a study of statistic properties of the histogram of a particular image region is accomplished. This study determines the presence or absence of the line in this region and, in addition, an indication of the image quality is obtained. The region selection for the analysis is performed dynamically and updated in every frame. As result, an alarm is generated to alert the controller in case of line absence or bad quality of the image. Subsequently, vision-based control systems that uses the data of camera sensor are proposed and designed. The designs involve the distortion of the visible environment according to the camera metrics. The proposed general control structure consists in a cascade of dynamic and kinematic controllers. In order to provide comparison criteria for the stability and performance analysis of the control, more familiar controllers like the PIDs and inverse dynamics controllers are designed. A second control objective is to achieve control actions that can ensure to maintain the vehicle continuously in positions inside the vision zone. For that reason, particular designs that combine both types of controllers are presented. These are able to operate with the vision sensor, employing state transformation from 2D image plane to states in the 3D Euclidian space. Additionally a vision-based kinematic controller is presented, in which it is only necessary to measure features in the image plane in order to generate rate references. These references can be applied in different types of dynamic controllers for performing rate following. The performance of the vision-based sensor and control systems is analyzed through numerous simulations and experimental tests in laboratory and pools, under variations of environmental conditions. In the praxis it can be observed that the work hypothesis related to the existence of a minimum level of contrast between line and sea background is properly fulfilled despite of perturbations of water turbidity and caustic waves due to the surface swell and the light rays overstepping towards the bottom. The conclusions in this Thesis indicate that the developed vision-based sensor is suitable for application in cases where the distance from the vehicle to the sea bottom is short (till 10 meters, depending on turbidity). Its inclusion in the control system is possible for controllers that possess certain fuzzy characteristics or logical reasoning. It emphasizes that in the addressed controller designs with real-time images a model of the system dynamics is not necessary, just a camera calibration and survey of characteristic curves of the relationship between vision and Euclidean metric is needed. In particular, it is demonstrated that with certain adaptations, the combination of the developed sensor with a PID-type controller arrives to a better system performance in order to achieve appropriately path-tracking of lines upon a vision basis.
62

Modelo de representación y procesamiento de movimiento para diseño de arquitecturas de tiempo real especializadas

Flórez-Revuelta, Francisco 18 December 2001 (has links)
Programa de Doctorado “Sistemas industriales, computación y reconocimiento de formas”. / Proyecto de investigación “Sistema de visión para navegación autónoma” (CICYT TAP98-0333-C03-03).
63

Diseño de un sistema de visión artificial para la clasificación de chirimoyas basado en medidas

Valdivia Arias, César Javier 15 February 2017 (has links)
El desarrollo de este trabajo, presenta el diseño de un sistema de visión artificial, capaz de medir Annona Cherimola Mill (Chirimoya) del ecotipo Aurora, las cuales provienen de la comunidad de Callahuanca, para posteriormente clasificar aquellas que cumplan con una dimensión de 10 x 12 cm empleando para la etapa de procesamiento: Ajuste de contraste y para la etapa de segmentación, Cierre, Apertura y Código Cadena; los métodos seleccionados cumplen con los tiempos de computo de diseño. Fue posible clasificar exitosamente 91 de 91 Chirimoyas de Categorías Extra y Primera estudiadas con un 100% de efectividad, una precisión de medida de 0,35mm y un error permisible de 2,18mm. Las pruebas se efectuaron en un prototipo diseñado para tal motivo y no en el equipo final; el error obtenido durante las pruebas es menor al establecido en los requerimientos en cuanto a la selección del fruto. En la memoria descriptiva, se presentan los cálculos referentes a la selección del dispositivo de captura, lentes y requerimientos de la iluminación empleando la metodología de diseño VDI-2221. El control del banco de pruebas, empleado para validar los algoritmos realizados, se realizó con un PLC y para realizar el procesamiento de imágenes, se optó por un computador de escritorio con procesador Intel R Core i5 CPU 2.53GHz junto con una cámara con comunicación USB 3.0. El diseño mecánico-eléctrico no es motivo de estudio en la presente investigación. / Tesis
64

Sistema de visión artificial para el reconocimiento y manipulación de objetos utilizando un brazo robot

Sobrado Malpartida, Eddie Ángel 09 May 2011 (has links)
En este proyecto, un brazo robot permitirá seleccionar objetos (tornillos, tuercas, llaveros, etc) que se encuentran en una mesa, independiente de la posición y orientación. El problema se aborda mediante un esquema de Visión Artificial consistente en 6 etapas: obtención de la imagen, preprocesamiento, segmentación, extracción de características, clasificación y manipulación con el brazo robot. / Tesis
65

An approach to coded structured light to obtain three dimensional information

Salvi, Joaquim 16 February 1998 (has links)
The human visual ability to perceive depth looks like a puzzle. We perceive three-dimensional spatial information quickly and efficiently by using the binocular stereopsis of our eyes and, what is mote important the learning of the most common objects which we achieved through living. Nowadays, modelling the behaviour of our brain is a fiction, that is why the huge problem of 3D perception and further, interpretation is split into a sequence of easier problems. A lot of research is involved in robot vision in order to obtain 3D information of the surrounded scene. Most of this research is based on modelling the stereopsis of humans by using two cameras as if they were two eyes. This method is known as stereo vision and has been widely studied in the past and is being studied at present, and a lot of work will be surely done in the future. This fact allows us to affirm that this topic is one of the most interesting ones in computer vision.The stereo vision principle is based on obtaining the three dimensional position of an object point from the position of its projective points in both camera image planes. However, before inferring 3D information, the mathematical models of both cameras have to be known. This step is known as camera calibration and is broadly describes in the thesis. Perhaps the most important problem in stereo vision is the determination of the pair of homologue points in the two images, known as the correspondence problem, and it is also one of the most difficult problems to be solved which is currently investigated by a lot of researchers. The epipolar geometry allows us to reduce the correspondence problem. An approach to the epipolar geometry is describes in the thesis. Nevertheless, it does not solve it at all as a lot of considerations have to be taken into account. As an example we have to consider points without correspondence due to a surface occlusion or simply due to a projection out of the camera scope.The interest of the thesis is focused on structured light which has been considered as one of the most frequently used techniques in order to reduce the problems related lo stereo vision. Structured light is based on the relationship between a projected light pattern its projection and an image sensor. The deformations between the pattern projected into the scene and the one captured by the camera, permits to obtain three dimensional information of the illuminated scene. This technique has been widely used in such applications as: 3D object reconstruction, robot navigation, quality control, and so on. Although the projection of regular patterns solve the problem of points without match, it does not solve the problem of multiple matching, which leads us to use hard computing algorithms in order to search the correct matches.In recent years, another structured light technique has increased in importance. This technique is based on the codification of the light projected on the scene in order to be used as a tool to obtain an unique match. Each token of light is imaged by the camera, we have to read the label (decode the pattern) in order to solve the correspondence problem. The advantages and disadvantages of stereo vision against structured light and a survey on coded structured light are related and discussed. The work carried out in the frame of this thesis has permitted to present a new coded structured light pattern which solves the correspondence problem uniquely and robust. Unique, as each token of light is coded by a different word which removes the problem of multiple matching. Robust, since the pattern has been coded using the position of each token of light with respect to both co-ordinate axis. Algorithms and experimental results are included in the thesis. The reader can see examples 3D measurement of static objects, and the more complicated measurement of moving objects. The technique can be used in both cases as the pattern is coded by a single projection shot. Then it can be used in several applications of robot vision.Our interest is focused on the mathematical study of the camera and pattern projector models. We are also interested in how these models can be obtained by calibration, and how they can be used to obtained three dimensional information from two correspondence points. Furthermore, we have studied structured light and coded structured light, and we have presented a new coded structured light pattern. However, in this thesis we started from the assumption that the correspondence points could be well-segmented from the captured image. Computer vision constitutes a huge problem and a lot of work is being done at all levels of human vision modelling, starting from a)image acquisition; b) further image enhancement, filtering and processing, c) image segmentation which involves thresholding, thinning, contour detection, texture and colour analysis, and so on. The interest of this thesis starts in the next step, usually known as depth perception or 3D measurement.
66

Sistema de visión artificial basado en la detección de los movimientos del ojo, para mejorar la atención de los pacientes con síndrome de Guillain Barré

Polo Castro, Julio Cesar January 2015 (has links)
El síndrome de Guillain Barré es una polirradiculoneuropatía de evolución aguda o sub aguda que ataca progresivamente el sistema nervioso central impidiendo el movimiento de una persona progresivamente, empieza en los brazos y piernas y se extiende hasta el cuello, en el 50% de los casos se requiere de un ventilador mecánico, por lo que se considera una enfermedad critica, el problema de la enfermedad es que dificulta la comunicación entre los pacientes y su entorno, esto hace que durante el ciclo de la enfermedad, 1 año aproximadamente, este paciente presente complicaciones por la falta de comunicación. El presente proyecto de tesis está enfocado a desarrollar un Sistema de Visión artificial, basado en la detección de los movimientos del ojo que permitió solucionar el problema de la falta de comunicación de los pacientes con síndrome de Guillain Barre del Hospital Nacional Almanzor Aguinaga Asenjo. El SVA presenta una interfaz con algunos mensajes predefinidos, así como un teclado para escribir un mensaje propio, dirigiendo la mirada hacia el lugar que quieren realizar el “click”, referenciándose por un puntero que le permitirá asegurar el lugar exacto donde quiere clickear, para esto se usara la técnica de “tracking eye” o técnica de seguimiento de los ojos, mediante el uso de una cámara para captar los movimientos del ojo y poder usarlo en el sistema de visión artificial, que se desarrollara en base a la metodología propuesta por Kong y Nilson (2005), que consta de 3 etapas, la representación de la imagen, el procesamiento de la imagen y el análisis de la misma. La población de esta tesis es no probabilística por lo que se realiza en los 5 pacientes con SGB que se encontraban hospitalizados durante la realización de esta tesis.
67

Desarrollo de una aplicación de realidad aumentada en la plataforma de desarrollo ODROID

De los Ríos Tello, José Miguel, Serpa Pinillos, Manuel Alfonso 11 August 2015 (has links)
La realidad aumentada es una tecnología que permite la creación de uno o varios espacios físicos en los que interactúan objetos generados por computadora, con elementos que existen en nuestra realidad, cuyas características son la interactividad en tiempo real. Durante el desarrollo de este trabajo se presentarán de forma teórica las definiciones y características de esta tecnología, además de cómo se interrelaciona con la disciplina de visión por computador para el diseño de los métodos de seguimiento. Adicionalmente, se hará una breve descripción de las herramientas de software empleadas, como las librerías de código abierto OpenGL y OpenCV, siendo la primera aquella que permitirá superponer información a manera de imágenes cuando un marcador sea detectado; y la segunda es una librería que se empleará para la inicialización de la cámara en el entorno C++, así como la administración y gestión de la pila de memoria. En una primera instancia se presentaran 3 propuestas de modelos de detección de marcadores, las propuestas planteadas hacen uso de los métodos de binarización adaptiva, detección de contornos, detección de gradientes, bordes y finalmente detección de esquinas. El modelo que más se ajustó a los objetivos fue el de binarización adaptiva con detección de contornos. A partir de ese punto el nuevo objetivo de trabajo será trasladar el modelo, desarrollado en un computador, a una plataforma de desarrollo móvil. La plataforma que más se ajusta a las necesidades del proyecto es la plataforma ODROID, debido a que sobre todo es capaz de ejecutar el sistema operativo Android y muchas variantes de Linux. Finalmente, la localización del algoritmo de detección en la plataforma ODROID hará uso de la librería OpenCV para Android, así como de la Interfaz Nativa de Java (JNI) y la librería OPENGL ES para dispositivos móviles. El objetivo final es detectar correctamente un marcador, y además renderizar una figura sobre el marcador detectado. Esta imagen debe seguir el movimiento del marcador a través de la pantalla.
68

Extensión de técnicas de planificación espacio-temporal a sistemas de visión por computador

Candelas-Herías, Francisco A. 16 November 2001 (has links)
No description available.
69

Incorporación de características en la función de energía para segmentación de imágenes usando campos aleatorios de Markov

Pujol, Mar 19 May 2000 (has links)
No description available.
70

Modelado de sistemas para visión de objetos especulares: inspección visual automática en producción industrial

Azorin-Lopez, Jorge 27 September 2007 (has links)
D.L. A 129-2008

Page generated in 0.028 seconds