• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 140
  • 36
  • 3
  • 3
  • 1
  • Tagged with
  • 183
  • 70
  • 45
  • 39
  • 33
  • 32
  • 28
  • 26
  • 23
  • 23
  • 23
  • 23
  • 22
  • 22
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Modelo heurístico para la determinación de la motilidad en células espermáticas mediante el análisis automático de tracking en video

Gárate Polar, Diego Alonso 05 June 2015 (has links)
Hoy en día, con el avance progresivo de la tecnología y la introducción de nuevas tecnicas computacionales ha cambiado la forma de trabajar de los medicos. Este es el caso de los andrólogos quienes tienen a su cargo la importante tarea de ayudar a las parejas a tartar problemas en sus sistemas reproductores con la finalidad de permitirles concebir un hijo, para lo que se require en la mayoria de casos un análisis de fertilidad. Actualmente la forma más usada para realizar este análisis es el método de inspección directa el cual es un procedimiento inexacto, subjetivo, no repetible y difícil de enseñar. El análisis de la motilidad espermática es una parte importante en el análisis de fertilidad y al mismo tiempo es un buen ejemplo del problema de seguimiento a múltiples objetos y video vigilancia desde el punto de vista computacional. El presente proyecto de fin de carrera presenta una solución ante la necesidad de realizar un seguimiento a cada una de las células espermáticas, llamado tracking, la solución planteada pone en práctica técnicas de visión computacional y además propone un modelo heurístico basado en dirección de movimiento y distancia euclidiana para realizar el seguimiento de espermatozoides en videos obtenidos a partir del simulador de células espermáticas también desarrollado en el presente proyecto. El proyecto inicia con el desarrollo de un simulador de células espermáticas, para luego realizar la obtención de muestras de dicho simulador, seguidamente se desarrolló y aplicó un algoritmo para la detección de células espermáticas que fueron usadas como datos de entrada para el algoritmo de Optical Flow así como para la heurística propuesta en el presente trabajo, por último se realizó un estudio estadístico donde se concluye que la heurística propuesta por este proyecto es más eficaz que el algoritmo de Optical Flow. / Tesis
42

Diseño y desarrollo de un algoritmo que permita estimar el tamaño de peces, aplicando visión por computadora, y propuesta para realizar la selección adecuada de dichos peces

Orellana Lizano, Henry 09 May 2011 (has links)
Se plantea el desarrollo de un algoritmo que permita estimar el tamaño de los peces sin la necesidad de que haya contacto físico entre el hombre y los animales aplicando, para ello, técnicas de visión por computadora. Para realizar el planteamiento se realizó estudios de las diferentes técnicas empleadas en visión por computadora y la necesidad de contar con imágenes tomadas por cámaras seleccionadas para el posterior procesamiento con los métodos estudiados. / Tesis
43

Morfogénesis y plasticidad sináptica retiniana de larvas de lubina (Dicentrarchus labrax) adaptadas a la luz y a la oscuridad

Queiroz, Guilherme Rosemberg Guimarães 26 July 2007 (has links)
No description available.
44

Mapeado y localización topológicos mediante información visual

Romero Cortijo, Anna Maria 27 May 2013 (has links)
En los últimos años, la solución al problema del SLAM (Simultaneous Localization and Mapping, Localización y Mapeado Simultáneo) ha sido ampliamente tratado ya que es una de las tareas más importantes dentro del campo de la robótica móvil. El SLAM consiste en crear el mapa del entorno desconocido por el cual el robot se está moviendo y, al mismo tiempo, localizar a dicho robot dentro del mapa. La gran mayoría de las soluciones aportadas por la literatura actual permiten el uso de cualquier sensor que capture información del entorno. A pesar de no ofrecer la misma precisión que un láser 3D, las cámaras están siendo cada vez más utilizadas para la resolución de problemas de SLAM y navegación además, se está produciendo un auge en el uso de cámaras omnidireccionales (cámaras que capturan imágenes de 360#) ya que la información capturada (conocida como características visuales) es mucho mayor que la que ofrece una cámara normal. Aunque se puede utilizar visión para resolver el SLAM de tipo métrico (construye mapas donde se conoce la posición exacta de los obstáculos y del robot), las soluciones que utilizan visión para resolver el SLAM topológico son más comunes. El SLAM topológico se basa en la construcción del mapa de forma similar a la forma en que los humanos nos orientamos en nuestro entorno. En el SLAM topológico se construyen mapas topológicos que representan el entorno como una serie de puntos (zonas, regiones, localizaciones) donde es posible encontrar al robot y almacenan las relaciones de vecindad entre los distintos puntos del mapa, es decir, permite conocer cómo llegar de un punto a otro del entorno. En esta tesis proponemos el uso de imágenes omnidireccionales para resolver el problema del mapeado y la localización topológica a partir de dos aproximaciones distintas: la primera desde una perspectiva incremental y no supervisada y la segunda des del enfoque del aprendizaje supervisado. El primer método que proponemos es un algoritmo de localización y mapeado topológico incremental y no supervisado basado en información viii visual. El mapa creado por dicho algoritmo es un grafo donde los puntos (zonas) del entorno se representan por nodos y las relaciones de vecindad son las aristas del grafo. Puesto que el algoritmo utiliza imágenes omnidireccionales, los nodos agrupan todas aquellas imágenes que describen la misma escena y, por tanto, comparten características visuales parecidas. Así, para la construcción de mapas topológicos con información visual, el algoritmo de mapeado topológico necesita resolver en primer lugar el problema de reconocimiento de escenas o cierre de ciclo. Nuestro algoritmo de comparación de imágenes se basa en la estructura local que forman las características visuales para establecer cuáles son los emparejamientos de características válidos. Para eliminar los falsos positivos que aparecen al emparejar las características individualmente, planteamos la utilización de grafos como estructuras que proporcionan información útil sobre las relaciones de vecindad de las características o puntos invariantes. De este modo comprobamos la consistencia no solamente de un único emparejamiento, sino la de un conjunto de características que tienen algún tipo de relación. El segundo método propuesto es un algoritmo de aprendizaje supervisado que selecciona las mejores características que describen a cada nodo y un algoritmo de localización basado en el mapa topológico aprendido. En los mapas topológicos cada nodo está compuesto por varias imágenes que describen una zona del entorno. La selección de una única imagen para definir el nodo puede no ser suficiente para describirlo en su totalidad, mientras que el uso de todas las imágenes puede consumir un tiempo prohibitivo. Nuestro método de aprendizaje del mapa topológico selecciona las mejores características (entre todas las imágenes de cada nodo) que describen a los nodos. El algoritmo de localización utiliza las características seleccionadas para determinar cuál es el nodo del mapa al que pertenece la imagen capturada. Para conseguir los mejores resultados en los dos métodos propuestos, estudiaremos diferentes algoritmos de segmentación de la imagen en regiones además de los algoritmos de extracción de características visuales más utilizados en la literatura.
45

Literatura de viajes de Azorín. Los artículos de viajes publicados en la prensa periódica

Bri Agulló, Abel 02 June 2015 (has links)
No description available.
46

Cardiac workstation and dynamic model to assist in coronary tree analysis

Toledo Morales, Ricardo 13 July 2001 (has links)
This thesis explores the issues involved in automatic coronary vessel analysis using deformable models and estimation algorithms. The work is carried out as a consequence of a previous international research and development project on multimedia and teleworking in medicine (radiology imaging). After developing and validating a multimedia workstation from a user perspective, the experience obtained showed the convenience to incorporate new computer vision tools to assist the physicians during the image assessment in the diagnostic process. The work presented is a part of a computer assisted diagnosis system within a telemedicine system.Focusing on cardiac imaging, the first step is to adapt the workstation to such image modality, then the goal is to build a computerised coronary tree model, able to incorporate 3D static (anatomical) and dynamic (vessel movements) data. Such a model is useful to increase the knowledge necessary when dealing with a difficult image modality in computer vision, like coronary angiography. To build the model, many computer vision problems have to be addressed. From low-level tasks as vessel detection up to high level ones like image understanding are necessarily covered. Mainly, deformable models (snakes) and estimation techniques are discussed and used with innovative ideas through the model building process. Ought to the tight dependence of the deformable models on the low level image feature detectors, new methods to learn the vessels based on statistical analysis and fine tune the detector are proposed increasing the segmentation confidence. A new statistical potential map is developed within a new energy minimising scheme. Snakes are also applied in the 3D-reconstruction process. A graph is designed and used to hold the knowledge of the complete model. The novel approach for vessel analysis and the final model were validated and the results are very encouraging.
47

Seguimiento visual robusto en entornos complejos

Varona Gómez, Javier 14 December 2001 (has links)
El seguimiento visual de objetos se puede expresar como un problema de estimación, donde se desea encontrar los valores que describen la trayectoria de los objetos, pero sólo se dispone de observaciones. En esta Tesis se presentan dos aproximaciones para resolver este problema en aplicaciones complejas de visión por computador. La primera aproximación se basa en la utilización de la información del contexto donde tiene lugar el seguimiento. Como resultado se presenta una aplicación de anotación de vÌdeo: la reconstrucción 3D de jugadas de un partido de fútbol. Escogiendo un esquema Bayesiano de seguimiento visual, la segunda aproximación es un algoritmo que utiliza como observaciones los valores de apariencia de los píxels de la imagen. Este algoritmo, denominado iTrack, se basa en la construcción y ajuste de un modelo estadístico de la apariencia del objeto que se desea seguir. Para mostrar la utilidad del nuevo algoritmo se presenta una aplicación de vÌdeo vigilancia automática. Este problema es difícil de resolver debido a la diversidad de escenarios y de condiciones de adquisición. / Visual tracking can be stated as an estimation problem. The main goal is to estimate the values that describe the object trajectories, but we only have observations of their true values. In this Thesis, we present two approaches to solve the problem in complex computer vision applications. The first approach is based on using the application context information. To show how the environment knowledge is a tracking valid approach, we present a video annotation application: the 3D reconstruction of a soccer match.Using the Bayesian probabilistic scheme, the second approach that we present is a visual tracking algorithm that uses directly the image values like observations. This algorithm, that we named iTrack, is based on a statistical model of the object appearance. To show the new algorithm performance we present an automatic video surveillance application. This problem is difficult due to the possible different scenes and the environment conditions.
48

Evaluación de la Agudeza Visual Dinámica: una aplicación al contexto deportivo

Quevedo i Junyent, Lluïsa 14 April 2007 (has links)
The importance of vision in life is unquestionable. It is because of this that optometry, as a science of vision focused in measurement and analysis of visual function, has been developing techniques and instruments to evaluate its functionality in various contexts.Sport has become a social phenomenon, as evidenced by an increasing trend towards active participation, both professionally and recreationally. In order to enhance athletic performance, many have looked towards the sciences (medicine, biomechanics, psychology) for answers. With the specialization of sports vision, optometry has been particularly useful. The importance of the science of vision relating to sports is easily justified by considering that, in general, vision plays a dominant role in athletic success since the majority of external stimuli that athletes have to react to come through the visual system.One of the most critical areas that Sports Vision incorporates is the specific screening of visual capacities related to sports performance. If we consider the dynamic characteristics of most sporting modalities that generally involve constant environmental changes, sudden and fast movements of players and ball, speed, etc., we have to accept the premise that action sports require visual performance evaluation that is different from normal vision testing, since routine testing only samples static vision. Assessment of specific sports-related visual abilities includes peripheral vision, visual reaction time or dynamic visual acuity. In reference to the evaluation of dynamic visual acuity, defined as the ability to resolve a target under conditions of relative motion between the observer and the test stimulus, it must be noted that methods developed to date for its measurement have not been, in general, psychometrically validated, and are too cumbersome and unwieldy to find a place in clinical practice or in field situations. This lack of proper equipment explains much the difficulty of establishing objective, precise and reliable measurements of a visual skill, considered, not only from the sporting context but also from road safety or aircraft operating, as one of the most predictive of real-world task performances, especially in dynamic conditions."Additionally, the need to improve our daily work giving visual attention to elite athletes in the Olympic Training Centre in Sant Cugat del Vallés has led us to develop this doctoral dissertation, with the design of the DinVA 3.0., a computer assisted test for the measurement of dynamic visual acuity. The efficacy of our instrument has been supported by four experimental studies. The first three, included into the psychophysics context, have allowed us to find the legitimacy of the DinVA test measurement by establishing its construct validity, as well as internal and temporal consistency. The last experiment is a differential study where we compared the results of dynamic visual acuity obtained by a sample of elite water polo players and a group of totally sedentary students of Optometry.The obtained results have shown that speed, contrast and direction of displacement of the stimulus significantly affect dynamic visual acuity, supporting the construct validity of the DinVA3.0.Additionally, we have verified that our instrument to measure dynamic visual acuity has a high degree of internal validity, as well as a high test-retest reliability of the obtained measures.Finally, we have been able to establish that athletic training seems to improve dynamic visual acuity.In conclusion, with this doctoral dissertation we aim at offering both, clinicians and researchers, a standardized and typified instrument that allows a solid and specific measure of dynamic visual acuity depending on the application context. It is easy to use, offers the possibility of training, and does not require more equipment than something so common and ubiquitous as a computer.
49

Bearing-only slam methods

Munguía Alcalá, Rodrigo Francisco 19 October 2009 (has links)
SLAM (Simulatenous Localization and Mapping) es quizá el problema más importante a solucionar en robótica para construir robots móviles verdaderamente autónomos. El SLAM es acerca de cómo un robot móvil opera en un entorno a priori desconocido, utilizando únicamente sus sensores de abordo, mientras construye un mapa de dicho entorno que al mismo tiempo utiliza para localizarse. Los sensores del robot tienen un gran impacto en los algoritmos usados en SLAM. Los primeros enfoques se centraron en el uso de sensores de rango como sonares o láseres. Sin embargo hay algunas desventajas relacionadas con su utilización: La asociación de datos es difícil, son costosos, habitualmente están limitados a mapas 2D y tienen alto costo computacional debido al gran número de características (features) que producen. Lo anterior ha propiciado que enfoques recientes se estén moviendo hacia el uso de cámaras como sensor principal. Estas se han vuelto muy atractivas para los investigadores de la robótica, dado que generan mucha información, facilitan la asociación de datos, están bien adaptadas para sistemas embebidos: son ligeras, baratas y ahorran energía. Usando visión, un robot puede localizarse así mismo usando objetos comunes como landmarks. Sin embargo, a diferencia de los sensores de rango, que proveen información angular y de rango, una cámara es un sensor proyectivo que mide el bearing (ángulo) respecto a objetos de la imagen. Por lo que la profundidad (range) no puede ser obtenida en una sola toma. Este hecho ha motivado la aparición de una nueva familia de métodos de SLAM: Los Bearing-Only SLAM methods, los cuales están basados en técnicas especiales para la inicialización de features, permitiendo el uso de sensores de bearing en SLAM. Esta tesis se centra en el estudio de la problemática del Bearing-Only SLAM: da una descripción extensa del tema, recapitula los retos actuales a resolver y propone nuevos métodos y algoritmos enfocados a tratar diferentes sub problemas concernientes esta problemática en general. Estos sub problemas deben de ser tratados, de manera que sea posible construir sistemas capaces de operar en entornos diversos y complejos. La investigación descrita en esta disertación ha sido dividida en tres partes: 3DOF Bearing-Only SLAM: El proceso de inicialización de nuevas features es quizá el sub problema más importante a tratar en Bearing-Only SLAM. En esta parte de la tesis se introduce un nuevo método llamado Delayed Inverse Depth Features Initialization (para 3DOF y asumiendo odometría). Este método utiliza una parametrización inversa, donde la profundidad e incertidumbre iníciales de cada feature son dinámicamente estimadas previamente a que una feature sea declarada como un nuevo landmark en el mapa estocástico. También se presenta un sistema de SLAM basado en sonido, llamado SSLAM el cual usa fuentes de sonido como features del mapa. La contribución del SSLAM es demostrar la viabilidad de la inclusión del sentido auditivo en SLAM y mostrar que es factible utilizar sensores alternativos en Bearing-Only SLAM. Métodos de asociación de datos para SLAM basado en visión: El problema de la asociación de datos es quizá uno de los problemas más difíciles en robótica y también uno de los sub problemas más importantes a tratar en SLAM. Consiste en determinar si las mediciones de un sensor tomadas en tiempos diferentes, corresponden al mismo objeto físico del mundo. En esta parte de la tesis, se proponen diferentes métodos que tratan el problema de la asociación de datos en un contexto de SLAM basado en visión. SLAM monocular de 6DOF: El SLAM monocular de 6DOF quizá representa la variante más extrema del SLAM, dado que una cámara en mano es utilizada como la única entrada sensorial del sistema. En esta parte de la tesis, se extiende el algoritmo de 2DOF Bearing-Only SLAM para ser aplicado en un contexto de SLAM monocular. También se propone un nuevo esquema llamado SLAM Monocular Distribuido, enfocado en el problema de construir y mantener mapas consistentes de grandes entornos en tiempo real. La idea es dividir la estimación total del sistema en dos procesos de estimación concurrentes. Primero un método actual de SLAM monocular (Virtual Sensor) es modificado como un complejo sensor virtual que emula sensores típicos, como el laser para medición de rango y encoders para odometría. Después otro método tradicional de SLAM (Global SLAM) es acoplado para construir y mantener el mapa final. Numerosas referencias bibliográficas, graficas, comparaciones, simulaciones y experimentos con datos reales de sensores, son presentador con el fin de mostrar el desempeño de los métodos propuestos. / Simultaneous Localization and Mapping (SLAM) is perhaps the most fundamental problem to solve in robotics in order to build truly autonomous mobile robots. SLAM is about on how can a mobile robot operate in an a priori unknown environment and use only onboard sensors to simultaneously build a map of its surroundings and use it to track its position. The robot’s sensors have a large impact on the algorithm used for SLAM. Early SLAM approaches focused on the use of range sensors as sonar rings or lasers. Nevertheless there are some disadvantages with the use of range sensors in SLAM: Correspondence or data association is difficult. They are expensive. They are generally limited to 2D maps and computational overhead due to large number of features. The aforementioned issues have propitiated that recent work is moving towards the use of cameras as the primary sensing modality. Cameras have become more and more interesting for the robotic research community, because it yield a lot of information allowing reliable data association. Cameras are well adapted for embedded systems: they are light, cheap and power saving. Using vision, a robot can localize itself using common objects as landmarks. On the other hand, at difference of range sensors (i.e. sonar or laser) which provides range and angular information, a camera is a projective sensor which measures the bearing of images features. Therefore depth information (range) cannot be obtained in a single frame. This fact has propitiated the emergence of a new family of SLAM methods: The Bearing-Only SLAM methods, which mainly relies in especial techniques for features system-initialization in order to enable the use of bearing sensors (as cameras) in SLAM systems. This thesis is focused on the study of the Bearing-Only SLAM problematic: It gives an extensive overview of the subject. It point out the principal challenges nowadays. And it presents new methods and algorithms which address different sub problems concerning to the Bearing-Only SLAM problematic. These sub problems must be solved, in order to build systems capable of operating in extremely diverse and complex environments. The research described in this dissertation has been divided into three parts: 3DOF Bearing-Only SLAM: The initialization process for new features is perhaps the most important sub problem for addressing in Bearing-Only SLAM. In this part of the thesis we introduce a novel method called Delayed Inverse Depth Features Initialization for a 3DOF odometry-available context. In this method, which uses an inverse depth parameterization, initial depth and uncertainty of each feature are dynamically estimated priors to add the new landmark in the stochastic map. We also present a Sound-based SLAM system, called SSLAM, which uses “Sound Sources” as map’s features. The main contributions of the SSLAM are demonstrating the viability on the inclusion of the hearing sense in SLAM and show that is straightforward to use alternative bearing in SLAM systems. Data association methods for camera-based SLAM: the data association problem is possibly one of the hardest problems in robotic and also one of the most important sub problems to solve in SLAM. The correspondence problem is the problem of determining if sensor measurements taken at different points in time correspond to the same physical object in the world. In this part of the thesis, we propose different methods for addressing the data association problem in a context of vision-based SLAM. 6DOF Monocular SLAM: 6-DOF monocular SLAM possibly represents the harder variant of SLAM, since a low cost hand-held camera is used as the only sensory input to the system. In this part of the thesis, we extend our 2DOF Bearing-Only SLAM algorithm for being used in a monocular SLAM context. Also a novel framework called Distributed Monocular SLAM is proposed for addressing the problem of building and maintaining a global and consistent map of large environments at real time. The key idea is to divide the whole estimation into two concurrent estimation processes. First a state of the art monocular SLAM method (Called Virtual Sensor) is modified as a complex virtual sensor that emulates typical sensors such as laser for range measurement and encoders for dead reckoning. Afterward, a classic SLAM method (called Global SLAM) is plugged in for building and maintaining the final map. Several references, graphics, comparisons, simulations and experiments with real data are presented in order to demonstrate the performance of the methods.
50

Seguimiento de trayectorias en visión por computadora

Roldán, María Carina January 2000 (has links)
No description available.

Page generated in 0.0288 seconds