• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 10
  • 9
  • 6
  • 4
  • 3
  • 3
  • 2
  • Tagged with
  • 36
  • 31
  • 14
  • 13
  • 10
  • 10
  • 10
  • 8
  • 8
  • 8
  • 6
  • 6
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Estimação de posição e quantificação de erro utilizando geometria epipolar entre imagens. / Position estimation and error quantification using epipolar geometry between images.

Karlstroem, Adriana 23 May 2007 (has links)
A estimação de posição é o resultado direto da reconstrução de cenas, um dos ramos da visão computacional. É também uma informação importante para o controle de sistemas mecatrônicos, e em especial para os sistemas robóticos autônomos. Como uma aplicação de engenharia, o desempenho de tal sistema deve ser avaliado em termos de eficiência e eficácia, medidas traduzidas respectivamente pelo custo de processamento e pela quantificação do erro. A geometria epipolar é um campo da visão computacional que fornece formalismo matemático e técnicas de reconstrução de cenas a partir de uma par de imagens, através de pontos correspondentes entre elas. Através deste formalismo é possível determinar a incerteza dos métodos de estimação de posição, que são relativamente simples e podem atingir boa precisão. Dentre os sistemas robóticos autônomos destacam-se os ROVs - do inglês \"Remotely Operated Vehicles\" - ou veículos operados remotamente, muito utilizados em tarefas submarinas, e cuja necessidade crescente de autonomia motiva o desenvolvimento de um sensor de visão com características de baixo consumo de energia, flexibilidade e inteligência. Este sensor pode consistir de uma câmera CCD e algoritmos de reconstrução de cena baseados em geometria epipolar entre imagens. Este estudo visa fornecer um comparativo de resultados práticos da estimação de posição através da geometria epipolar entre imagens, como parte da implementação de um sensor de visão para robôs autônomos. Os conceitos teóricos abordados são: geometria projetiva, modelo de câmera, geometria epipolar, matriz fundamental, reconstrução projetiva, re-construção métrica, algoritmos de determinação da matriz fundamental, algoritmos de reconstrução métrica, incerteza da matriz fundamental e complexidade computacional. Os resultados práticos baseiam-se em simulações através de imagens geradas por computador e em montagens experimentais feitas em laboratório que simulam situações práticas. O processo de estimação de posição foi realizado através da implementação em MATLAB® 6.5 dos algoritmos apresentados na parte teórica, e os resultados comparados e analisados quanto ao erro e complexidade de execução. Dentre as principais conclusões é apresentado a melhor escolha para a implementação de sensor de visão de propósito geral - o Algoritmo de 8 Pontos Correspondentes Normalizado. São apresentadas também as condições de utilização de cada método e os cuidados necessários na interpretação dos resultados. / Position estimation is the direct result of scene reconstruction, one of computer vision\'s fields. It is also an important information for the control of mechanical systems - specially the autonomous robotic systems. As an engineering application, those systems\' performance must be evaluated in terms of efficiency and effectiveness, measured by processing costs and error quantification. The epipolar geometry is a field of computer vision that supply mathematical formalism and scene reconstruction techniques that are based on the correspondences between two images. Through this formalism it is possible to stipulate the uncertainty of the position estimation methods that are relatively simple and can give good accuracy. Among the autonomous robotic systems, the ROVs - Remotely Operated Vehicles - are of special interest, mostly employed in submarine activities, and whose crescent autonomy demand motivates the development of a vision sensor of low power consumption, flexibility and intelligence. This sensor may be constructed with a CCD camera and the scene reconstruction algorithms based on epipolar geometry. This work aims to build a comparison of practical results of position estimation through epipolar geometry, as part of a vision sensor implementation for autonomous robots. The theory presented in this work comprises of: projective geometry, camera model, epipolar geometry, fundamental matrix, projective reconstruction, metric reconstruction, fundamental matrix algorithms, metric reconstruction algorithms, fundamental matrix uncertainty, and computational complexity. The practical results are based on computer generated simulations and experimental assemblies that emulate practical issues. The position estimation was carried out by MATLAB® 6.5 implementations of the algorithms analyzed in the theoretical part, and the results are compared and analyzed in respect of the error and the execution complexity. The main conclusions are that the best algorithm choice for the implementation of a general purpose vision sensor is the Normalized 8 Point Algorithm, and the usage conditions of each method, besides the special considerations that must be observed at the interpretation of the results.
2

Janela 3D: uma ferramenta de telecomunicação visual sensível ao ponto de vista do usuário. / 3D window: an user\'s viewpoint sensible visual telecommunication tool.

Trias, Lucas Padovani 19 June 2009 (has links)
Sistemas de teleconferência e telepresença são ferramentas de comunicação cada vez mais comuns. Partindo da existência de um canal de comunicação de alta capacidade, busca-se permitir visualização tridimensional realista, sensível ao ponto de vista do usuário e que mantenha a estrutura física da cena sem conhecimento prévio de sua estrutura, por meio de câmeras estéreo. A partir de pares de imagens temporalmente coerentes são sintetizadas visões intermediárias da cena alvo, de modo que um usuário rastreado tenha a ilusão de estar vendo a cena real através de uma janela. O sistema implementado baseia-se em dispositivos que provejam melhor qualidade visual no componente de geração de imagens intermediárias e procura maximizar a facilidade de uso na parte de visualização, empregando dispositivos domésticos e dispensando procedimentos complexos de calibração. / Teleconference and telepresence systems are increasingly common. Based on the existence of a high capacity communication channel, it is aimed to provide user\'s point of view sensible realistic 3D visualization without physical distortion or any prior knowledge about the structure of the scene, using stereo cameras. Pairs of temporally coherent images are used to generate intermediary view of the target scene so that a tracked user will have the illusion of posing in front so the real scene. The implemented system is based on high visual quality components on the side of views generation and tries to maximize ease of use in the visualization part by using commodity components and being free so complex calibration procedures.
3

Estimação de posição e quantificação de erro utilizando geometria epipolar entre imagens. / Position estimation and error quantification using epipolar geometry between images.

Adriana Karlstroem 23 May 2007 (has links)
A estimação de posição é o resultado direto da reconstrução de cenas, um dos ramos da visão computacional. É também uma informação importante para o controle de sistemas mecatrônicos, e em especial para os sistemas robóticos autônomos. Como uma aplicação de engenharia, o desempenho de tal sistema deve ser avaliado em termos de eficiência e eficácia, medidas traduzidas respectivamente pelo custo de processamento e pela quantificação do erro. A geometria epipolar é um campo da visão computacional que fornece formalismo matemático e técnicas de reconstrução de cenas a partir de uma par de imagens, através de pontos correspondentes entre elas. Através deste formalismo é possível determinar a incerteza dos métodos de estimação de posição, que são relativamente simples e podem atingir boa precisão. Dentre os sistemas robóticos autônomos destacam-se os ROVs - do inglês \"Remotely Operated Vehicles\" - ou veículos operados remotamente, muito utilizados em tarefas submarinas, e cuja necessidade crescente de autonomia motiva o desenvolvimento de um sensor de visão com características de baixo consumo de energia, flexibilidade e inteligência. Este sensor pode consistir de uma câmera CCD e algoritmos de reconstrução de cena baseados em geometria epipolar entre imagens. Este estudo visa fornecer um comparativo de resultados práticos da estimação de posição através da geometria epipolar entre imagens, como parte da implementação de um sensor de visão para robôs autônomos. Os conceitos teóricos abordados são: geometria projetiva, modelo de câmera, geometria epipolar, matriz fundamental, reconstrução projetiva, re-construção métrica, algoritmos de determinação da matriz fundamental, algoritmos de reconstrução métrica, incerteza da matriz fundamental e complexidade computacional. Os resultados práticos baseiam-se em simulações através de imagens geradas por computador e em montagens experimentais feitas em laboratório que simulam situações práticas. O processo de estimação de posição foi realizado através da implementação em MATLAB® 6.5 dos algoritmos apresentados na parte teórica, e os resultados comparados e analisados quanto ao erro e complexidade de execução. Dentre as principais conclusões é apresentado a melhor escolha para a implementação de sensor de visão de propósito geral - o Algoritmo de 8 Pontos Correspondentes Normalizado. São apresentadas também as condições de utilização de cada método e os cuidados necessários na interpretação dos resultados. / Position estimation is the direct result of scene reconstruction, one of computer vision\'s fields. It is also an important information for the control of mechanical systems - specially the autonomous robotic systems. As an engineering application, those systems\' performance must be evaluated in terms of efficiency and effectiveness, measured by processing costs and error quantification. The epipolar geometry is a field of computer vision that supply mathematical formalism and scene reconstruction techniques that are based on the correspondences between two images. Through this formalism it is possible to stipulate the uncertainty of the position estimation methods that are relatively simple and can give good accuracy. Among the autonomous robotic systems, the ROVs - Remotely Operated Vehicles - are of special interest, mostly employed in submarine activities, and whose crescent autonomy demand motivates the development of a vision sensor of low power consumption, flexibility and intelligence. This sensor may be constructed with a CCD camera and the scene reconstruction algorithms based on epipolar geometry. This work aims to build a comparison of practical results of position estimation through epipolar geometry, as part of a vision sensor implementation for autonomous robots. The theory presented in this work comprises of: projective geometry, camera model, epipolar geometry, fundamental matrix, projective reconstruction, metric reconstruction, fundamental matrix algorithms, metric reconstruction algorithms, fundamental matrix uncertainty, and computational complexity. The practical results are based on computer generated simulations and experimental assemblies that emulate practical issues. The position estimation was carried out by MATLAB® 6.5 implementations of the algorithms analyzed in the theoretical part, and the results are compared and analyzed in respect of the error and the execution complexity. The main conclusions are that the best algorithm choice for the implementation of a general purpose vision sensor is the Normalized 8 Point Algorithm, and the usage conditions of each method, besides the special considerations that must be observed at the interpretation of the results.
4

Janela 3D: uma ferramenta de telecomunicação visual sensível ao ponto de vista do usuário. / 3D window: an user\'s viewpoint sensible visual telecommunication tool.

Lucas Padovani Trias 19 June 2009 (has links)
Sistemas de teleconferência e telepresença são ferramentas de comunicação cada vez mais comuns. Partindo da existência de um canal de comunicação de alta capacidade, busca-se permitir visualização tridimensional realista, sensível ao ponto de vista do usuário e que mantenha a estrutura física da cena sem conhecimento prévio de sua estrutura, por meio de câmeras estéreo. A partir de pares de imagens temporalmente coerentes são sintetizadas visões intermediárias da cena alvo, de modo que um usuário rastreado tenha a ilusão de estar vendo a cena real através de uma janela. O sistema implementado baseia-se em dispositivos que provejam melhor qualidade visual no componente de geração de imagens intermediárias e procura maximizar a facilidade de uso na parte de visualização, empregando dispositivos domésticos e dispensando procedimentos complexos de calibração. / Teleconference and telepresence systems are increasingly common. Based on the existence of a high capacity communication channel, it is aimed to provide user\'s point of view sensible realistic 3D visualization without physical distortion or any prior knowledge about the structure of the scene, using stereo cameras. Pairs of temporally coherent images are used to generate intermediary view of the target scene so that a tracked user will have the illusion of posing in front so the real scene. The implemented system is based on high visual quality components on the side of views generation and tries to maximize ease of use in the visualization part by using commodity components and being free so complex calibration procedures.
5

Robust Cooperative Strategy for Contour Matching Using Epipolar Geometry

Yuan, Miaolong, Xie, Ming, Yin, Xiaoming 01 1900 (has links)
Feature matching in images plays an important role in computer vision such as for 3D reconstruction, motion analysis, object recognition, target tracking and dynamic scene analysis. In this paper, we present a robust cooperative strategy to establish the correspondence of the contours between two uncalibrated images based on the recovered epipolar geometry. We take into account two representations of contours in image as contour points and contour chains. The method proposed in the paper is composed of the following two consecutive steps: (1) The first step uses the LMedS method to estimate the fundamental matrix based on Hartley’s 8-point algorithm, (2) The second step uses a new robust cooperative strategy to match contours. The presented approach has been tested with various real images and experimental results show that our method can produce more accurate contour correspondences. / Singapore-MIT Alliance (SMA)
6

Modelling stereoscopic vision systems for robotic applications

Armangué Quintana, Xavier 29 September 2003 (has links)
Aquesta tesi s'emmarca dins del projecte CICYT TAP 1999-0443-C05-01. L'objectiu d'aquest projecte és el disseny, implementació i avaluació de robots mòbils, amb un sistema de control distribuït, sistemes de sensorització i xarxa de comunicacions per realitzar tasques de vigilància. Els robots han de poder-se moure per un entorn reconeixent la posició i orientació dels diferents objectes que l'envolten. Aquesta informació ha de permetre al robot localitzar-se dins de l'entorn on es troba per poder-se moure evitant els possibles obstacles i dur a terme la tasca encomanada. El robot ha de generar un mapa dinàmic de l'entorn que serà utilitzat per localitzar la seva posició. L'objectiu principal d'aquest projecte és aconseguir que un robot explori i construeixi un mapa de l'entorn sense la necessitat de modificar el propi entorn. Aquesta tesi està enfocada en l'estudi de la geometria dels sistemes de visió estereoscòpics formats per dues càmeres amb l'objectiu d'obtenir informació geomètrica 3D de l'entorn d'un vehicle. Aquest objectiu tracta de l'estudi del modelatge i la calibració de càmeres i en la comprensió de la geometria epipolar. Aquesta geometria està continguda en el que s'anomena emph{matriu fonamental}. Cal realitzar un estudi del càlcul de la matriu fonamental d'un sistema estereoscòpic amb la finalitat de reduir el problema de la correspondència entre dos plans imatge. Un altre objectiu és estudiar els mètodes d'estimació del moviment basats en la geometria epipolar diferencial per tal de percebre el moviment del robot i obtenir-ne la posició. Els estudis de la geometria que envolta els sistemes de visió estereoscòpics ens permeten presentar un sistema de visió per computador muntat en un robot mòbil que navega en un entorn desconegut. El sistema fa que el robot sigui capaç de generar un mapa dinàmic de l'entorn a mesura que es desplaça i determinar quin ha estat el moviment del robot per tal de emph{localitzar-se} dins del mapa.La tesi presenta un estudi comparatiu dels mètodes de calibració de càmeres més utilitzats en les últimes dècades. Aquestes tècniques cobreixen un gran ventall dels mètodes de calibració clàssics. Aquest mètodes permeten estimar els paràmetres de la càmera a partir d'un conjunt de punts 3D i de les seves corresponents projeccions 2D en una imatge. Per tant, aquest estudi descriu un total de cinc tècniques de calibració diferents que inclouen la calibració implicita respecte l'explicita i calibració lineal respecte no lineal. Cal remarcar que s'ha fet un gran esforç en utilitzar la mateixa nomenclatura i s'ha estandaritzat la notació en totes les tècniques presentades. Aquesta és una de les dificultats principals a l'hora de poder comparar les tècniques de calibració ja què cada autor defineix diferents sistemes de coordenades i diferents conjunts de paràmetres. El lector és introduït a la calibració de càmeres amb la tècnica lineal i implícita proposada per Hall i amb la tècnica lineal i explicita proposada per Faugeras-Toscani. A continuació es passa a descriure el mètode a de Faugeras incloent el modelatge de la distorsió de les lents de forma radial. Seguidament es descriu el conegut mètode proposat per Tsai, i finalment es realitza una descripció detallada del mètode de calibració proposat per Weng. Tots els mètodes són comparats tant des del punt de vista de model de càmera utilitzat com de la precisió de la calibració. S'han implementat tots aquests mètodes i s'ha analitzat la precisió presentant resultats obtinguts tant utilitzant dades sintètiques com càmeres reals.Calibrant cada una de les càmeres del sistema estereoscòpic es poden establir un conjunt de restriccions geomètri ques entre les dues imatges. Aquestes relacions són el que s'anomena geometria epipolar i estan contingudes en la matriu fonamental. Coneixent la geometria epipolar es pot: simplificar el problema de la correspondència reduint l'espai de cerca a llarg d'una línia epipolar; estimar el moviment d'una càmera quan aquesta està muntada sobre un robot mòbil per realitzar tasques de seguiment o de navegació; reconstruir una escena per aplicacions d'inspecció, propotipatge o generació de motlles. La matriu fonamental s'estima a partir d'un conjunt de punts en una imatges i les seves correspondències en una segona imatge. La tesi presenta un estat de l'art de les tècniques d'estimació de la matriu fonamental. Comença pels mètode lineals com el dels set punts o el mètode dels vuit punts, passa pels mètodes iteratius com el mètode basat en el gradient o el CFNS, fins arribar las mètodes robustos com el M-Estimators, el LMedS o el RANSAC. En aquest treball es descriuen fins a 15 mètodes amb 19 implementacions diferents. Aquestes tècniques són comparades tant des del punt de vista algorísmic com des del punt de vista de la precisió que obtenen. Es presenten el resultats obtinguts tant amb imatges reals com amb imatges sintètiques amb diferents nivells de soroll i amb diferent quantitat de falses correspondències.Tradicionalment, l'estimació del moviment d'una càmera està basada en l'aplicació de la geometria epipolar entre cada dues imatges consecutives. No obstant el cas tradicional de la geometria epipolar té algunes limitacions en el cas d'una càmera situada en un robot mòbil. Les diferencies entre dues imatges consecutives són molt petites cosa que provoca inexactituds en el càlcul de matriu fonamental. A més cal resoldre el problema de la correspondència, aquest procés és molt costós en quant a temps de computació i no és gaire efectiu per aplicacions de temps real. En aquestes circumstàncies les tècniques d'estimació del moviment d'una càmera solen basar-se en el flux òptic i en la geometria epipolar diferencial. En la tesi es realitza un recull de totes aquestes tècniques degudament classificades. Aquests mètodes són descrits unificant la notació emprada i es remarquen lessemblances i les diferencies entre el cas discret i el cas diferencial de la geometria epipolar. Per tal de poder aplicar aquests mètodes a l'estimació de moviment d'un robot mòbil, aquest mètodes generals que estimen el moviment d'una càmera amb sis graus de llibertat, han estat adaptats al cas d'un robot mòbil que es desplaça en una superfície plana. Es presenten els resultats obtinguts tant amb el mètodes generals de sis graus de llibertat com amb els adaptats a un robot mòbil utilitzant dades sintètiques i seqüències d'imatges reals.Aquest tesi finalitza amb una proposta de sistema de localització i de construcció d'un mapa fent servir un sistema estereoscòpic situat en un robot mòbil. Diverses aplicacions de robòtica mòbil requereixen d'un sistema de localització amb l'objectiu de facilitar la navegació del vehicle i l'execució del les trajectòries planificades. La localització es sempre relativa al mapa de l'entorn on el robot s'està movent. La construcció de mapes en un entorn desconegut és una tasca important a realitzar per les futures generacions de robots mòbils. El sistema que es presenta realitza la localització i construeix el mapa de l'entorn de forma simultània. A la tesi es descriu el robot mòbil GRILL, que ha estat la plataforma de treball emprada per aquesta aplicació, amb el sistema de visió estereoscòpic que s'ha dissenyat i s'ha muntat en el robot. També es descriu tots el processos que intervenen en el sistema de localització i construcció del mapa. La implementació d'aquest processos ha estat possible gràcies als estudis realitzats i presentats prèviament (calibració de càmeres, estimació de la matriu fonamental, i estimació del moviment) sense els quals no s'hauria pogut plantejar aquest sistema. Finalment es presenten els mapes en diverses trajectòries realitzades pel robot GRILL en el laboratori.Les principals contribucions d'aquest treball són:·Un estat de l'art sobre mètodes de calibració de càmeres. El mètodes són comparats tan des del punt de vista del model de càmera utilitzat com de la precisió dels mètodes.·Un estudi dels mètodes d'estimació de la matriu fonamental. Totes les tècniques estudiades són classificades i descrites des d'un punt de vista algorísmic.·Un recull de les tècniques d'estimació del moviment d'una càmera centrat en el mètodes basat en la geometria epipolar diferencial. Aquestes tècniques han estat adaptades per tal d'estimar el moviment d'un robot mòbil.·Una aplicació de robòtica mòbil per tal de construir un mapa dinàmic de l'entorn i localitzar-se per mitja d'un sistema estereoscòpic. L'aplicació presentada es descriu tant des del punt de vista del maquinari com del programari que s'ha dissenyat i implementat. / Human eyes have been widely studied by the scientific community so that its operation principle is widely known. Computer vision tries to copy the way human beings perceive visual information by means of using cameras acting as eyeballs and computers aspiring to process this information in an --intelligent way". The complex task of being conscious of reality is obviously divided into a set of simpler problems which covers from image acquisition to scene description. One of the main applications is robot perception in which a mobile robot is equipped with a computer vision system. Robots may be able to navigate around an unknown structured environment acquiring visual information of their surroundings with the aim of estimating the position and orientation of every obstacle. Moreover, the pose of the vehicle has to be estimated as accurate as possible. Hence, the motion of the vehicle might be also computed allowing the localization of the vehicle with respect to the 3D map.This thesis is focused on the study of the geometry involved in stereo vision systems composed by two cameras with the aim of obtaining 3D geometric information of the vehicle surroundings. This objective deals to the study of camera modelling and calibration and the comprehension of the epipolar geometry. Then, the computation of the fundamental matrix of a stereoscopic system is surveyed with the aim of reducing the correspondence problem between both image planes. An accurate estimation of the fundamental matrix allows us not only to compute 3D information of the vehicle environments, but to validate it. Nevertheless, the traditional case of the epipolar geometry has some limitations in the common case of a single camera attached to a mobile robot. Disparities between two consecutive images are rather small at common image rates leading to numerical inaccuracies on the computation of the fundamental matrix. Then, another objective is the study of general vision-based egomotion estimation methods based on the differential epipolar constraint with the aim of perceiving the robot movement instead of its position. The study of the geometry involved in stereo vision systems leads us to present a computer vision system mounted on a vehicle which navigates in an unknown environment. Two main tasks are faced: a) the localization of the vehicle; and b) the building of an absolute 3D map. / El sistema de visión humano ha sido ampliamente estudiado por la comunidad científica de forma que su principio de funcionamiento es profundamente conocido. La Visión por Computador trata de copiar la forma que nosotros los humanos percibimos la información visual por medio del uso de cámaras actuando como ojos y un ordenador aspirando a procesar toda la información de "forma inteligente". La compleja tarea de ser consciente de la realidad es obviamente dividida en un conjunto de problemas mucho más simples, los cuales abarcan des de la adquisición de la imagen a la descripción de la escena. Una de las numerosas aplicaciones es la percepción por parte de un robot, donde un robot móvil es equipado con un sistema informático de visión por computador. Estos robots deben ser capaces de navegar a lo largo de un entorno estructurado desconocido mediante la adquisición de información visual de su alrededor, con el objetivo de estimar la posición y orientación de todos los obstáculos. Además, la posición del vehículo debe ser estimada de la forma más precisa posible. De esta forma, el movimiento del vehículo puede ser también calculado lo que permite la localización del vehículo con respeto al mapa 3D.Esta tesis profundiza en el estudio de la geometría existente en los sistemas de visión estéreo compuestos por dos cámaras con la intención de obtener información geométrica 3D del entorno del vehículo. Este objetivo lleva consigo la necesidad inicial de realizar un estudio de modelado de la cámara y calibración, y la compensación de la geometría epipolar. A continuación, el cálculo de la matriz fundamental de un sistema esteresocópico es analizado para reducir el problema de la correspondencia entre ambos planos de la imagen. Una estimación precisa de la matriz fundamental nos permite no solamente obtener la información 3D del entorno, sino también validar la misma. No obstante, la geometría epipolar tradicional sufre algunas limitaciones en el caso de una cámara montada en un robot móvil. La disparidad entre dos imágenes consecutivas es realmente mínima trabajando a velocidad estándar lo que conlleva a errores numéricos en el cálculo de la matriz fundamental. Por esta razón, otro objetivo es el estudio de los métodos de estimación del movimiento basados en la geometría epipolar diferencial con el objetivo de pervivir el movimiento del robot y su posición.El estudio de la geometría inmersa en los sistemas de visión estéreo nos lleva a presentar un sistema de visión por computador montado en un vehículo capaz de navegar en un entorno desconocido. Dos tareas básicas son consideradas: a) la localización del vehículo; y b) la construcción de un mapa 3D absoluto.
7

Orientace kamery v reálném čase / Camera Orientation in Real-Time

Župka, Jiří January 2010 (has links)
This work deals with the orientation of the camera in real-time with a single camera. Offline methods are described and used as a reference for comparison of a real-time metods. Metods work in real-time Monocular SLAM and PTAM methods are there described and compared. Further, paper shows hints of advanced methods whereas future work is possible.
8

Improving Image Based Fruitcount Estimates Using Multiple View-Points

Stein, Madeleine January 2016 (has links)
This master-thesis presents an approach to track and count the number of fruit incommercial mango orchards. The algorithm is intended to enable precision agri-culture and to facilitate labour and post-harvest storage planning. The primary objective is to develop an multi-view algorithm and investigate how it can beused to mitigate the effects of visual occlusion, to improve upon estimates frommethods that use a single central or two opposite viewpoints. Fruit are detectedin images by using two classification methods: dense pixel-wise cnn and regionbased r-cnn detection. Pair-wise fruit correspondences are established between images by using geometry provided by navigation data, and lidar data is used to generate image masks for each separate tree, to isolate fruit counts to individual trees. The tracked fruit are triangulated to locate them in 3D space, and spatial statistics are calculated over whole orchard blocks. The estimated tree counts are compared to single view estimates and validated against ground truth data of 16 mango trees from a Bundaberg mango orchard in Queensland, Australia. The results show a high R2-value of 0.99335 for four hand labelled trees and a highest R2-value of 0.9165 for the machine labelled images using the r-cnn classifier forthe 16 target trees.
9

Robust estimation of structure from motion in the uncalibrated case

van den Hengel, Anton January 2000 (has links)
A picture of a scene is a 2-dimensional representation of a 3-dimensional world. In the process of projecting the scene onto the 2-dimensional image plane, some of the information about the 3-dimensional scene is inevitably lost. Given a series of images of a scene, typically taken by a video camera, it is sometimes possible to recover some of this lost 3-dimensional information. Within the computer vision literature this process is described as that of recovering structure from motion. If some of the information about the internal geometry of the camera is unknown, then the problem is described as that of recovering structure from motion in the uncalibrated case. It is this uncalibrated version of the problem that is the concern of this thesis. Optical flow represents the movement of points across the image plane over time. Previous work in the area of structure from motion has given rise to a so-called differential epipolar equation which describes the relationship between optical flow and the motion and internal parameters of the camera. This equation allows the calibration of a camera undergoing unknown motion and having an unknown, and possibly varying, focal length. Obtaining accurate estimates of the camera motion and internal parameters in the presence of noisy optical flow data is critical to the structure recovery process. We present and compare a variety of methods for estimating the coefficients of the differential epipolar equation. The goal of this process is to derive a tractable total least squares estimator of structure from motion robust to the presence of inaccuracies in the data. Methods are also presented for rectifying optical flow to a particular motion estimates, eliminating outliers from the data, and calculating the relative motion of a camera over an image sequence. This thesis thus explores the application of numerical and statistical techniques for the estimation of structure from motion in the uncalibrated case. / Thesis (Ph.D.)--Mathematical and Computer Sciences (Department of Computer Science), 2000.
10

Dense Depth Maps from Epipolar Images

Mellor, J.P., Teller, Seth, Lozano-Perez, Tomas 01 November 1996 (has links)
Recovering three-dimensional information from two-dimensional images is the fundamental goal of stereo techniques. The problem of recovering depth (three-dimensional information) from a set of images is essentially the correspondence problem: Given a point in one image, find the corresponding point in each of the other images. Finding potential correspondences usually involves matching some image property. If the images are from nearby positions, they will vary only slightly, simplifying the matching process. Once a correspondence is known, solving for the depth is simply a matter of geometry. Real images are composed of noisy, discrete samples, therefore the calculated depth will contain error. This error is a function of the baseline or distance between the images. Longer baselines result in more precise depths. This leads to a conflict: short baselines simplify the matching process, but produce imprecise results; long baselines produce precise results, but complicate the matching process. In this paper, we present a method for generating dense depth maps from large sets (1000's) of images taken from arbitrary positions. Long baseline images improve the accuracy. Short baseline images and the large number of images greatly simplifies the correspondence problem, removing nearly all ambiguity. The algorithm presented is completely local and for each pixel generates an evidence versus depth and surface normal distribution. In many cases, the distribution contains a clear and distinct global maximum. The location of this peak determines the depth and its shape can be used to estimate the error. The distribution can also be used to perform a maximum likelihood fit of models directly to the images. We anticipate that the ability to perform maximum likelihood estimation from purely local calculations will prove extremely useful in constructing three dimensional models from large sets of images.

Page generated in 0.1192 seconds