Spelling suggestions: "subject:"visa?o este?repo"" "subject:"visa?o este?reto""
1 |
Implementa??o de rotinas computacionais b?sicas para cabe?a est?reo rob?ticaBezerra, Leonardo Campos do Amaral 03 June 2006 (has links)
Made available in DSpace on 2014-12-17T14:55:56Z (GMT). No. of bitstreams: 1
LeonardoCAB.pdf: 2653129 bytes, checksum: 81e936a3b39b5e7d9320b932dd5ae5ea (MD5)
Previous issue date: 2006-06-03 / O Laborat?rio de Sistemas Inteligentes do Departamento de Engenharia de Computa??o e Automa??o da Universidade Federal do Rio Grande do Norte - UFRN -tem como um de seus projetos de pesquisa -Robosense -a constru??o de uma plataforma rob?tica m?vel. Trata-se de um rob? provido de duas rodas, acionadas de forma diferencial, dois bra?os, com 5 graus de liberdade cada, um cintur?o de sonares e uma cabe?a est?reo. Como objetivo principal do projeto Robosense, o rob? dever? ser capaz de navegar por todo o pr?dio do LECA, desviando de obst?culos. O sistema de navega??o do rob?, respons?vel pela gera??o e seguimento de rotas, atuar? em malha fechada. Ou seja, sensores ser?o utilizados pelo sistema com o intuito de informar ao rob? a sua pose atual, incluindo localiza??o e a configura??o de seus recursos. Encoders (sensores especiais de rota??o) foram instalados nas rodas, bem como em todos os motores dos dois bra?os da cabe?a est?reo. Sensores de fim-de-curso foram instalados em todas as juntas da cabe?a est?reo para que seja poss?vel sua pr?-calibra??o. Sonares e c?meras tamb?m far?o parte do grupo de sensores utilizados no projeto. O rob? contar? com uma plataforma composta por, a princ?pio, dois computadores ligados a um barramento ?nico para uma opera??o em tempo real, em paralelo. Um deles ser? respons?vel pela parte de controle dos bra?os e de sua navega??o, tomando como base as informa??es recebidas dos sensores das rodas e dos pr?ximos objetivos do rob?. O outro computador processar? todas as informa??es referentes ? cabe?a est?reo do rob?, como as imagens recebidas das c?meras. A utiliza??o de t?cnicas de imageamento est?reo torna-se necess?ria, pois a informa??o de uma ?nica imagem n?o determina unicamente a posi??o de um dado ponto correspondente no mundo. Podemos ent?o, atrav?s da utiliza??o de duas ou mais c?meras, recuperar a informa??o de profundidade da cena. A cabe?a est?reo proposta nada mais ? que um artefato f?sico que deve dar suporte a duas c?meras de v?deo, moviment?-las seguindo requisi??es de programas (softwares) apropriados e ser capaz de fornecer sua pose atual. Fatores como velocidade angular de movimenta??o das c?meras, precis?o espacial e acur?cia s?o determinantes para o eficiente resultado dos algoritmos que nesses valores se baseiam
|
2 |
Correspond?ncia est?reo usando imagens em multiresolu??o com profundidade vari?velMedeiros, Marcos Dumay de 18 December 2006 (has links)
Made available in DSpace on 2014-12-17T14:55:32Z (GMT). No. of bitstreams: 1
MarcosDM_capa_ate_pag07.pdf: 5340923 bytes, checksum: 475069211667569a40c60f5e4bdc1e5a (MD5)
Previous issue date: 2006-12-18 / We propose a multi-resolution, coarse-to-fine approach for stereo matching, where the first matching happens at a different depth for each pixel. The proposed technique has the potential of attenuating several problems faced by the constant depth algorithm, making it possible to reduce the number of errors or the number of comparations needed to get equivalent results. Several experiments were performed to demonstrate the method efficiency, including comparison with the traditional plain correlation technique, where the multi-resolution matching with variable depth, proposed here, generated better results with a smaller processing time / Para acelerar o rnatching em sistemas de vis?o est?reo ? proposta uma abordagem multi-resolu??o, coarse-to-fine, variando a profundidade do nivel inicial para cada pixel da imagem. A t?cnica proposta tem o potencial de atenuar diversos problemas do algoritmo com profundidade constante, tornando possivel reduzir o n?mero de erros ou o n?mero de compara??es necess?rias para obter resultados semelhantes. Para demonstrar a efici?ncia do m?todo, foram realizados v?rios experimentos, incluindo compara??o com a t?cnica tradicional de correla??o simples, na qual o rnatching usando imagens em multi-resolu??o com profundidade vari?vel obteve resultados superiores com um menor tempo de processamento
|
3 |
Posicionamento de m?ltiplos objetos a partir de vis?o est?reoVasquez, Ximena Mariel Zeballos 18 August 2015 (has links)
Submitted by Setor de Tratamento da Informa??o - BC/PUCRS (tede2@pucrs.br) on 2015-11-13T18:30:01Z
No. of bitstreams: 1
476062 - Texto Completo.pdf: 11312926 bytes, checksum: 32b5c8685befd12b44da93360c230661 (MD5) / Made available in DSpace on 2015-11-13T18:30:01Z (GMT). No. of bitstreams: 1
476062 - Texto Completo.pdf: 11312926 bytes, checksum: 32b5c8685befd12b44da93360c230661 (MD5)
Previous issue date: 2015-08-18 / The following study is about the estimation of three-dimensional position of multiple
objects captured in images in a stereo vision setting. The mathematical formalism begins
with the representation of motion in Euclidean space. After that, the projection of the
images is performed in an ideal camera perspective using homogeneous coordinates. This
results in the intrinsic and extrinsic parameters, which are part of the camera calibration.
From that, stereo vision is used to obtain three-dimensional position of objects that are
captured in the images from two cameras. Thus, depths of various objects are obtained
to reconstruct their positions.
The validation of the proposed algorithms are made through an experiment built for
this purpose. This experiment uses two cameras with semi-parallel views to the center.
In the center of the environment there is a gimbal platform, which performs a uniform
motion. Above, there is a plan with three white dots, simulating the objects position.
This motion captures two images, which are processed by the proposed algorithm. The
validation consists in making a comparison between the orientation planes of the gimbal
servomotors and reconstruction objects. / Este trabalho trata da estima??o da posi??o tridimensional de m?ltiplos objetos a partir
de imagens capturadas em um ambiente de vis?o est?reo. O formalismo matem?tico
utilizado no projeto do sistema de vis?o est?reo inicia-se com a representa??o de cen?rio,
levando todo o ambiente para um espa?o euclidiano, tamb?m chamado de representa??o
em tr?s dimens?es. Depois de representar o espa?o euclidiano no sistema de vis?o est?reo,
leva-se esse formalismo ?s proje??es das imagens numa perspectiva da c?mera ideal
em coordenadas homog?neas, das quais se obt?m a c?mera com par?metros intr?nsecos
e extr?nsecos. A partir disso, utilizam-se os conceitos de vis?o est?reo e triangulariza??o
entre as c?meras para calcular a profundidade dos diversos objetos presentes no cen?rio.
Assim, a reconstru??o tridimensional da imagem ? obtida.
A valida??o dos algoritmos propostos ? feita atrav?s de um experimento constru?do especialmente
para o sistema de vis?o est?reo, em que foram colocadas duas c?meras com
vistas semiparalelas em um ambiente, sendo tamb?m adicionada uma plataforma do tipo
gimbal movimentando-se em tr?s dimens?es. Acima dessa, ? colocado um plano com tr?s
pontos (marcadores), os quais simulam o movimento de tr?s objetos. A partir da?, s?o
capturadas duas imagens a serem processadas mediante os algoritmos propostos, resultando
na reconstru??o dos pontos no espa?o tridimensional. O processo de valida??o se d?
atrav?s da compara??o entre as orienta??es dos planos fornecidos pelo algoritmo proposto
e pelos comandos dos servomotores do gimbal.
|
4 |
Mapeamento rob?tico 2,5-D com representa??o em grade de ocupa??o-eleva??oSouza, Anderson Abner de Santana 03 August 2012 (has links)
Made available in DSpace on 2014-12-17T14:55:05Z (GMT). No. of bitstreams: 1
AndersonASS_TESE.pdf: 3250611 bytes, checksum: 4e87cd6efd2a74f4715e56d6e2aa0064 (MD5)
Previous issue date: 2012-08-03 / This work introduces a new method for environment mapping with three-dimensional
information from visual information for robotic accurate navigation. Many approaches
of 3D mapping using occupancy grid typically requires high computacional effort to both
build and store the map. We introduce an 2.5-D occupancy-elevation grid mapping, which
is a discrete mapping approach, where each cell stores the occupancy probability, the
height of the terrain at current place in the environment and the variance of this height.
This 2.5-dimensional representation allows that a mobile robot to know whether a
place in the environment is occupied by an obstacle and the height of this obstacle, thus,
it can decide if is possible to traverse the obstacle. Sensorial informations necessary to
construct the map is provided by a stereo vision system, which has been modeled with
a robust probabilistic approach, considering the noise present in the stereo processing.
The resulting maps favors the execution of tasks like decision making in the autonomous
navigation, exploration, localization and path planning. Experiments carried out with a
real mobile robots demonstrates that this proposed approach yields useful maps for robot
autonomous navigation / Este trabalho apresenta um novo m?todo de mapeamento de ambientes com rob?s
m?veis com informa??es tridimensionais para navega??o. Muitas abordagens de mapeamento
3D, usam o m?todo em grade de ocupa??o, o que resulta no uso de muito recurso
computacional tanto na constru??o como no armazenamento desses mapas. A presente
pesquisa apresenta o mapeamento 2,5-D em grade de ocupa??o-eleva??o, a qual ? definida
como uma representa??o discreta, onde cada c?lula armazena uma probabilidade de ocupa??o,
a altura do espa?o mapeado e a vari?ncia desse valor de altura.
Essa representa??o permite que um rob? m?vel tenha a ci?ncia se um lugar do seu
ambiente est? ocupado por um obst?culo e qual a altura desse obst?culo. Dessa forma,
ele pode decidir se ? poss?vel navegar sobre o obst?culo ou n?o, de acordo com suas
habilidades motoras. As informa??es sensoriais necess?rias para construir o mapa s?o
providas por um sistema de vis?o est?reo, o qual foi modelado atrav?s de uma robusta
an?lise estat?stica, considerando os ru?dos presentes no processamento est?reo. Os mapas
resultantes favorecem a execu??o de tarefas como tomadas de decis?es na navega??o
aut?noma, explora??o, localiza??o e planejamento de caminhos. Experimentos pr?ticos
reais mostram que o m?todo de mapeamento apresentado ? ?til para a navega??o de rob?s
aut?nomos
|
5 |
Um sistema de vis?o para navega??o robusta de uma plataforma rob?tica semi-aut?nomaBezerra, Jo?o Paulo de Ara?jo 19 May 2006 (has links)
Made available in DSpace on 2014-12-17T14:55:03Z (GMT). No. of bitstreams: 1
JoaoPAB.pdf: 1121359 bytes, checksum: 0140c2cdd16358b4d1f4ee69b79c5b3c (MD5)
Previous issue date: 2006-05-19 / Large efforts have been maden by the scientific community on tasks involving locomotion of mobile robots. To execute this kind of task, we must develop to the robot the ability of navigation through the environment in a safe way, that is, without collisions with the objects. In order to perform this, it is necessary to implement strategies that makes possible to detect obstacles. In this work, we deal with this problem by proposing a system that is able to collect sensory information and to estimate the possibility for obstacles to occur in the mobile robot path. Stereo cameras positioned in parallel to each other in a structure coupled to the robot are employed as the main sensory device, making possible the generation of a disparity map. Code optimizations and a strategy for data reduction and abstraction are applied to the images,
resulting in a substantial gain in the execution time. This makes possible to the high level decision processes to execute obstacle deviation in real time. This system can be employed in situations where the robot is remotely operated, as well as in situations where it depends only on itself to generate trajectories (the autonomous case) / Grandes esfor?os t?m sido despendidos pela comunidade cient?fica em tarefas de locomo??o de rob?s m?veis. Para a execu??o deste tipo de tarefa, devemos desenvolver no rob? a habilidade de navega??o no ambiente de forma segura, isto ?, sem que haja colis?es contra objetos. Para que isto seja realizado, faz-se necess?rio implementar estrat?gias que possibilitem a detec??o de obst?culos. Neste trabalho, abordamos este problema, propondo um sistema
capaz de coletar informa??es sensoriais e estimar a possibilidade de ocorr?ncia de obst?culos no percurso de um rob? m?vel. C?meras est?reo, posicionadas paralelamente uma ? outra, numa estrutura acoplada ao rob?, s?o empregadas como o dispositivo sensorial principal, pos-
sibilitando a gera??o de um mapa de disparidades. Otimiza??es de c?digo e uma estrat?gia de redu??o e abstra??o de dados s?o aplicadas ?s imagens, resultando num ganho substancial no tempo de execu??o. Isto torna poss?vel aos processos de decis?o de mais alto n?vel executar
o desvio de obst?culos em tempo real. Este sistema pode ser empregado em situa??es onde o rob? seja tele-operado, bem como em situa??es onde ele dependa de si pr?prio para gerar trajet?rias (no caso aut?nomo)
|
6 |
Um m?todo para determina??o da profundidade combinando vis?o est?reo e autocalibra??o para aplica??o em rob?tica m?velSousa Segundo, Jos? S?vio Alves de 30 April 2007 (has links)
Made available in DSpace on 2014-12-17T14:55:09Z (GMT). No. of bitstreams: 1
JoseSASS.pdf: 1375081 bytes, checksum: 1561bdbc1ba8feb7671abf9ebca84641 (MD5)
Previous issue date: 2007-04-30 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior / This work proposes a method to determine the depth of objects in a scene using a combination between stereo vision and self-calibration techniques. Determining the rel-
ative distance between visualized objects and a robot, with a stereo head, it is possible to navigate in unknown environments. Stereo vision techniques supply a depth measure by the combination of two or more images from the same scene. To achieve a depth estimates
of the in scene objects a reconstruction of this scene geometry is necessary. For such reconstruction the relationship between the three-dimensional world coordi-
nates and the two-dimensional images coordinates is necessary. Through the achievement of the cameras intrinsic parameters it is possible to make this coordinates systems relationship. These parameters can be gotten through geometric camera calibration, which, generally is made by a correlation between image characteristics of a calibration pattern with know dimensions. The cameras self-calibration allows the achievement of their
intrinsic parameters without using a known calibration pattern, being possible their calculation and alteration during the displacement of the robot in an unknown environment. In this work a self-calibration method based in the three-dimensional polar coordinates to represent image features is presented. This representation is determined by the relationship between images features and horizontal and vertical opening cameras angles.
Using the polar coordinates it is possible to geometrically reconstruct the scene. Through the proposed techniques combination it is possible to calculate a scene objects depth estimate, allowing the robot navigation in an unknown environment / Este trabalho prop?e um m?todo para determinar a profundidade de objetos em cena utilizando uma combina??o das t?cnicas de vis?o est?reo e autocalibra??o. Determinando a dist?ncia relativa entre objetos visualizados e um rob? m?vel, dotado de uma cabe?a est?reo, ? poss?vel efetuar sua navega??o em ambientes desconhecidos. As t?cnicas de vis?o est?reo fornecem uma medida de profundidade a partir da combina??o de duas ou mais imagens de uma mesma cena. Para a obten??o de estimativas da profundidade dos objetos presentes nesta cena ? necess?rio uma reconstru??o da geometria da mesma. Para tal reconstru??o ? necess?rio o relacionamento das coordenadas tridimensionais do mundo com as coordenadas bidimensionais das imagens. Atrav?s da obten??o dos par?metros intr?nsecos das c?meras ? poss?vel fazer o relacionamento entre os sistemas
de coordenadas. Estes par?metros podem ser obtidos atrav?s da calibra??o geom?trica das c?meras, a qual ? geralmente feita atrav?s da visualiza??o de um objeto padr?o de calibra??o com dimens?es conhecidas. A autocalibra??o das c?meras permite a obten??o
dos par?metros intr?nsecos das mesmas sem a utiliza??o de um padr?o conhecido de calibra??o, sendo poss?vel a obten??o e a altera??o destes durante o deslocamento do rob? m?vel em um ambiente desconhecido.
? apresentado neste trabalho um m?todo de autocalibra??o baseado na representa??o de caracter?sticas da imagem por coordenadas polares tridimensionais. Estas s?o determinadas relacionando-se caracter?sticas das imagens com os ?ngulos de abertura horizontal e vertical das c?meras. Utilizando-se estas coordenadas polares ? poss?vel efetuar uma reconstru??o geom?trica da cena de forma precisa. Atrav?s desta combina??o das t?cnicas proposta ? poss?vel obter-se uma estimativa da profundidade de objetos cena, permitindo a navega??o de um rob? m?vel aut?nomo em um ambiente desconhecido
|
Page generated in 0.0955 seconds