• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 49
  • 1
  • Tagged with
  • 51
  • 51
  • 45
  • 26
  • 25
  • 23
  • 20
  • 20
  • 19
  • 12
  • 11
  • 9
  • 9
  • 9
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

A influ?ncia do status social no forrageio de itens camuflados e avermelhados em sag?is (Callithrix jacchus) cativos

Coletti, Luciane Dutra 20 May 2010 (has links)
Made available in DSpace on 2014-12-17T15:36:58Z (GMT). No. of bitstreams: 1 Luciane Dutra Coletti_DISSERT.pdf: 1662787 bytes, checksum: ee4eb6d750011a6b9a0e7fbe38856b71 (MD5) Previous issue date: 2010-05-20 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior / Seeing colors can be advantageous, because they are an important signal for providing information about the environment, such as the location of food. However, not every animals sees these chromatic signals in the same way. In primates, the group of Plathyrrhini has polymorphic sex-linked vision with males always dichromats and dichromats or trichromats females. Studies indicate that trichromats during foraging would benefit by seeing better than dichromats ripe fruits against the green foliage background. On the other hand, dichromats appear to distinguish camouflaged insects better than trichromats. The marmoset (Callihtrix jacchus) is a neotropical primate species that have color vision polymorphism. This species establishes family groups with highly reproductive bias, with breeding females often having preferential access to food. This work aims to study whether the social context influences the foraging ability of camouflaged and red items in groups of C. jacchus. Four groups of captive marmosets were presented to four food tasks, involving difficult, easy, reddish and camouflaged food targets. Foods were presented in a concentrated and dispersed manner, to check whether there was monopolization of the resources by the dominant subjects and if this would affect the ability of individuals to find the food targets. Success was measured by latency to food acquisition and number of targets consumed. Males and females differed in their foraging success for camouflaged and reddish items, although this difference has not appeared in all situations and experimental conditions. In general males were more successful for detecting camouflaged items while females succeeded more in identifying reddish items. There were no differences in foraging success between individuals of different social status, however, there were differences in the success of consumption of food items for different situations when food was concentrate compared with dispersed food. Taken as a role, there was a greater difficulty in detecting food items when they were presented in concentrated arrangement, which is supposed to be related to a higher difficulty to approach and stay near the food. Although it appears that there was no direct competition seems to have group's indirect influence on the detection of food items and foraging success of individuals, affecting mainly those items more difficult to detect / Enxergar cores pode ser vantajoso, j? que elas s?o um importante sinal por fornecer informa??es a respeito do ambiente, tal como a localiza??o do alimento. No entanto, nem todos os animais enxergam estes sinais crom?ticos da mesma forma. Nos primatas, o grupo dos Plathyrrhini possui vis?o polim?rfica ligada ao sexo, com os machos sempre dicromatas e as f?meas podendo ser dicromatas ou tricromatas. Estudos indicam que os tricromatas teriam vantagens no forrageio por enxergar melhor que os dicromatas os frutos maduros avermelhados contra o fundo verde de folhagens. J? os dicromatas distinguiriam melhor insetos camuflados do que os tricromatas. O sag?i (Callithrix jacchus) ? uma esp?cie de primata neotropical que possui vis?o de cores polim?rfica. Esta esp?cie constitui grupos familiares com alto vi?s reprodutivo e as f?meas reprodutoras geralmente t?m acesso preferencial ao alimento. Neste trabalho verificou-se se este contexto social exerce influ?ncia na habilidade de forrageio de itens camuflados e avermelhados em grupos de C. jacchus. Foram apresentadas a quatro grupos de sag?is cativos quatro tarefas alimentares, com alvos alimentares dif?ceis, f?ceis, avermelhados e camuflados. Os alimentos foram apresentados de forma concentrada e de forma dispersa, para verificar se haver? monopoliza??o do recurso pelos sujeitos dominantes e se esta afetaria a habilidade dos indiv?duos em encontrar os alvos alimentares. O sucesso foi medido atrav?s do tempo de lat?ncia na aquisi??o e n?mero de itens consumidos. Machos e f?meas diferiram no sucesso de forrageio para itens camuflados e avermelhados, embora esta diferen?a n?o tenha aparecido em todas as situa??es e condi??es experimentais. De forma geral machos tiveram mais sucesso para os itens camuflados e as f?meas mais sucesso para os itens avermelhados. N?o foram encontradas diferen?as no sucesso de forrageio entre indiv?duos de status sociais diferentes, no entanto, existiram diferen?as no sucesso de aquisi??o de itens alimentares em diferentes situa??es experimentais quando o alimento era apresentado concentrado em rela??o a quando era apresentado disperso. No todo, houve uma maior dificuldade de detec??o dos itens alimentares quando estes eram apresentados concentrados, sugerindo uma maior dificuldade de aproxima??o e perman?ncia nas proximidades do alimento. Embora pare?a n?o ter existido uma competi??o direta, ? poss?vel ter havido influ?ncia indireta do grupo na detec??o dos itens alimentares e no sucesso de forrageio dos indiv?duos, influindo principalmente naqueles itens de mais dif?cil detec??o pelos animais
2

Correspond?ncia est?reo usando imagens em multiresolu??o com profundidade vari?vel

Medeiros, Marcos Dumay de 18 December 2006 (has links)
Made available in DSpace on 2014-12-17T14:55:32Z (GMT). No. of bitstreams: 1 MarcosDM_capa_ate_pag07.pdf: 5340923 bytes, checksum: 475069211667569a40c60f5e4bdc1e5a (MD5) Previous issue date: 2006-12-18 / We propose a multi-resolution, coarse-to-fine approach for stereo matching, where the first matching happens at a different depth for each pixel. The proposed technique has the potential of attenuating several problems faced by the constant depth algorithm, making it possible to reduce the number of errors or the number of comparations needed to get equivalent results. Several experiments were performed to demonstrate the method efficiency, including comparison with the traditional plain correlation technique, where the multi-resolution matching with variable depth, proposed here, generated better results with a smaller processing time / Para acelerar o rnatching em sistemas de vis?o est?reo ? proposta uma abordagem multi-resolu??o, coarse-to-fine, variando a profundidade do nivel inicial para cada pixel da imagem. A t?cnica proposta tem o potencial de atenuar diversos problemas do algoritmo com profundidade constante, tornando possivel reduzir o n?mero de erros ou o n?mero de compara??es necess?rias para obter resultados semelhantes. Para demonstrar a efici?ncia do m?todo, foram realizados v?rios experimentos, incluindo compara??o com a t?cnica tradicional de correla??o simples, na qual o rnatching usando imagens em multi-resolu??o com profundidade vari?vel obteve resultados superiores com um menor tempo de processamento
3

Posicionamento de m?ltiplos objetos a partir de vis?o est?reo

Vasquez, Ximena Mariel Zeballos 18 August 2015 (has links)
Submitted by Setor de Tratamento da Informa??o - BC/PUCRS (tede2@pucrs.br) on 2015-11-13T18:30:01Z No. of bitstreams: 1 476062 - Texto Completo.pdf: 11312926 bytes, checksum: 32b5c8685befd12b44da93360c230661 (MD5) / Made available in DSpace on 2015-11-13T18:30:01Z (GMT). No. of bitstreams: 1 476062 - Texto Completo.pdf: 11312926 bytes, checksum: 32b5c8685befd12b44da93360c230661 (MD5) Previous issue date: 2015-08-18 / The following study is about the estimation of three-dimensional position of multiple objects captured in images in a stereo vision setting. The mathematical formalism begins with the representation of motion in Euclidean space. After that, the projection of the images is performed in an ideal camera perspective using homogeneous coordinates. This results in the intrinsic and extrinsic parameters, which are part of the camera calibration. From that, stereo vision is used to obtain three-dimensional position of objects that are captured in the images from two cameras. Thus, depths of various objects are obtained to reconstruct their positions. The validation of the proposed algorithms are made through an experiment built for this purpose. This experiment uses two cameras with semi-parallel views to the center. In the center of the environment there is a gimbal platform, which performs a uniform motion. Above, there is a plan with three white dots, simulating the objects position. This motion captures two images, which are processed by the proposed algorithm. The validation consists in making a comparison between the orientation planes of the gimbal servomotors and reconstruction objects. / Este trabalho trata da estima??o da posi??o tridimensional de m?ltiplos objetos a partir de imagens capturadas em um ambiente de vis?o est?reo. O formalismo matem?tico utilizado no projeto do sistema de vis?o est?reo inicia-se com a representa??o de cen?rio, levando todo o ambiente para um espa?o euclidiano, tamb?m chamado de representa??o em tr?s dimens?es. Depois de representar o espa?o euclidiano no sistema de vis?o est?reo, leva-se esse formalismo ?s proje??es das imagens numa perspectiva da c?mera ideal em coordenadas homog?neas, das quais se obt?m a c?mera com par?metros intr?nsecos e extr?nsecos. A partir disso, utilizam-se os conceitos de vis?o est?reo e triangulariza??o entre as c?meras para calcular a profundidade dos diversos objetos presentes no cen?rio. Assim, a reconstru??o tridimensional da imagem ? obtida. A valida??o dos algoritmos propostos ? feita atrav?s de um experimento constru?do especialmente para o sistema de vis?o est?reo, em que foram colocadas duas c?meras com vistas semiparalelas em um ambiente, sendo tamb?m adicionada uma plataforma do tipo gimbal movimentando-se em tr?s dimens?es. Acima dessa, ? colocado um plano com tr?s pontos (marcadores), os quais simulam o movimento de tr?s objetos. A partir da?, s?o capturadas duas imagens a serem processadas mediante os algoritmos propostos, resultando na reconstru??o dos pontos no espa?o tridimensional. O processo de valida??o se d? atrav?s da compara??o entre as orienta??es dos planos fornecidos pelo algoritmo proposto e pelos comandos dos servomotores do gimbal.
4

M?todo gen?rico para estima??o e modelagem do erro RMS em dados de profundidade de sensores para vis?o 3D

Fernandez, Luis Enrique Ortiz 05 July 2017 (has links)
Submitted by Automa??o e Estat?stica (sst@bczm.ufrn.br) on 2017-11-06T21:05:53Z No. of bitstreams: 1 LuisEnriqueOrtizFernandez_DISSERT.pdf: 11059946 bytes, checksum: bdd41462c0c6560f2ac2ded683b3e6b2 (MD5) / Approved for entry into archive by Arlan Eloi Leite Silva (eloihistoriador@yahoo.com.br) on 2017-11-20T22:59:57Z (GMT) No. of bitstreams: 1 LuisEnriqueOrtizFernandez_DISSERT.pdf: 11059946 bytes, checksum: bdd41462c0c6560f2ac2ded683b3e6b2 (MD5) / Made available in DSpace on 2017-11-20T22:59:57Z (GMT). No. of bitstreams: 1 LuisEnriqueOrtizFernandez_DISSERT.pdf: 11059946 bytes, checksum: bdd41462c0c6560f2ac2ded683b3e6b2 (MD5) Previous issue date: 2017-07-05 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior (CAPES) / Na vis?o artificial usam-se v?rios dispositivos como o MS Kinect v1/v2, as c?meras est?reo PG Bumblebee XB3 e a Stereolabs ZED, entre outros. Como todos s?o dispositivos que estimam dados de profundidade, podem conter erros. Neste trabalho, apresenta-se o projeto e implementa??o de um m?todo gen?rico para a estima??o do erro RMS em dados de profundidade fornecidos por qualquer dispositivo, capaz de gerar dados do tipo RGB-D, isto ?, uma imagem e um mapa de profundidade ao mesmo tempo. Para verifica??o do m?todo foi constru?do um sistema embarcado baseado na placa NVIDIA Jetson TK1 e tr?s sensores, as duas vers?es do MS Kinect e a c?mera est?reo ZED. No momento da coleta de dados foram estabelecidos os modelos matem?ticos do erro RMS para cada dispositivo e, ao final, foi feita uma an?lise da exatid?o de cada um. / In the artificial vision are used several devices like MS Kinect v1 / v2, the stereo cameras PG Bumblebee XB3 and Stereolabs ZED, among others. Because they are all devices that estimate depth data, they may contain errors. In this work, we present the design and implementation of a generic method for estimating the RMS error in depth data provided by any device, capable of generating data of type RGB-D, that is, an image and a depth map Same time. To verify the method was built an embedded system based on the NVIDIA Jetson TK1 and three sensors, the two versions of MS Kinect and the ZED stereo camera. At the moment of the data collection, the mathematical models of the RMS error were established for each device and, at the end, an analysis was made of the accuracy of each one.
5

Uma interface para o controle de rob?s m?veis por interm?dio de gestos

Albuquerque, Oto Emerson de 27 April 2016 (has links)
Submitted by Automa??o e Estat?stica (sst@bczm.ufrn.br) on 2016-08-16T20:26:43Z No. of bitstreams: 1 OtoEmersonDeAlbuquerque_DISSERT.pdf: 17507163 bytes, checksum: 867588f4230e7727922cb32ba8c2b9d5 (MD5) / Approved for entry into archive by Arlan Eloi Leite Silva (eloihistoriador@yahoo.com.br) on 2016-08-18T22:15:11Z (GMT) No. of bitstreams: 1 OtoEmersonDeAlbuquerque_DISSERT.pdf: 17507163 bytes, checksum: 867588f4230e7727922cb32ba8c2b9d5 (MD5) / Made available in DSpace on 2016-08-18T22:15:11Z (GMT). No. of bitstreams: 1 OtoEmersonDeAlbuquerque_DISSERT.pdf: 17507163 bytes, checksum: 867588f4230e7727922cb32ba8c2b9d5 (MD5) Previous issue date: 2016-04-27 / Ag?ncia Nacional do Petr?leo - ANP / Esse trabalho tem como objetivo o estudo de t?cnicas de vis?o computacional para o reconhecimento de gestos humanos, bem como sua aplica??o ao controle de rob?s m?veis. S?o analisados os desafios e propostas algumas solu??es para o desenvolvimento de uma interface simples, a qual permita o reconhecimento e a interpreta??o dos gestos gerados pela m?o humana, no intuito de controlar os movimentos de um rob?. Neste contexto, foi desenvolvido um programa em C++ para captar as imagens geradas por uma c?mera de alta defini??o e, a partir da informa??o extra?da das imagens, definir qual movimento seria realizado pelo rob?. Para auxiliar a tarefa de reconhecimento e processamento da imagem captada foram utilizadas fun??es da biblioteca OpenCV. Os resultados obtidos com a interface desenvolvida confirmam e demonstram a viabilidade de aplica??o desta tecnologia. / The main objective of this work was to enable the recognition of human gestures through the development of a computer program. The program created captures the gestures executed by the user through a camera attached to the computer and sends it to the robot command referring to the gesture. They were interpreted in total ve gestures made by human hand. The software (developed in C ++) widely used the computer vision concepts and open source library OpenCV that directly impact the overall e ciency of the control of mobile robots. The computer vision concepts take into account the use of lters to smooth/blur the image noise reduction, color space to better suit the developer's desktop as well as useful information for manipulating digital images. The OpenCV library was essential in creating the project because it was possible to use various functions/procedures for complete control lters, image borders, image area, the geometric center of borders, exchange of color spaces, convex hull and convexity defect, plus all the necessary means for the characterization of imaged features. During the development of the software was the appearance of several problems, as false positives (noise), underperforming the insertion of various lters with sizes oversized masks, as well as problems arising from the choice of color space for processing human skin tones. However, after the development of seven versions of the control software, it was possible to minimize the occurrence of false positives due to a better use of lters combined with a well-dimensioned mask size (tested at run time) all associated with a programming logic that has been perfected over the construction of the seven versions. After all the development is managed software that met the established requirements. After the completion of the control software, it was observed that the overall e ectiveness of the various programs, highlighting in particular the V programs: 84.75 %, with VI: 93.00 % and VII with: 94.67 % showed that the nal program performed well in interpreting gestures, proving that it was possible the mobile robot control through human gestures without the need for external accessories to give it a better mobility and cost savings for maintain such a system. The great merit of the program was to assist capacity in demystifying the man set/machine therefore uses an easy and intuitive interface for control of mobile robots. Another important feature observed is that to control the mobile robot is not necessary to be close to the same, as to control the equipment is necessary to receive only the address that the Robotino passes to the program via network or Wi-Fi.
6

Registro global de nuvens de pontos RGB-D em tempo real usando fluxo ?ptico e marcadores

Silva, Bruno Marques Ferreira da 31 July 2015 (has links)
Submitted by Automa??o e Estat?stica (sst@bczm.ufrn.br) on 2016-05-03T22:56:47Z No. of bitstreams: 1 BrunoMarquesFerreiraDaSilva_TESE.pdf: 3729350 bytes, checksum: c9553610a20c907ef1ea2b82c67a5095 (MD5) / Approved for entry into archive by Arlan Eloi Leite Silva (eloihistoriador@yahoo.com.br) on 2016-05-05T19:39:25Z (GMT) No. of bitstreams: 1 BrunoMarquesFerreiraDaSilva_TESE.pdf: 3729350 bytes, checksum: c9553610a20c907ef1ea2b82c67a5095 (MD5) / Made available in DSpace on 2016-05-05T19:39:25Z (GMT). No. of bitstreams: 1 BrunoMarquesFerreiraDaSilva_TESE.pdf: 3729350 bytes, checksum: c9553610a20c907ef1ea2b82c67a5095 (MD5) Previous issue date: 2015-07-31 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior (CAPES) / O registro de nuvens de pontos capturadas por sensores de profundidade ? uma importante etapa em aplica??es de reconstru??o 3D. Em diversos casos como localiza??o e mapeamento para rob?tica ou realidade aumentada para entretenimento, o registro deve ser realizado n?o s? com precis?o estrita, como tamb?m na frequ?ncia de dados de aquisi??o do sensor. Com o objetivo de registrar nuvens de pontos de sensores RGB-D (p. ex. Microsoft Kinect), ? proposto nesta tese o uso do algoritmo de fluxo ?ptico piramidal esparso para registro incremental a partir de dados de apar?ncia e profundidade. O erro acumulado inerente ao processo incremental ? posteriormente reduzido, atrav?s do uso de um marcador artificial e minimiza??o de erro por otimiza??o em grafo de poses. Resultados experimentais obtidos ap?s o processamento de diversos conjuntos de dados RGB-D validam o sistema proposto por esta tese para aplica??es de odometria visual, SLAM visual e digitaliza??o de objetos em tempo real. / Registration of point clouds captured by depth sensors is an important task in 3D reconstruction applications based on computer vision. In many applications with strict performance requirements, the registration should be executed not only with precision, but also in the same frequency as data is acquired by the sensor. This thesis proposes theuse of the pyramidal sparse optical flow algorithm to incrementally register point clouds captured by RGB-D sensors (e.g. Microsoft Kinect) in real time. The accumulated errorinherent to the process is posteriorly minimized by utilizing a marker and pose graph optimization. Experimental results gathered by processing several RGB-D datasets validatethe system proposed by this thesis in visual odometry and simultaneous localization and mapping (SLAM) applications.
7

Localiza??o de rob?s m?veis em ambientes fechados utilizando c?meras montadas no teto

Nascimento, Rafaella Cristianne Alves do 23 January 2014 (has links)
Submitted by Automa??o e Estat?stica (sst@bczm.ufrn.br) on 2016-06-23T20:02:06Z No. of bitstreams: 1 RafaellaCristianneAlvesDoNascimento_DISSERT.pdf: 1896894 bytes, checksum: 7c8df9fd5eb6694e9ab97eb6419d27ec (MD5) / Approved for entry into archive by Arlan Eloi Leite Silva (eloihistoriador@yahoo.com.br) on 2016-06-27T19:57:21Z (GMT) No. of bitstreams: 1 RafaellaCristianneAlvesDoNascimento_DISSERT.pdf: 1896894 bytes, checksum: 7c8df9fd5eb6694e9ab97eb6419d27ec (MD5) / Made available in DSpace on 2016-06-27T19:57:21Z (GMT). No. of bitstreams: 1 RafaellaCristianneAlvesDoNascimento_DISSERT.pdf: 1896894 bytes, checksum: 7c8df9fd5eb6694e9ab97eb6419d27ec (MD5) Previous issue date: 2014-01-23 / Propomos um sistema de localiza??o de rob?s m?veis em ambientes fechados utilizando a t?cnica de vis?o global. Uma aplica??o pode ser em museus virtuais, que podem ser acessados por usu?rios do mundo inteiro, usando um avatar rob?tico, possibilitando ainda a esses mesmos usu?rios a oportunidade de estabelecer uma presen?a virtual dentro do museu real, a atrav?s de uma plataforma rob?tica m?vel colocada dentro do espa?o f?sico real, permitindo a esse usu?rio locomover-se virtualmente dentro do museu real. O sistema aqui proposto visa melhorar o processo de localiza??o desse guia rob?tico dentro do ambiente interno, j? que os sensores instalados no mesmo acumulam erros, sem contar o fato de que as constantes mudan?as ocorridas nesse tipo de ambiente acaba muitas vezes por introduzir ainda mais erros, ou mesmo at? invalidar os dados obtidos devido a um total bloqueio de um determinado sensor. Por ser um m?todo de localiza??o que s? leva em considera??es informa??es do momento atual, a localiza??o de rob?s atrav?s de imagens adequa-se bem a esse tipo de ambiente. Al?m disso ela proporciona tamb?m resultados mais acurados em tempo real. / The localization of mobile robots in indoor environments finds lots of problems such as accumulated errors and the constant changes that occur at these places. A technique called global vision intends to localize robots using images acquired by cameras placed in such a way that covers the place where the robots movement takes place. Localization is obtained by marks put on top of the robot. Algorithms applied to the images search for the mark on top of the robot and by finding the mark they are able to get the position and orientation of the robot. Such techniques used to face some difficulties related with the hardware capacity, fact that limited their execution in real time. However, the technological advances of the last years changed that situation and enabling the development and execution of such algorithms in plain capacity. The proposal specified here intends to develop a mobile robot localization system at indoor environments using a technique called global vision to track the robot and acquire the images, all in real time, intending to improve the robot localization process inside the environment. Being a localization method that takes just actual information in its calculations, the robot localization using images fit into the needs of this kind of place. Besides, it enables more accurate results and in real time, what is exactly the museum application needs.
8

Merleau-Ponty: uma ontologia do vis?vel

Pereira, S?rgio Vieira 08 December 2015 (has links)
Submitted by Automa??o e Estat?stica (sst@bczm.ufrn.br) on 2016-07-08T21:41:38Z No. of bitstreams: 1 SergioVieiraPereira_DISSERT.pdf: 1015305 bytes, checksum: bcdf2b7ab848dbee28852e70ca164fed (MD5) / Approved for entry into archive by Arlan Eloi Leite Silva (eloihistoriador@yahoo.com.br) on 2016-07-13T19:58:41Z (GMT) No. of bitstreams: 1 SergioVieiraPereira_DISSERT.pdf: 1015305 bytes, checksum: bcdf2b7ab848dbee28852e70ca164fed (MD5) / Made available in DSpace on 2016-07-13T19:58:41Z (GMT). No. of bitstreams: 1 SergioVieiraPereira_DISSERT.pdf: 1015305 bytes, checksum: bcdf2b7ab848dbee28852e70ca164fed (MD5) Previous issue date: 2015-12-08 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior (CAPES) / O presente trabalho discute a profundidade e opacidade do mundo percebido no pensamento de Maurice Merleau-Ponty (1908-1961) em contraposi??o ? transpar?ncia do mundo geom?trico pensado por Ren? Descartes (1596-1650). Num primeiro momento ? abordado o discurso cartesiano desenvolvido na Di?ptricade Descartes,o primeiro de uma s?rie de tr?s discursos cient?ficos publicados em 1637, sendo introduzidos pelo famoso Discurso do M?todo. Neste sentido,esta pesquisa discorre sobre a explica??o mecanicista que o fil?sofo moderno apresenta acerca da vis?o, um processo que abrange a forma??o das imagens na retina e sua comunica??o ao c?rebro, bem como a posterior leitura realizada por uma mente imaterial. Discute-se a no??o de imagem enquanto resultado da interpreta??o do esp?rito, pois, para Descartes, n?o ? o olho que v?, mas sim o esp?rito que l? e decodifica os sinais que o corpo recebe do mundo. Noutro momento, reflete-se sobre a cr?tica do fil?sofo Maurice Merleau-Ponty ao pensamento de sobrevoo presente na Di?ptrica de Descartes. Para tanto, toma-se como principal refer?ncia a terceira parte da obra O Olho e o Esp?rito (1961), na qual a abordagem intelectualista da vis?o ? considerada como uma tentativa fracassada de se afastar do vis?vel para reconstru?-lo a partir de lugar nenhum. Neste sentido, reflete-se sobre uma nova ontologia proposta por Merleau-Ponty que pensa o ser sem se afastar dos enigmas do corpo e de vis?o. Enigmas que manifestam uma promiscuidade entre o vidente e o vis?vel, entre o senciente e o sens?vel. Desse modo, o presente trabalho discorre sobre o modo como a visibilidade foi tratada pelo fil?sofo contempor?neo, n?o como algo a ser julgado pelo esp?rito para obter uma real natureza das coisas, mas como uma manifesta??o das coisas mesmas. Por fim, esta pesquisa explora a ontologia do vis?vel no pensamento merleaupontiano, uma ontologia que n?o reconstr?i nem se apropria do vis?vel por um pensamento de sobrevoo, mas que se faz a partir da pr?pria visibilidade enquanto rela??o origin?ria e incessante com a profundidade do mundo. / This work discusses the ontology of the visible at the thought of Maurice Merleau-Ponty (1908-1961), which points to a depth and opacity of the perceived world that oppose transparency of geometric world thought by Ren? Descartes (1596-1650). At first we approached the Cartesian discourse developed in Dioptrics Descartes, the first of three scientific discourses published in 1637, being introduced by the famous Discourse method. In this sense, this research discusses the mechanistic explanation that the modern philosopher has the vision, process comprising the formation of images on the retina and its communication to the brain, and the subsequent reading performed by an immaterial mind. Discusses the notion of image as a result of the interpretation of the spirit because, for Descartes, is not the eye that sees, but the spirit that reads and decodes the signals that the body receives the world. At another point, reflected on the criticism of the philosopher Maurice Merleau-Ponty at the thought of overflight present in Dioptrics Descartes. Therefore, it takes as its reference the third part of the book The Eye and the Spirit (1961), in which the intellectualist approach of vision is considered a failed attempt to move away from the visible to rebuild it from anywhere . In this sense, it reflects on a new ontology proposed by Merleau-Ponty thinking being without departing from the puzzles of the body and vision. Puzzles that show a promiscuity between the seer and the seen, between sentient and sensitive. Thus, this paper discusses how visibility was treated by the contemporary philosopher, not as something to be judged by the spirit to get a real nature of things, but as a manifestation of the same things. Finally, this research explores the ontology of the visible in merleaupontiano thought, an ontology that does not rebuild or appropriates visible by a thought of overflight, but what you do from your own visibility as compared original and constant with depth in the world.
9

Localiza??o de rob?s m?veis aut?nomos utilizando fus?o sensorial de odometria e vis?o monocular

Santos, Guilherme Leal 07 May 2010 (has links)
Made available in DSpace on 2014-12-17T14:55:46Z (GMT). No. of bitstreams: 1 GuilhermeLS_DISSERT.pdf: 861871 bytes, checksum: 8461d130e59e8fb9ac951602b094fd18 (MD5) Previous issue date: 2010-05-07 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior / The development and refinement of techniques that make simultaneous localization and mapping (SLAM) for an autonomous mobile robot and the building of local 3-D maps from a sequence of images, is widely studied in scientific circles. This work presents a monocular visual SLAM technique based on extended Kalman filter, which uses features found in a sequence of images using the SURF descriptor (Speeded Up Robust Features) and determines which features can be used as marks by a technique based on delayed initialization from 3-D straight lines. For this, only the coordinates of the features found in the image and the intrinsic and extrinsic camera parameters are avaliable. Its possible to determine the position of the marks only on the availability of information of depth. Tests have shown that during the route, the mobile robot detects the presence of characteristics in the images and through a proposed technique for delayed initialization of marks, adds new marks to the state vector of the extended Kalman filter (EKF), after estimating the depth of features. With the estimated position of the marks, it was possible to estimate the updated position of the robot at each step, obtaining good results that demonstrate the effectiveness of monocular visual SLAM system proposed in this paper / O desenvolvimento e aperfei?oamento de t?cnicas que fa?am simultaneamente o mapeamento e a localiza??o (Simultaneous Localization and Mapping - SLAM) de um rob? m?vel aut?nomo e a cria??o de mapas locais 3-D, a partir de uma sequ?ncia de imagens, ? bastante estudada no meio cient?fico. Neste trabalho ? apresentado uma t?cnica de SLAM visual monocular baseada no filtro de Kalman estendido, que utiliza caracter?sticas encontradas em uma sequ?ncia de imagens atrav?s do descritor SURF (Speeded Up Robust Features) e determina quais caracter?sticas podem ser utilizadas como marcas atrav?s de uma t?cnica de inicializa??o atrasada baseada em retas 3-D. Para isso, tem-se dispon?vel apenas as coordenadas das caracter?sticas detectadas na imagem e os par?metros intr?nsecos e extr?nsecos da c?mera. ? poss?vel determinar a posi??o das marcas somente com a disponibilidade da informa??o de profundidade. Os experimentos realizados mostraram que durante o percurso, o rob? m?vel detecta a presen?a de caracter?sticas nas imagens e, atrav?s de uma t?cnica proposta para inicializa??o atrasada de marcas, adiciona novas marcas ao vetor de estados do filtro de Kalman estendido (FKE) ap?s estimar a profundidade das caracter?sticas. Com a posi??o estimada das marcas, foi poss?vel estimar a posi??o atualizada do rob? a cada passo; obtendo resultados satisfat?rios que comprovam a efici?ncia do sistema de SLAM visual monocular proposto neste trabalho
10

Implementa??o de rotinas computacionais b?sicas para cabe?a est?reo rob?tica

Bezerra, Leonardo Campos do Amaral 03 June 2006 (has links)
Made available in DSpace on 2014-12-17T14:55:56Z (GMT). No. of bitstreams: 1 LeonardoCAB.pdf: 2653129 bytes, checksum: 81e936a3b39b5e7d9320b932dd5ae5ea (MD5) Previous issue date: 2006-06-03 / O Laborat?rio de Sistemas Inteligentes do Departamento de Engenharia de Computa??o e Automa??o da Universidade Federal do Rio Grande do Norte - UFRN -tem como um de seus projetos de pesquisa -Robosense -a constru??o de uma plataforma rob?tica m?vel. Trata-se de um rob? provido de duas rodas, acionadas de forma diferencial, dois bra?os, com 5 graus de liberdade cada, um cintur?o de sonares e uma cabe?a est?reo. Como objetivo principal do projeto Robosense, o rob? dever? ser capaz de navegar por todo o pr?dio do LECA, desviando de obst?culos. O sistema de navega??o do rob?, respons?vel pela gera??o e seguimento de rotas, atuar? em malha fechada. Ou seja, sensores ser?o utilizados pelo sistema com o intuito de informar ao rob? a sua pose atual, incluindo localiza??o e a configura??o de seus recursos. Encoders (sensores especiais de rota??o) foram instalados nas rodas, bem como em todos os motores dos dois bra?os da cabe?a est?reo. Sensores de fim-de-curso foram instalados em todas as juntas da cabe?a est?reo para que seja poss?vel sua pr?-calibra??o. Sonares e c?meras tamb?m far?o parte do grupo de sensores utilizados no projeto. O rob? contar? com uma plataforma composta por, a princ?pio, dois computadores ligados a um barramento ?nico para uma opera??o em tempo real, em paralelo. Um deles ser? respons?vel pela parte de controle dos bra?os e de sua navega??o, tomando como base as informa??es recebidas dos sensores das rodas e dos pr?ximos objetivos do rob?. O outro computador processar? todas as informa??es referentes ? cabe?a est?reo do rob?, como as imagens recebidas das c?meras. A utiliza??o de t?cnicas de imageamento est?reo torna-se necess?ria, pois a informa??o de uma ?nica imagem n?o determina unicamente a posi??o de um dado ponto correspondente no mundo. Podemos ent?o, atrav?s da utiliza??o de duas ou mais c?meras, recuperar a informa??o de profundidade da cena. A cabe?a est?reo proposta nada mais ? que um artefato f?sico que deve dar suporte a duas c?meras de v?deo, moviment?-las seguindo requisi??es de programas (softwares) apropriados e ser capaz de fornecer sua pose atual. Fatores como velocidade angular de movimenta??o das c?meras, precis?o espacial e acur?cia s?o determinantes para o eficiente resultado dos algoritmos que nesses valores se baseiam

Page generated in 0.05 seconds