Spelling suggestions: "subject:"visa?o""
11 |
Acelerando algoritmos de baixo n?vel em vis?o rob?tica com hardware reconfigur?velAra?jo, Gianna Rodrigues de 18 February 2011 (has links)
Made available in DSpace on 2014-12-17T14:56:13Z (GMT). No. of bitstreams: 1
GiannaRA_DISSERT.pdf: 1176207 bytes, checksum: 70ba58037ee2ef159df7163e1a1f1d62 (MD5)
Previous issue date: 2011-02-18 / Conselho Nacional de Desenvolvimento Cient?fico e Tecnol?gico / A challenge that remains in the robotics field is how to make a robot to react in real
time to visual stimulus. Traditional computer vision algorithms used to overcome this problem
are still very expensive taking too long when using common computer processors.
Very simple algorithms like image filtering or even mathematical morphology operations
may take too long. Researchers have implemented image processing algorithms in high
parallelism hardware devices in order to cut down the time spent in the algorithms processing,
with good results. By using hardware implemented image processing techniques
and a platform oriented system that uses the Nios II Processor we propose an approach
that uses the hardware processing and event based programming to simplify the vision
based systems while at the same time accelerating some parts of the used algorithms / Um desafio que ainda resta no campo da rob?tica ? como fazer um rob? reagir em
tempo real a est?mulos visuais. T?cnicas tradicionais de vis?o rob?tica usadas para resolver
este problema ainda s?o muito caras tomando muito tempo quando se usa processadores
convencionais. Algoritmos simples com filtragem em imagens ou opera??es de
morfologia matem?tica podem tomar muito tempo de execu??o. Pesquisadores t?m implementado
algoritmos de processamento de imagens em dispositivos de hardware com
alto grau de paralelismo, visando diminuir o tempo de processamento nos algoritmos,
com bons resultados. Usando t?cnicas de processamento de imagens implementadas em
hardware e um sistema orientado a plataforma que usa o processador Nios II, propomos
um m?todo que usa processamento em hardware e programa??o baseada a eventos, para
simplificar sistemas baseados em vis?o, enquanto que, ao mesmo tempo, conseguimos
acelerar algumas partes dos algoritmos usados
|
12 |
Multifoveamento em multirresolu??o com f?veas m?veisMedeiros, Petr?cio Ricardo Tavares de 20 July 2016 (has links)
Submitted by Automa??o e Estat?stica (sst@bczm.ufrn.br) on 2017-03-14T21:32:46Z
No. of bitstreams: 1
PetrucioRicardoTavaresDeMedeiros_DISSERT.pdf: 5937912 bytes, checksum: c98c0e639d8348140e2635081d9744f4 (MD5) / Approved for entry into archive by Arlan Eloi Leite Silva (eloihistoriador@yahoo.com.br) on 2017-03-15T22:29:35Z (GMT) No. of bitstreams: 1
PetrucioRicardoTavaresDeMedeiros_DISSERT.pdf: 5937912 bytes, checksum: c98c0e639d8348140e2635081d9744f4 (MD5) / Made available in DSpace on 2017-03-15T22:29:35Z (GMT). No. of bitstreams: 1
PetrucioRicardoTavaresDeMedeiros_DISSERT.pdf: 5937912 bytes, checksum: c98c0e639d8348140e2635081d9744f4 (MD5)
Previous issue date: 2016-07-20 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior (CAPES) / O foveamento ? uma t?cnica de vis?o computacional capaz de promover a redu??o da
informa??o visual atrav?s de uma transforma??o da imagem, em dom?nio espacial, para o
dom?nio de multirresolu??o. Entretanto, esta t?cnica se limita a uma ?nica f?vea com mobilidade
dependente do contexto. Neste trabalho s?o propostas a defini??o e a constru??o
de um modelo multifoveado denominado MMMF (multifoveamento em multirresolu??o
com f?veas m?veis) baseado em um modelo anterior denominado MMF (multirresolu??o
com f?vea m?vel). Em um contexto de m?ltiplas f?veas, a aplica??o de v?rias estruturas
MMF, uma para cada f?vea, resulta em um consider?vel aumento de processamento,
uma vez que h? interse??es entre regi?es de estruturas distintas, as quais s?o processadas
m?ltiplas vezes. Dadas as estruturas de f?veas MMF, propomos um algoritmo para obter
regi?es disjuntas que devem ser processadas, evitando regi?es redundantes e, portanto,
reduzindo o tempo de processamento. Experimentos s?o propostos para validar o modelo
e verificar a sua aplicabilidade no contexto de vis?o computacional. Resultados demonstram
o ganho em termos de tempo de processamento do modelo proposto em rela??o ao
uso de m?ltiplas f?veas do modelo MMF. / Foveation is a computer vision technique for visual information reduction obtained
by applying an image transformation in the spatial domain to the multiresolution domain.
However, this technique is limited to a single fovea context-dependent mobility.
This work proposes the definition and the construction of a multifoveated model called
MMMF (Multiresolution Multifoveation using Mobile Foveae) based on an earlier model
called MMF (Multiresolution with Moving Fovea). In the context of multiple foveae, the
application of various MMF structures, one for each fovea, results in an increase in processing
time, since there are intersections between regions of different structures, which
are processed multiple times. Given MMF structures, an algorithm in order to get disjoint
regions which are to be processed is proposed, avoiding redundant regions and thereby
reducing the processing time. Experiments are proposed to validate the model and to verify
its applicability in the computer vision context. Results show the gain in processing
time of the proposed model compared to the use of multiple MMF structures.
|
13 |
Um sistema de vis?o para navega??o robusta de uma plataforma rob?tica semi-aut?nomaBezerra, Jo?o Paulo de Ara?jo 19 May 2006 (has links)
Made available in DSpace on 2014-12-17T14:55:03Z (GMT). No. of bitstreams: 1
JoaoPAB.pdf: 1121359 bytes, checksum: 0140c2cdd16358b4d1f4ee69b79c5b3c (MD5)
Previous issue date: 2006-05-19 / Large efforts have been maden by the scientific community on tasks involving locomotion of mobile robots. To execute this kind of task, we must develop to the robot the ability of navigation through the environment in a safe way, that is, without collisions with the objects. In order to perform this, it is necessary to implement strategies that makes possible to detect obstacles. In this work, we deal with this problem by proposing a system that is able to collect sensory information and to estimate the possibility for obstacles to occur in the mobile robot path. Stereo cameras positioned in parallel to each other in a structure coupled to the robot are employed as the main sensory device, making possible the generation of a disparity map. Code optimizations and a strategy for data reduction and abstraction are applied to the images,
resulting in a substantial gain in the execution time. This makes possible to the high level decision processes to execute obstacle deviation in real time. This system can be employed in situations where the robot is remotely operated, as well as in situations where it depends only on itself to generate trajectories (the autonomous case) / Grandes esfor?os t?m sido despendidos pela comunidade cient?fica em tarefas de locomo??o de rob?s m?veis. Para a execu??o deste tipo de tarefa, devemos desenvolver no rob? a habilidade de navega??o no ambiente de forma segura, isto ?, sem que haja colis?es contra objetos. Para que isto seja realizado, faz-se necess?rio implementar estrat?gias que possibilitem a detec??o de obst?culos. Neste trabalho, abordamos este problema, propondo um sistema
capaz de coletar informa??es sensoriais e estimar a possibilidade de ocorr?ncia de obst?culos no percurso de um rob? m?vel. C?meras est?reo, posicionadas paralelamente uma ? outra, numa estrutura acoplada ao rob?, s?o empregadas como o dispositivo sensorial principal, pos-
sibilitando a gera??o de um mapa de disparidades. Otimiza??es de c?digo e uma estrat?gia de redu??o e abstra??o de dados s?o aplicadas ?s imagens, resultando num ganho substancial no tempo de execu??o. Isto torna poss?vel aos processos de decis?o de mais alto n?vel executar
o desvio de obst?culos em tempo real. Este sistema pode ser empregado em situa??es onde o rob? seja tele-operado, bem como em situa??es onde ele dependa de si pr?prio para gerar trajet?rias (no caso aut?nomo)
|
14 |
Discurso da historicidade como cr?tica do discurso da metaf?sica : domina??o do discurso da vis?o em rela??o ? subordina??o do discurso da miscigena??oNienov, Christian Otto Muniz 12 November 2010 (has links)
Made available in DSpace on 2015-04-14T13:55:06Z (GMT). No. of bitstreams: 1
427438.pdf: 3367783 bytes, checksum: 5ee022e1ea8192432d136a6a55b2d1e2 (MD5)
Previous issue date: 2010-11-12 / A arqueologia do saber ? o livro reconhecidamente metodol?gico ou te?rico de Foucault que procura estabelecer contato entre filosofia e hist?ria. Grosso modo, este livro pretende dar conta da rela??o entre an?lise das forma??es discursivas e descri??o dos enunciados. Ora, independentemente da proposta expl?cita do autor, nosso estudo tem por escopo mostrar como a constitui??o do discurso da historicidade, como domina??o do discurso da vis?o em rela??o ? subordina??o do discurso da miscigena??o, que ? elimina??o do discurso da metaf?sica (ou discurso do invis?vel) devido ? possibilidade de solidariedade do discurso da miscigena??o com o discurso da metaf?sica, como domina??o do discurso da metaf?sica em rela??o ? subordina??o do discurso da miscigena??o, ? a sustenta??o fundamental de A arqueologia do saber. O discurso da historicidade ? discurso da vis?o como busca do ideal epistemol?gicoperceptivo da vis?o solit?ria e soberana (que descarta a audi??o e subordina o tato) e ideal pedag?gico-argumentativo da vis?o absoluta ou total (que elimina o invis?vel). O discurso da vis?o ? a indissociabilidade entre necessidade da presen?a e exig?ncia do espa?o (cuja fun??o ? a perman?ncia no vis?vel) que leva ? descri??o da especificidade (cuja fun??o ? a fixa??o da vis?o).O discurso da historicidade ? o avesso do discurso da metaf?sica (ou o discurso da metaf?sica revela o avesso do discurso da historicidade), por isso a cr?tica da aus?ncia, da utopia e da generalidade (cuja fun??o ? a elimina??o do invis?vel). O discurso da miscigena??o ? a harmonia entre rela??o, multiplicidade, tempo e guerra. O discurso da historicidade domina o discurso da miscigena??o (atrav?s do discurso da vis?o), por isso o controle da rela??o, da multiplicidade, do tempo e da guerra mediante presentifica??o, espacializa??o e especifica??o: a mobilidade da multiplicidade, por exemplo, pode lev?-la ao infinito ou ilimitado, ou ? unidade (domina??o do discurso da metaf?sica como discurso do invis?vel), por isso sua imobiliza??o (atrav?s da especificidade como singularidade: propriedade da individualidade, precis?o da min?cia e separa??o da distin??o) para a fixa??o da vis?o (domina??o do discurso da historicidade como discurso da vis?o). Acompanha a explica??o da constitui??o do discurso da historicidade a utiliza??o da met?fora do estrangeiro como seu modelo de inteligibilidade privilegiado: a vontade do estrangeiro, a apologia da hist?ria mediante a defesa do discurso da historicidade, ? o transporte das suas heran?as filos?ficas contradit?rias, a afirma??o da epistemologia atrav?s do elogio do discurso da vis?o, e a nega??o da metaf?sica mediante a cr?tica do discurso do invis?vel.
|
15 |
Fus?o de imagens e sensores inerciais para a estima??o e controle de ve?culos aut?nomosVancin, Paulo Henrique 27 December 2016 (has links)
Submitted by Caroline Xavier (caroline.xavier@pucrs.br) on 2017-04-10T15:08:08Z
No. of bitstreams: 1
DIS_PAULO_HENRIQUE_VANCIN_COMPLETO.pdf: 3234416 bytes, checksum: 53fbe981d0db83ced33b8b3f4247c2f8 (MD5) / Made available in DSpace on 2017-04-10T15:08:08Z (GMT). No. of bitstreams: 1
DIS_PAULO_HENRIQUE_VANCIN_COMPLETO.pdf: 3234416 bytes, checksum: 53fbe981d0db83ced33b8b3f4247c2f8 (MD5)
Previous issue date: 2016-12-27 / The present dissertation proposes a sensoring technique of autonomous vehicles based on the fusion of inertial sensors and data collected from a camera. The autonomous vehicle designed in this project was built using "Mecanum" wheels, which gives the vehicle the capability to move in any direction without having to change orientation. The sensoring system proposed is based on the Extended Kalman Filter using quaternions for the fusion of inertial sensors and computer vision, with the objective of finding the global position and orientation of the system. The inertial measurements used in these systems are made by an accelerometer and a gyroscope. The computer vision aspect of the project is done by a digital camera and an image processing software, which is designed to capture colored points in the image. The theory used to design the vehicle?s controller is based on the Lyapunov?s Stability Theory. This project presents a theoretical basis related to the various elements that compose the system, the mathematical basis used in the filter?s implementation and the controller?s design, a general view of the vehicle?s structure used to validate the theory and the results obtained in practical tests. The system?s performance analysis was based on the analysis of graphics that shows the vehicle?s trajectory, the position and orientation of the system over time and the stability of the proposed control law. The obtained results shows that the proposed objectives were met in a satisfactory manner. / A presente disserta??o prop?e uma t?cnica de sensoreamento de ve?culos aut?nomos baseada na fus?o de sensores inerciais e de dados provenientes de uma c?mera. O ve?culo aut?nomo utilizado neste trabalho foi constru?do a partir de rodas "Mecanum", que lhe conferem a caracter?stica de omnidirecionalidade, ou seja, ? capaz de movimenta??o em todas as dire??es, sem a necessidade de mudan?a de orienta??o. O sensoreamento proposto ? fundamentado no Filtro de Kalman Estendido utilizando quat?rnios para a fus?o de sensores inerciais e vis?o computacional, com o objetivo de encontrar a posi??o global e orienta??o do sistema. As medi??es inerciais utilizadas nestes sistemas s?o realizadas por uma Unidade de Medi??es Inerciais (IMU). J? a vis?o computacional fica a cargo de uma c?mera aliada a um processamento de imagens, o qual tem por fun??o captar pontos coloridos na imagem. A teoria utilizada para a constru??o do controlador do ve?culo ? baseada na teoria de estabilidade de Lyapunov. Este controlador tem como prop?sito controlar o deslocamento linear e n?o linear do ve?culo omnidirecional. Sendo assim, este trabalho apresenta uma base te?rica relacionada aos diversos elementos que comp?em o sistema, a fundamenta??o matem?tica utilizada para a implementa??o do filtro e da formula??o do controlador, uma vis?o geral da constru??o do ve?culo utilizado para validar a teoria e os resultado obtidos a partir de testes pr?ticos. A an?lise do desempenho do sistema p?de ser feita a partir da an?lise de gr?ficos que mostram a trajet?ria realizada pelo ve?culo, a posi??o e orienta??o do sistema ao longo do tempo e a estabilidade da lei de controle proposta. Os resultados obtidos evidenciam que os objetivos propostos foram alcan?ados de forma satisfat?ria.
|
16 |
Avalia??o da mem?ria visual, em indiv?duos saud?veis, pela resson?ncia magn?tica funcionalCosta, Danielle Irigoyen da 30 March 2006 (has links)
Made available in DSpace on 2015-04-14T13:34:42Z (GMT). No. of bitstreams: 1
380547.pdf: 9911323 bytes, checksum: 1ea45ed4068d4f5c18fd23d939965696 (MD5)
Previous issue date: 2006-03-30 / Introdu??o: A Resson?ncia Magn?tica Funcional (RMf), como m?todo de investiga??o n?oinvasivo do funcionamento cerebral, permite a localiza??o topogr?fica das ?reas relacionadas ? mem?ria e outras fun??es corticais superiores em indiv?duos normais. Embora n?o nos forne?a, no momento atual, a riqueza e a din?mica das inter-rela??es dos processos cognitivos, vem trazendo grandes avan?os ao conhecimento cient?fico, planejamento terap?utico de patologias que envolvem o Sistema Nervoso Central e para a pesquisa em Neuroci?ncia. Objetivo: Este estudo buscou investigar, com RMf, as regi?es encef?licas ativadas por diferentes tarefas de mem?ria visual em uma amostra de volunt?rios saud?veis. Metodologia: Foi realizado um estudo transversal para avalia??o da ativa??o funcional das ?reas encef?licas relacionadas ? mem?ria visual, em um grupo de 15 volunt?rios h?gidos. Todos os sujeitos realizaram avalia??o neuropsicol?gica, preencheram duas escalas para investiga??o de sintomatologia neuropsiqui?trica (Invent?rio de Depress?o de Beck e Invent?rio de Ansiedade de Beck), responderam a um question?rio para exclus?o de qualquer patologia que pudesse alterar a performance durante as tarefas propostas (Question?rio para exclus?o de patologia neurol?gica ou psiqui?trica), realizaram investiga??o da domin?ncia manual atrav?s de question?rio espec?fico (Teste de Domin?ncia Manual modificado), preencheram o informativo ao paciente do Centro de Diagn?stico por Imagem do Hospital S?o Lucas da PUCRS e se submeteram ao exame de RMf, ap?s afirmarem sua concord?ncia em participar do estudo (Termo de Consentimento Livre e Esclarecido). Para estimula??o da mem?ria visual, durante a RMf, foram utilizadas duas tarefas de memoriza??o para posterior reconhecimento, incluindo est?mulos de faces e figuras abstratas. Todas as tarefas foram alternadas com per?odo de repouso. Resultados: As regi?es ativadas na tarefa de memoriza??o de faces n?o-familiares inclu?ram o giro angular (lobo parietal), culmen (cerebelo anterior), ?nsula, precuneus (lobo parietal), giro frontal inferior (lobo frontal) e put?men; a regi?o ativada no reconhecimento de faces n?ofamiliares foi o precuneus (lobo parietal). As regi?es ativadas na memoriza??o de padr?es abstratos inclu?ram o t?lamo, giro temporal transverso (giro de Heschl), declive (cerebelo posterior), put?men, ?nsula e regi?o occipital inferior; as regi?es ativadas no reconhecimento de padr?es abstratos inclu?ram cerebelo anterior, giro temporal inferior (lobo temporal) e declive (cerebelo posterior). Conclus?o: Foram observadas ativa??es em diversas regi?es encef?licas, indicando que circuitos neuronais multifocais s?o engajados na realiza??o destas opera??es mentais. O estudo da mem?ria mant?m-se como algo complexo, imposs?vel de redu??o a uma ?nica teoria geral, seja ela em bases psicol?gicas, neurofisiol?gicas, entre outras. O objetivo atual parece ser entender, tendo em vista a aplica??o pr?tica. Este estudo traz consigo novas perspectivas para um melhor entendimento da mem?ria visual em seres humanos, al?m de instigar a continuidade das pesquisas em RMf.
|
17 |
Modelo de apoio ? navega??o em cal?adas para pessoas com defici?ncia visual / Support model for navigating sidewalks for visually impaired personsGhilardi, Marcelo Cabral 28 March 2016 (has links)
Submitted by Setor de Tratamento da Informa??o - BC/PUCRS (tede2@pucrs.br) on 2016-09-05T16:23:22Z
No. of bitstreams: 1
DIS_MARCELO_CABRAL_GHILARDI_COMPLETO.pdf: 9873850 bytes, checksum: 8dda795f1c369ca356a953b551349a46 (MD5) / Made available in DSpace on 2016-09-05T16:23:22Z (GMT). No. of bitstreams: 1
DIS_MARCELO_CABRAL_GHILARDI_COMPLETO.pdf: 9873850 bytes, checksum: 8dda795f1c369ca356a953b551349a46 (MD5)
Previous issue date: 2016-03-28 / There are more than 35.7 million people with visual impairments in Brazil, of these 6.5 million are totally blind or have great difficulty to see, even with lenses. The white cane and the guide dog are the most used resources to support the mobility of those individuals. However, the white cane offers little information and the guide dog is a resource difficult to
access. Considering this context, there are several studies related to navigation support in
urban environments for individuals with visual impairments, but there are still many gaps to
be researched. The main goal of this work is to present a model that, based on computer
vision techniques, can help people with visual impairments to walk on sidewalks. This model offers an integrated solution for location and identification of tactile paving, detection of aerial obstacles, detection of obstacles on the ground and location of crosswalks. The environment information is obtained in several ways, such as camera, ultrasonic sensor and satellite images, and the feedback to the user is sonorous. Experimental results are presented and demonstrate the viability of this approach. / No Brasil, h? mais de 35,7 milh?es de pessoas com defici?ncia visual, sendo que destas 6,5 milh?es s?o incapazes enxergar de modo algum ou possuem grande dificuldade mesmo com lentes. A bengala longa e o c?o guia s?o os meios mais utilizados para auxiliar a mobilidade destes indiv?duos. Por?m, a bengala longa oferece pouca informa??o e o c?o guia ? um recurso de dif?cil acesso. Considerando este contexto, existem v?rios estudos relacionados ao aux?lio a navega??o em ambientes urbanos para indiv?duos com defici?ncia visual, por?m ainda h? muitas lacunas para serem pesquisadas. O objetivo deste trabalho ? apresentar um modelo que, baseado em t?cnicas de vis?o computacional, possa auxiliar indiv?duos com defici?ncia visual a trafegar em cal?adas. Este modelo apresenta uma solu??o integrada para localiza??o e identifica??o de piso t?til, detec??o obst?culos a?reos, detec??o de obst?culos terrestres e localiza??o de faixas de pedestres. As informa??es do ambiente s?o obtidas atrav?s de v?rios meios, tais como c?mera, sensor de ultrassom e imagens de sat?lite, e o feedback ao usu?rio ? sonoro. Resultados experimentais s?o
apresentados e demonstram a viabilidade desta abordagem.
|
18 |
An?lise do comportamento de t?cnicas de correspond?ncia binocular para imagens em alta defini??oLopes, Sandro Bruno do Nascimento 30 July 2015 (has links)
Submitted by Automa??o e Estat?stica (sst@bczm.ufrn.br) on 2016-06-23T20:02:07Z
No. of bitstreams: 1
SandroBrunoDoNascimentoLopes_DISSERT.pdf: 44855381 bytes, checksum: 920f5824ac83fbeeb814ed494a6a7cc0 (MD5) / Approved for entry into archive by Arlan Eloi Leite Silva (eloihistoriador@yahoo.com.br) on 2016-06-27T20:06:11Z (GMT) No. of bitstreams: 1
SandroBrunoDoNascimentoLopes_DISSERT.pdf: 44855381 bytes, checksum: 920f5824ac83fbeeb814ed494a6a7cc0 (MD5) / Made available in DSpace on 2016-06-27T20:06:11Z (GMT). No. of bitstreams: 1
SandroBrunoDoNascimentoLopes_DISSERT.pdf: 44855381 bytes, checksum: 920f5824ac83fbeeb814ed494a6a7cc0 (MD5)
Previous issue date: 2015-07-30 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior (CAPES) / Neste trabalho, verificamos o comportamento de alguns algoritmos usualmente dispon?veis na literatura de correspond?ncia est?reo com imagens full HD (1920x1080 pixels) e estabelecemos, dentro do dilema precis?o versus tempo de execu??o, quais aplica??es estes m?-todos podem ser melhor aproveitadas. As imagens s?o obtidas por um um sistema composto por uma filmadora est?reo acoplada a um computador por meio de uma aplaca de captura. A biblioteca OpenCV ? utilizada para as opera??es de vis?o computacional e processamento de imagens envolvida, cujo projeto possui artigo publicado em congresso. Os algoritmos analisados s?o um m?todo global de busca por correspond?ncia em blocos com soma do valor absoluto das diferen?as (SAD), uma t?cnica global baseada em corte de grafos de energia, frequentemente conhecida como graph cuts, e uma uma t?cnica de correspond?ncia dita semi-global. Dentre os crit?rios estabelecidos est?o o tempo de processamento, o consumo de mem?ria e o n?mero de pixels mal-correspondidos. Como contribui??o do traballho, podemos usar as an?lises realizadas para indicar os melhores algoritmos a serem usados em diversos casos, princip?lmente usando os crit?rios de tempo real x precis?o. / This work presents an analysis of the behavior of some algorithms usually available in stereo
correspondence literature, with full HD images (1920x1080 pixels) to establish, within the
precision dilemma versus runtime applications which these methods can be better used. The
images are obtained by a system composed of a stereo camera coupled to a computer via a capture
board. The OpenCV library is used for computer vision operations and processing images
involved. The algorithms discussed are an overall method of search for matching blocks with
the Sum of the Absolute Value of the difference (Sum of Absolute Differences - SAD), a global
technique based on cutting energy graph cuts, and a so-called matching technique semi -global.
The criteria for analysis are processing time, the consumption of heap memory and the mean
absolute error of disparity maps generated.
|
19 |
Controle de Manipulador Redundante Utilizando Realimenta??o VisualDias, Anfranserai Morais 02 August 2002 (has links)
Made available in DSpace on 2014-12-17T14:56:04Z (GMT). No. of bitstreams: 1
AnfranseraiMD.pdf: 2426744 bytes, checksum: d0579aab855282deeac9bb5717c5ab5a (MD5)
Previous issue date: 2002-08-02 / In conventional robot manipulator control, the desired path is specified in cartesian space and converted to joint space through inverse kinematics mapping. The joint references generated by this mapping are utilized for dynamic control in joint space. Thus, the end-effector position is, in fact, controlled indirectly, in open-loop, and the accuracy of grip position control directly depends on the accuracy of the available kinematic model. In this report, a new scheme for redundant manipulator kinematic control, based on visual servoing is proposed. In the proposed system, a robot image acquired through a CCD camera is processed in order to compute the position and orientation of each link of the robot arm. The robot task is specified as a temporal sequence of reference images of the robot arm. Thus, both the measured pose and the reference pose are specified in the same image space, and its difference is utilized to generate a cartesian space error for kinematic control purposes. The proposed control scheme was applied in a four degree-of-freedom planar redundant robot arm, experimental results are shown / No controle convencional de manipuladores rob?ticos, a trajet?ria desejada ? especificada em espa?o cartesiano e mapeada para espa?o de juntas atrav?s do modelo cinem?tico inverso do manipulador. As novas refer?ncias assim geradas s?o utilizadas para fins de controle din?mico em espa?o de juntas, desde modo a posi??o da garra ? controlada efetivamente em malha aberta e a precis?o do controle depende diretamente da precis?o do modelo cinem?tico dispon?vel. Esta disserta??o apresenta um novo algoritmo de controle cinem?tico para bra?os redundantes baseado em realimenta??o visual. No sistema proposto, a imagem do rob? ? captada por uma c?mera e processada, para obter a posi??o e orienta??o de cada um dos elos do rob?. A trajet?ria do rob? ? especificada na forma de uma seq??ncia temporal de imagens de refer?ncia do bra?o rob?tico. Assim, ambas as poses, a medida e a de refer?ncia s?o especificadas no mesmo espa?o de imagem e a sua diferen?a ? utilizada para gerar um erro em espa?o cartesiano para prop?sitos de controle cinem?tico. O esquema de controle proposto foi aplicado a um manipulador redundante planar de quatro graus de liberdade, resultados experimentais s?o apresentados
|
20 |
Encoding mechanisms based on fast oscillations in the retina of the cat and their dependencies on anesthesiaFreitag, F?bio Batista 27 August 2013 (has links)
Made available in DSpace on 2014-12-17T15:28:53Z (GMT). No. of bitstreams: 1
FabioBF_DISSERT.pdf: 6339300 bytes, checksum: d864db11d9029d4bcca9a2aaf6e2f131 (MD5)
Previous issue date: 2013-08-27 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior / Processing in the visual system starts in the retina. Its complex network of cells
with different properties enables for parallel encoding and transmission of visual
information to the lateral geniculate nucleus (LGN) and to the cortex. In the retina, it
has been shown that responses are often accompanied by fast synchronous oscillations
(30 - 90 Hz) in a stimulus-dependent manner. Studies in the frog, rabbit, cat and
monkey, have shown strong oscillatory responses to large stimuli which probably
encode global stimulus properties, such as size and continuity (Neuenschwander and
Singer, 1996; Ishikane et al., 2005). Moreover, simultaneous recordings from different
levels in the visual system have demonstrated that the oscillatory patterning of retinal
ganglion cell responses are transmitted to the cortex via the LGN (Castelo-Branco et al.,
1998). Overall these results suggest that feedforward synchronous oscillations
contribute to visual encoding.
In the present study on the LGN of the anesthetized cat, we further investigate
the role of retinal oscillations in visual processing by applying complex stimuli, such as
natural visual scenes, light spots of varying size and contrast, and flickering
checkerboards. This is a necessary step for understanding encoding mechanisms in
more naturalistic conditions, as currently most data on retinal oscillations have been
limited to simple, flashed and stationary stimuli. Correlation analysis of spiking
responses confirmed previous results showing that oscillatory responses in the retina
(observed here from the LGN responses) largely depend on the size and stationarity of
the stimulus. For natural scenes (gray-level and binary movies) oscillations appeared
only for brief moments probably when receptive fields were dominated by large
continuous, flat-contrast surfaces. Moreover, oscillatory responses to a circle stimulus
could be broken with an annular mask indicating that synchronization arises from
relatively local interactions among populations of activated cells in the retina.
A surprising finding in this study was that retinal oscillations are highly
dependent on halothane anesthesia levels. In the absence of halothane, oscillatory
activity vanished independent of the characteristics of the stimuli. The same results
were obtained for isoflurane, which has similar pharmacological properties. These new
and unexpected findings question whether feedfoward oscillations in the early visual
system are simply due to an imbalance between excitation and inhibition in the retinal
networks generated by the halogenated anesthetics. Further studies in awake behaving
animals are necessary to extend these conclusions / O processamento da informa??o visual se inicia na retina. A sua complexa rede
de c?lulas com diferentes propriedades permite que a informa??o visual seja codificada
em canais paralelos e transmitida para o n?cleo geniculado lateral (LGN) e o c?rtex.
Na retina, tais respostas est?o frequentemente acompanhadas por oscila??es
sincronizadas de alta frequ?ncia (30 90 Hz) em uma maneira dependente do est?mulo.
Como demonstrado em estudos na r?, coelho, gato e macaco, respostas oscilat?rias
ocorrem em geral a est?mulos relativamente grandes, podendo codificar propriedades
globais do est?mulo como o tamanho e continuidade (Neuenschwander and Singer,
1996; Ishikane et al., 2005). Al?m disso, registros simult?neos em diferentes n?veis do
sistema visual t?m mostrado que o padr?o de oscila??o nas c?lulas ganglionares
retinianas ? transmitido para o c?rtex visual via LGN (Castelo-Branco et al., 1998). De
uma forma geral, esses resultados sugerem que oscila??es sincronizadas em uma
maneira feedforward s?o importantes na codifica??o da informa??o visual.
No presente estudo feito no LGN de gatos anestesiados, investigamos o papel
das oscila??es retinianas no processamento de informa??o visual atrav?s da
apresenta??o de est?mulos complexos, como cenas naturais, pixels aleat?rios no tempo
e espa?o, al?m de grades em movimento. Esse ? um importante passo para o
entendimento de mecanismos de codifica??o em condi??es naturais, j? que grande
parte dos estudos que investigaram o papel de oscila??es retinianas utilizaram-se de
est?mulos simples e estacion?rios. An?lises de correla??o de respostas neuronais
(spiking responses) confirmaram resultados pr?vios mostrando que respostas
oscilat?rias na retina (observadas aqui a partir de registros no LGN) dependem do
tamanho e estacionariedade do est?mulo. Para filmes de cenas naturais (em escala de
cinza e preto e branco) oscila??es apareceram apenas por breves momentos
provavelmente quando os campos receptores foram dominados por padr?es extensos e
cont?nuos (para ambas as escalas). As atividades oscilat?rias parecem ser dependentes
de uma massa cr?tica de c?lulas ativadas sugerindo que esse padr?o regular de
atividade surge atrav?s de intera??es horizontais na retina.
Nossos resultados mostram, al?m disto, que surpreendentemente oscila??es da
retina no gato s?o dependentes da anestesia mediada por halotano. Na aus?ncia deste,
atividades oscilat?rias estiveram ausentes independentemente das caracter?sticas dos
est?mulos visuais. Resultados semelhantes foram obtidos para o isoflurano, anest?sico
com propriedades farmacol?gicas similares. Esse novo e inesperado resultado nos faz
questionar se oscila??es feedforward no sistema visual n?o seriam resultado de um
desequil?brio entre correntes de excita??o e inibi??o nas redes retinianas gerado pelos
anest?sicos halogenados. Experimentos futuros em animais acordados ser?o
necess?rios para confirmar essas conclus?es
|
Page generated in 0.0498 seconds