• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 1
  • Tagged with
  • 7
  • 7
  • 7
  • 7
  • 7
  • 4
  • 4
  • 4
  • 4
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

[en] LOCAL SLAM / [pt] LOCAL SLAM: LOCALIZAÇÃO DE CÂMERA E MAPEAMENTO LOCAL DE AMBIENTES SIMULTÂNEOS

LUCAS PINTO TEIXEIRA 07 February 2017 (has links)
[pt] Atualmente, sistemas de visão computacional em computadores portáteis estão se tornando uma importante ferramenta de uso pessoal. Sistemas de visão para localização de objetos é uma área de pesquisa muito ativa. Essa dissertação propõe um algoritmo para localizar posições no espaço e objetos em ambientes não instrumentados com o uso de uma câmera web e um computador pessoal. Para isso, são usados dois algoritmos de rastreamento de marcadores para reinicializar frequentemente um algoritmo de Visual Simultaneous Localisation and Mapping. Essa dissertação também apresenta uma implementação e um conjunto de testes para validar o algoritmo proposto. / [en] Nowadays, vision systems in portable computers are becoming an important tool for personal use. Vision systems for object localization are an active area of research. This dissertation proposes an algorithm to locate position and objects in a regular environment with the use of a simple webcam and a personal computer. To that end, we use two algorithms of marker tracking to reboot often a Visual Simultaneous Localisation and Mapping algorithm. This dissertation also presents an implementation and a set of tests that validate the proposed algorithm.
2

[en] ALGORITHMS FOR MOTOR IMAGERY PATTERN RECOGNITION IN A BRAIN-MACHINE INTERFACE / [pt] ALGORITMOS PARA RECONHECIMENTO DE PADRÕES EM IMAGÉTICA MOTORA EM UMA INTERFACE CÉREBRO-MÁQUINA

GABRIEL CHAVES DE MELO 14 August 2018 (has links)
[pt] Uma interface cérebro-máquina (ICM) é um sistema que permite a um indivíduo, entre outras coisas, controlar um dispositivo robótico por meio de sinais oriundos da atividade cerebral. Entre os diversos métodos para registrar os sinais cerebrais, destaca-se a eletroencefalografia (EEG), principalmente por ter uma rápida resposta temporal e não oferecer riscos ao usuário, além de o equipamento ter um baixo custo relativo e ser portátil. Muitas situações podem fazer com que uma pessoa perca o controle motor sobre o corpo, mesmo preservando todas as funções do cérebro, como doenças degenerativas, lesões medulares, entre outras. Para essas pessoas, uma ICM pode representar a única possibilidade de interação consciente com o mundo externo. Todavia, muitas são as limitações que impossibilitam o uso das ICMs da forma desejada, entre as quais estão as dificuldades de se desenvolver algoritmos capazes de fornecer uma alta confiabilidade em relação ao reconhecimento de padrões dos sinais registrados com EEG. A escolha pelas melhores posições dos eletrodos e as melhores características a serem extraídas do sinal é bastante complexa, pois é altamente condicionada à variabilidade interpessoal dos sinais. Neste trabalho um método é proposto para escolher os melhores eletrodos e as melhores características para pessoas distintas e é testado com um banco de dados contendo registros de sete pessoas. Posteriormente dados são extraídos com um equipamento próprio e uma versão adaptada do método é aplicada visando uma atividade em tempo real. Os resultados mostraram que o método é eficaz para a maior parte das pessoas e a atividade em tempo real forneceu resultados promissores. Foi possível analisar diversos aspectos do algoritmo e da variabilidade inter e intrapessoal dos sinais e foi visto que é possível, mesmo com um equipamento limitado, obter bons resultados mediante análises recorrentes para uma mesma pessoa. / [en] A brain-machine interface (BMI) system allows a person to control robotic devices with brain signals. Among many existing methods for signal acquisition, electroencephalography is the most often used for BCI purposes. Its high temporal resolution, safety to use, portability and low cost are the main reasons for being the most used method. Many situations can affect a person s capability of controlling their body, although brain functions remain healthy. For those people in the extreme case, where there is no motor control, a BCI can be the only way to interact with the external world. Nevertheless, it is still necessary to overcome many obstacles for making the use of BCI systems to become practical, and the most important one is the difficulty to design reliable algorithms for pattern recognition using EEG signals. Inter-subject variability related to the EEG channels and features of the signal are the biggest challenges in the way of making BCI systems a useful technology for restoring function to disabled people. In this paper a method for selecting subject-specific channels and features is proposed and validated with data from seven subjects. Later in the work data is acquired with different EEG equipment and an adapted version of the proposed method is applied aiming online activities. Results showed that the method was efficient for most people and online activities had promising results. It was possible to analyze important aspects concerning the algorithm and inter and intrasubject variability of EEG signals. Also, results showed that it is possible to achieve good results when multiple analyses are performed with the same subject, even with EEG equipment with well known limitations concerning signal quality.
3

[en] VISION BASED IN-SITU CALIBRATION OF ROBOTS WITH APPLICATION IN SUBSEA INTERVENTIONS / [pt] CALIBRAGEM VISUAL IN SITU DE MANIPULADORES ROBÓTICOS COM APLICAÇÃO EM INTERVENÇÕES SUBMARINAS

TROND MARTIN AUGUSTSON 08 May 2008 (has links)
[pt] A maioria dos robôs industriais da atualidade são programados para seguir uma trajetória pré-definida. Isto é suficiente quando o robô está trabalhando em um ambiente imutável onde todos os objetos estão em uma posição conhecida em relação à base do manipulador. No entanto, se a posição da base do robô é alterada, todas as trajetórias precisam ser reprogramadas para que ele seja capaz de cumprir suas tarefas. Outra opção é a teleoperação, onde um operador humano conduz todos os movimento durante a operação em uma arquitetura mestre-escravo. Uma vez que qualquer erro de posicionamento pode ser visualmente compensado pelo operador humano, essa configuração não requer que o robô possua alta precisão absoluta. No entanto, a desvantagem deste enfoque é a baixa velocidade e precisão se comparado com um sistema totalmente automatizado. O manipulador considerado nesta dissertação está fixo em um ROV (Remote Operating Vehicle) e é trazido até seu ambiente de trabalho por um teleoperador. A cada vez que a base do manipulador é reposicionada, este precisa estimar sua posição e orientação relativa ao ambiente de trabalho. O ROV opera em grandes profundidades, e há poucos sensores que podem operar nestas condições adversas. Isto incentiva o uso de visão computacional para estimar a posição relativa do manipulador. A diferença entre a posição real e a desejada é estimada através do uso de câmeras submarinas. A informação é enviada aos controladores para corrigir as trajetórias préprogramadas. Os comandos de movimento do manipulador podem então ser programados off-line por um sistema de CAD, sem a necessidade de ligar o robô, permitindo rapidez na validação das trajetórias. Esse trabalho inclui a calibragem tanto da câmera quanto da estrutura do manipulador. As melhores precisões absolutas obtidas por essas metodologias são combinadas para obter calibração in-situ da base do manipulador. / [en] The majority of today`s industrial robots are programmed to follow a predefined trajectory. This is sufficient when the robot is working in a fixed environment where all objects of interest are situated in a predetermined position relative to the robot base. However, if the robot`s position is altered all the trajectories have to be reprogrammed for the robot to be able to perform its tasks. Another option is teleoperation, where a human operator conducts all the movements during the operation in master-slave architecture. Since any positioning errors can be visually compensated by the human operator, this configuration does not demand that the robot has a high absolute accuracy. However, the drawback is the low speed and low accuracy of the human operator scheme. The manipulator considered in this thesis is attached to a ROV (Remote Operating Vehicle) and is brought to its working environment by the ROV operator. Every time the robot is repositioned, it needs to estimate its position and orientation relative to the work environment. The ROV operates at great depths and there are few sensors which can operate at extreme depths. This is the incentive for the use of computer vision to estimate the relative position of the manipulator. Through cameras the differences between the actual and desired position of the manipulators is estimated. This information is sent to controllers to correct the pre-programmed trajectories. The manipulator movement commands are programmed off-line by a CAD system, without need even to turn on the robot, allowing for greatest speed on its validation, as well as problem solving. This work includes camera calibration and calibration of the structure of the manipulator. The increased accuracies achieved by these steps are merged to achieve in-situ calibration of the manipulator base.
4

[en] POSITIONING AND CALIBRATION OF A UNDERWATER ROBOTIC MANIPULATOR WITH USE OF COMPUTACIONAL VISION / [pt] POSICIONAMENTO E CALIBRAÇÃO DE UM MANIPULADOR ROBÓTICO SUBMARINO COM USO DE VISÃO COMPUTACIONAL

MIGUEL ANGELO GASPAR PINTO 22 November 2006 (has links)
[pt] Muitos dos robôs industriais utilizados atualmente seguem uma programação baseada em rastreamento de trajetórias. O robô é guiado por um operador humano para localizações fixas onde ele atuará. Esses movimentos são, então, gravados na linguagem de programação residente no controlador do robô, de forma que este seja capaz de repetir as tarefas. Este método pode ser suficiente para, por exemplo, movimentar objetos entre locais fixos. Como o robô está treinado para se movimentar em posições fixas, todas as partes do manipulador, bem como todos os objetos que serão manipulados devem estar em posições bem definidas, ou uma nova programação deverá ser feita. Outra metodologia é a de teleoperação, na qual a movimentação de sistemas robóticos é executada em modo manual, no qual o operador trabalha em uma arquitetura mestre-escravo controlando direta e continuamente as posições do manipulador. Para essas tarefas é necessário apenas que o sistema possua um alto grau de repetibilidade, uma vez que quaisquer erros absolutos de posicionamento são visualmente compensados pelo operador humano. Porém em certas aplicações robóticas essas técnicas de programação de manipuladores são impraticáveis ou insatisfatórias. A primeira vem a ser impraticável no caso de alta variabilidade do ambiente onde a tarefa está sendo feita. O segundo método atribui ao robô uma precisão absoluta baixa, devido a própria deficiência da percepção humana. Este trabalho segue pelas tendências modernas de automação, as quais vêm colocando uma crescente ênfase em robôs guiados por sensores e programação off-line, automatizando total ou parcialmente muitas das tarefas a serem executadas. Sensores, como câmeras ligadas a um sistema de visão computacional, detectam diferenças entre a posição real do manipulador e a posição desejada. Estas diferenças são então enviadas para os controladores, para que estes corrijam a trajetória pré-programada. Os comandos de movimento do manipulador são programados off-line por um sistema de CAD, sem a necessidade de ativar o robô, permitindo maior velocidade em sua validação e na resolução de problemas. Apresentam-se neste trabalho metodologias e técnicas para o posicionamento do manipulador utilizando-se, para tanto, câmeras em sua extremidade. Uma vez posicionado o manipulador em relação ao espaço de coordenadas do mundo, é possível deslocá-lo com segurança e precisão em sua área de trabalho, o que é imprescindível para automatização de tarefas complexas. O trabalho está concentrado nas aplicações de técnicas de visão computacional à calibração de manipuladores. Como estudo de caso utiliza-se uma situação real, de um manipulador submarino de seis graus de liberdade, para intervenções submarinas em plataformas de petróleo. Abordam-se a calibração de câmeras, reconhecimento de padrões, correlação de padrões em imagens distintas, estereoscopia, cinemática direta e inversa de manipuladores e a união de todas estas técnicas para o posicionamento do manipulador em sua área de trabalho. / [en] Many of today´s industrial robots are still programmed to follow trajectories. The robot is guided by a human operator to the desired fixed application locations. These motions are recorded and are later edited, within the robotic language residing in the robot controller, and played back, for the robot to be able to repetitively perform its task. This methodology is enough to move objects between fixed locations. As the robot is trained to move within fixed positions, all manipulator parts, as well as all the objects which will be manipulated need to be in well defined positions, otherwise another program is needed. Another methodology would be teleoperation, where the robotic system`s movements are executed in manual mode, having the operator working in a master-slave architecture, controlling direct and continuously the positions of the robot. For these tasks it is needed only for the system to have enough repeatability, once any absolute positioning errors can be visually compensated by the human operator. On the other side, in certain robotic applications, both programming techniques are either not practical or inefficient. The first, where the human operator teaches the trajectories to the robot, is not possible when there is high variance in the environment where the task is being performed. The second method, the teleoperation, has low absolute accuracy, due the deficiencies of human perception. This project follows modern tendencies of automation, which give increasing emphasis on robots guided by sensors and off-line programming, partially or completely automating many of the tasks to be executed. Sensors such as cameras eloed to a system of computational vision detect differences between the actual and desired position of the manipulator. This information is sent to controllers to correct the pre-programated trajectory. The manipulator movement commands are programmed off-line by a CAD system, without need even to turn on the robot, allowing for greatest speed on its validation, as well as problem solving. This work presents methodologies and techniques which allow the precise positioning of the manipulator using cameras in its end-effector. Once it is positioned in relation with the world frame, it is possible to move the manipulator with safety and precision its work area, as is needed for automation of complex tasks. This work is focused on computational vision techniques applied for manipulator calibration. It is based on a real case of a subsea manipulator of six degrees of freedom, used for underwater interventions in oil exploring platforms. The subjects treated in this work include camera calibration, pattern recognition, position tracking, stereopsis, direct and inverse manipulator kinematics and the union of all techniques for manipulator positioning in the work area.
5

[en] SCENE TRACKING WITH AUTOMATIC CAMERA CALIBRATION / [pt] ACOMPANHAMENTO DE CENAS COM CALIBRAÇÃO AUTOMÁTICA DE CÂMERAS

FLAVIO SZENBERG 01 June 2005 (has links)
[pt] É cada vez mais comum, na transmissão de eventos esportivos pelas emissoras de televisão, a inserção, em tempo real, de elementos sintéticos na imagem, como anúncios, marcações no campo, etc. Geralmente, essa inserção é feita através do emprego de câmeras especiais, previamente calibradas e dotadas de dispositivos que registram seu movimento e a mudança de seus parâmetros. De posse destas informações, é simples inserir novos elementos na cena com a projeção apropriada. Nesta tese, é apresentado um algoritmo para recuperar, em tempo real e sem utilizar qualquer informação adicional, a posição e os parâmetros da câmera em uma seqüência de imagens contendo a visualização de modelos conhecidos. Para tal, é explorada a existência, nessas imagens, de segmentos de retas que compõem a visualização do modelo cujas posições são conhecidas no mundo tridimensional. Quando se trata de uma partida de futebol, por exemplo, o modelo em questão é composto pelo conjunto das linhas do campo, segundo as regras que definem sua geometria e dimensões. Inicialmente, são desenvolvidos métodos para a extração de segmentos de retas longos da primeira imagem. Em seguida é localizada uma imagem do modelo no conjunto desses segmentos com base em uma árvore de interpretação. De posse desse reconhecimento, é feito um reajuste nos segmentos que compõem a visualização do modelo, sendo obtidos pontos de interesse que são repassados a um procedimento capaz de encontrar a câmera responsável pela visualização do modelo. Para a segunda imagem da seqüência em diante, apenas uma parte do algoritmo é utilizada, levando em consideração a coerência entre quadros, a fim de aumentar o desempenho e tornar possível o processamento em tempo real. Entre diversas aplicações que podem ser empregadas para comprovar o desempenho e a validade do algoritmo proposto, está uma que captura imagens através de uma câmera para demonstrar o funcionamento do algoritmo on line. A utilização de captura de imagens permite testar o algoritmo em inúmeros casos, incluindo modelos e ambientes diferentes. / [en] In the television casting of sports events, it has become very common to insert synthetic elements to the images in real time, such as adds, marks on the field, etc. Usually, this insertion is made using special cameras, previously calibrated and provided with features that record their movements and parameter changes. With such information, inserting new objects to the scene with the adequate projection is a simple task. In the present work, we will introduce an algorithm to retrieve, in real time and using no additional information, the position and parameters of the camera in a sequence of images containing the visualization of previously-known models. For such, the method explores the existence in these images of straight-line segments that compose the visualization of the model whose positions are known in the three-dimensional world. In the case of a soccer match, for example, the respective model is composed by the set of field lines determined by the rules that define their geometry and dimensions. Firstly, methods are developed to extract long straight- line segments from the first image. Then an image of the model is located in the set formed by such segments based on an interpretation tree. With such information, the segments that compose the visualization of the model are readjusted, resulting in the obtainment of interest points which are then passed to a proceeding able to locate the camera responsible for the model`s visualization. For the second image on, only a part of the algorithm is used, taking into account the coherence between the frames, with the purpose of improving performance to allow real-time processing. Among several applications that can be employed to evaluate the performance and quality of the proposed method, there is one that captures images with a camera to show the on-line functioning of the algorithm. By using image capture, we can test the algorithm in a great variety of instances, including different models and environments.
6

[en] SEISMIC PATTERN RECOGNITION USING TIME-FREQUENCY ANALYSES / [pt] RECONHECIMENTO DE PADRÕES SÍSMICOS UTILIZANDO ANÁLISES TEMPO-FREQÜÊNCIA

MARCILIO CASTRO DE MATOS 24 June 2004 (has links)
[pt] Independente da metodologia adotada para realizar análise de fácies sísmicas, a segmentação temporal e espacial da região do reservatório deve ser realizada cuidadosamente. A confiança no resultado da interpretação depende da complexidade do sistema geológico, da qualidade dos dados sísmicos, e da experiência do intérprete. Portanto, qualquer erro de interpretação pode levar a resultados incoerentes. Especialmente, a análise de fácies sísmicas utilizando formas de onda do sinal na região do reservatório é bastante sensível a ruídos de interpretação. Sabe-se que variações no conteúdo de freqüência dos traços sísmicos podem estar associadas às informações de refletividade da sub-superfície. Conseqüentemente, análises conjuntas em tempo - freqüência podem levar a formas não convencionais para a caracterização de reservatórios. Especificamente, esta tese propõe o uso das propriedades em tempo - freqüência, obtidas através do algoritmo de matching pursuit, e das singularidades detectadas e caracterizadas via transformada wavelet, como ferramenta para detecção de eventos sísmicos e para análise não supervisionada de fácies sísmicas quando associadas ao agrupamento dos mapas auto organizáveis de Kohonen. / [en] Independent of the adopted methodology to perform the seismic facies analysis, the geological oriented spatial and temporal segmentation of the reservoir region should be carefully done. Depending on the complexity of the reservoir system, seismic data quality, and the experience of the interpreter, the level of confidence in an interpretation can vary from very high to very low. Therefore, any interpretation error could lead to wrong or noisy results. Specially, when using seismic trace shapes, defined by the values of the seismic samples along each segmented trace, as the seismic input attributes to the chosen seismic facies algorithm. These facies analysis artifacts are introduced because seismic waveform in the reservoir delimited area changes quickly as a function of the interpretation, then waveforms with almost the same shape could be assigned to different classes due only to their different phases. It is known that variations of the frequency content of a seismic trace with time carry information about the properties of the subsurface reflectivity sequence. Consequently, seismic trace time- frequency analyses could provide an unconventional way to reservoir characterization. Specifically, in this work we propose to use the time-frequency properties of the atoms obtained after the matching pursuit signal representation and the singularities identified by wavelet transform, jointly with Self Organizing Maps as an unsupervised seismic facies analyses system.
7

[en] AN IDENTIFICATION SYSTEM BASED ON IRIS STRUCTURE ANALYSIS / [pt] SISTEMA DE IDENTIFICAÇÃO BASEADA NA ESTRUTURA DA ÍRIS

RODRIGO DA COSTA NASCIMENTO 28 December 2005 (has links)
[pt] O reconhecimento de humanos pela íris é um dos sistemas mais seguros de identificação biométrica e, motivou a construção de um protótipo de identificação humana baseada na estrutura da íris. O sistema construído é composto de um dispositivo de captura de imagens da íris humana e algoritmos para pré- processamento da imagem, para a representação e o reconhecimento. Cada um dos elementos que compõem o protótipo são avaliados a partir de dois bancos de dados de imagens de íris. Os resultados demonstraram que o dispositivo proposto e os modelos apresentados são capazes de realizar o reconhecimento humano através da íris de forma eficiente. / [en] The recognition of human beings for the Iris is one of the safest systems of biometric identification. This motivated the construction of a prototype for identification of human beings based on the structure of the Iris. The constructed system is composed of a device capable to capture images of the Iris and algorithms for image pre - processing, for the representation and recognition each element composing the prototype is evaluated using two data bases of Iris images. The results have demonstrated that the prototype and the presented models are capable to efficiently identify the human based on Iris structure.

Page generated in 0.0428 seconds