• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 19
  • 3
  • Tagged with
  • 22
  • 22
  • 22
  • 17
  • 16
  • 15
  • 11
  • 11
  • 7
  • 6
  • 6
  • 6
  • 6
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Desenvolvimento de um sistema mecatrônico para soldagem multipasses monitorado por visão computadorizada.

Carlos Eduardo Ferreira Silva 00 December 1997 (has links)
As companhias industriais que utilizam extensivamente o processo de soldagem estão buscando o crescimento de sua produtividade através de sistemas automatizados que apresentam alta produção e repetibilidade. Para os casos onde a soldagem é feita por multipasses em chapas de larga espessura, as exigências de qualidade e produtividade na execução da atividade para os sistemas automatizados são ainda mais rígidos. Algumas companhias que possuem disponibilidade financeira resolvem este problema com uma unidade robótica de soldagem, constituída por um ou mais robôs antropomórficos, em geral com seis graus de liberdade, mesas indexadas e a própria unidade de soldagem. Companhias de médio porte, no entanto, procuram resolver este problema com uma solução de baixo custo através de uma unidade motora que desloca a tocha de soldagem a uma velocidade constante através da chapa a ser soldada. Esta solução, extremamente rígida, coloca uma carga de trabalho muito grande sobre o operador, que é exigido na monitoração constante da correta colocação do passe de soldagem, reposicionamento da tocha ao final de cada passe, e regulagem da altura da tocha de soldagem. Considerando essas duas possíveis soluções, este trabalho vem a introduzir uma solução mecatrônica para a soldagem multipasses, com as mesmas condições de monitoramento do primeiro caso e com custos na ordem de grandeza daqueles observados no segundo.
2

Projeto e implementação de um sistema de visão robótica para manipulação e alinhamento de grandes estruturas por meio de um manipulador robótico

Leandro Augusto di Sanzo Guilherme 17 December 2014 (has links)
Este trabalho apresenta o desenvolvimento de um sistema de medição baseado em visão computacional, que consiga se comunicar com um manipulador robótico e, por meio das medidas realizadas, possa orientar o robô manipulador de forma a posicionar um objeto de geometria qualquer em uma posição alvo. Para tanto foram utilizadas câmeras industriais e dois tipos de análise no mesmo sistema. A primeira se baseia em uma análise metrológica individual de cada câmera, tendo por base sua calibração e análise de alvos conhecidos, fixos aos objetos que se deseja posicionar, assim como a identificação de algumas características do objeto. A segunda análise se baseia no trabalho em conjunto de, pelo menos, duas câmeras, que geram uma análise, em visão estéreo, do ambiente de trabalha do manipulador robótico. Para verificação e testes dos procedimentos propostos foi utilizado um robô manipulador industrial antropomorfo de seis graus de liberdade, sistemas de metrologia externos, tais como Laser Radar e iGPS e chapas retas e curvas. Os resultados obtidos foram analisados e considerados como adequados para atender os requisitos de uma montagem de equipamentos de grande porte. Os resultados obtidos pela implementação aqui proposta mostram que um sistema de visão pode ter precisão e exatidão inferior a 1 mm para volumes entre 125 e 300 m. E que é possível usar a informação desse tipo de sistema para orientar e movimentar um manipulador robótico antropomórfico por meio de protocolos de uso industrial.
3

Sistema de rastreamento de alvos para robôs móveis baseado em sensor visual e controle fuzzy.

Anderson Anjos da Silva 00 December 2004 (has links)
Este trabalho objetiva a implementação de um sistema de rastreamento de alvo para aplicações em robótica móvel, utilizando como sensor principal uma câmera tipo Charge-Coupled Device (CCD). Uma abordagem adaptativa é utilizada para compensar as variações de iluminação no ambiente. Esta adaptação: 1) usa o método de retroprojeção de histogramas para rastreamento do alvo; 2) gera uma distribuição de probabilidade gaussiana que representa o histograma de cores do alvo; 3) atualiza em tempo real os parâmetros (média e covariância) do histograma. Como contribuição deste trabalho, propõe-se a determinação do nível de filtragem do ruído, adaptando-se ao modelo do alvo a cada imagem capturada. Este procedimento foi incorporado à determinação dos pixels com intensidades de cores mais próximas das do alvo. Uma vez que a determinação da posição relativa entre o robô e o alvo depende de imagens ruidosas, um procedimento de estimação, denominada sistema grey, é empregado para suavizar o controle. Efetivamente, o que esta abordagem faz é estimar a dinâmica relativa entre o robô e o alvo, no que se refere a distância e orientação. Para reduzir o erro de distância entre o robô e o alvo, fez-se uso de um controlador fuzzy com duas entradas e uma saída, para controle de velocidade linear e angular. Este controlador é denominado de fuzzy look-ahead, uma vez que recebe como entrada as predições dos erros de posição. O sistema de rastreamento de alvo móvel foi implementado em simulação, utilizando o Matlab 6.1, obtendo-se bons resultados com imagens e trajetórias simuladas. Para os experimentos em tempo real, foram desenvolvidas bibliotecas gráficas em C++Builder 5.0, onde imagens capturadas pelo robô móvel Magellan-ISR são transferidas pela rede via TCP/IP para um Personal Computer (PC) remoto. Após a verificação da robustez dos módulos de detecção do alvo através do sistema de visão, da estimação/predição da posição do alvo e do controlador fuzzy, fez-se a integração dos mesmos para aplicação em tempo real. Esta integração foi implantada no computador de bordo do robô móvel Magellan-ISR. Dos resultados obtidos, a robustez do sistema pode ser verificada em diversos ambientes e sob diferentes condições.
4

Self-tuned vehicle parameters detection and estimation from vídeo sequences for traffic incident management.

Alessandro Moreira Fonseca 06 October 2005 (has links)
This work proposes and compares three algorithms for vehicle detection, composed of two main stages, preprocess and process. The first will proceed with the selection of the region of interest (ROI) and the background learning phase. The ROI is a narrow and transversal-to-lane rectangular area wherein detection is achieved, its dimensions provides low processing workload. The learning, named as progressive background training (PBT), is compounded of three consecutive and nonoverlapping steps that will produce the necessary parameters for the next stage. PBT is accomplished fully automatically, expect for requiring the manual specification of the three subset of training images, one for each training step. These steps relate to find, respectively, the gray-level lane limits (GLLL), the intensity edge threshold (IET) and the normalized chromaticity distortion threshold (NCDT). The first supposes that, in normal traffic conditions, most of the input images are of lane and uses this to select the first subset of sample-frames and build two intensity histograms; a statistical operator is used for the automatic threshold selection (ATS) and further lane intensity interval definition. The second step uses GLLL interval to fulfill the automatic sample selection (ASSEL) of the second input of images subset and build a bi-modal histogram of gradient magnitude wherein two unsupervised, non-parametric and non-context automatic threshold selection (ATS) methods are used to find the intensity edge threshold. One maximizes a cost function related to conditional entropy and the other maximizes the between-classes variance. The last step, NCDT, uses the former step threshold output to perform edge detection and use it as ASSEL and select the frames to model the statistics of the background and construct the histogram of the normalized chroma distortion. An ATS carries out a search into this histogram until find a predefined detection rate and find the NCDT. The second stage, named foreground detection (FD), has two main steps and uses all the thresholds and background statistical parameters computed in the previous stage. The first step relates to the generation of the ROI masks. These masks are binary and maps the state of each ROIs pixels features, as gray-level region position, edge-pixel and normalized chroma distortion. This amount of data is used in the next step of FD to perform the decision process and yield the desired vehicle detection output. A Fathy and Siyal (F&S) approach was taken as the groundwork to the three following resulting developments of this thesis: the MF&S is a modified version of F&S specially regarding to the learning phase, it is robust to lighting changes and shadow, but not to the interface of lane and shadow; the gradient magnitude aiding (GMA) approach is a special case of the previous yielding the same performance of MF&S when it is with its best tuning; and chroma and gradient magnitude aiding (CGMA) approach, fuses the former with gray-level and color information resulting on shadow and lane interface robustness. It is also shown how vehicle detection outputs can be used to compute basic traffic parameters such as vehicle count, traffic flow, occupancy and link travel time. Performance is verified by two further defined indexes, the detection and false alarm rates. Both optimal values respectively relate to the low probability to misclassify a vehicle and incorrectly classify lane as vehicle. Results show that CGMA reduce false alarms while maintaining the detection rate in comparison with GMA and MF&S algorithms.
5

Implementação de sistema de rastreamento para robôs móveis autônomos.

Cleiton Rodrigo de Oliveira 18 May 2007 (has links)
No presente trabalho apresenta-se o estudo de duas diferentes abordagens relacionadas à utilização de sensores visuais na robótica móvel. Na primeira delas as imagens são usadas para fornecer parâmetros que permitam determinar a postura do próprio veículo durante o rastreamento de uma trajetória preestabelecida. Na segunda abordagem, os parâmetros fornecidos pelo processamento das imagens permitem calcular dados sobre a posição relativa entre o objeto imageado e o robô com o objetivo de seguir alvos móveis. No caso do rastreamento de trajetória, utiliza-se a lei de controle cinemático proposta em [
6

Classificador de gestos das mãos baseado em imagens para aplicação em interfaces.

Thiago Ramos Trigo 01 December 2010 (has links)
A atual interação entre homens e computadores ocorre por meio de dispositivos físicos como mouses, teclados, trackballs, entre outros. Claramente, essa forma de comunicação difere daquela com que os homens se comunicam entre si, que se baseiam na fala; em expressões faciais e corporais; em gestos das mãos, etc, não sendo, portanto, naturais. Considerando-se que boa parte da interação envolve a manipulação de objetos, por exemplo, arrastar uma pasta, pressionar um botão ou controlar um personagem em um jogo, tem-se a interação baseada em gestos das mãos como uma candidata a tornar o processo mais natural. Os mecanismos mais populares que permitem a interação baseada em gestos são luvas repletas de sensores que captam os gestos executados e os transmitem para o sistema. Essa abordagem apresenta várias desvantagens em termos de uso casual por terem um alto custo financeiro, por esconderem a naturalidade do movimento da mão e por requererem um complexo processo de calibração para permitir medições precisas. Nesse contexto, a Visão Computacional surge como uma alternativa interessante, visto que pode ser implementada com simples câmeras web. O presente trabalho investiga algumas das etapas comuns em sistemas de visão computacional, direcionando-se no sentido de encontrar um conjunto de procedimentos que compostos possam permitir a identificação dos gestos produzidos pelas mãos.
7

Procedimento automático para calibração de sistemas de visão robótica para operações pick-and-place.

Denilson Laudares Rodrigues 00 December 1997 (has links)
Este trabalho apresenta um procedimento automatizado para calibração de sistemas de visão robótica baseado no cálculo on-line da matriz de transformação homogênea entre o sistema coordenado do plano de imagem, na câmera, e a área de trabalho do robô. A principal contribuição deste trabalho, está no fato desta matriz de transformação estar expressa em função dos ângulos de junto do robô. Como conseqüência, o procedimento de calibração necessita apenas de dois pontos, que devem ser ensinados ao robô. Após a execução do procedimento de calibração, os pontos capturados pelo sistema de visão são então automaticamente convertidos para o sistema coordenado do robô, através de uma matriz de transformação homogênea. O procedimento de calibração foi intensivamente testado utilizando um sistema de visão comercial e um robô industrial tipo SCARA e apresentou bons resultados.
8

Casamento de imagens empregando rotulação relaxada e informação de movimento.

Neusa Maria Franco de Oliveira 00 December 1997 (has links)
Dentre outras atividades, visão computacional ocupa-se com a extração de informação 3D a partir de imagens. Dois métodos usados para a extração de informação 3D são estereoscopia e estimação de fluxo óptico. Para obter-se informação de profundidade usando estes métodos, geralmente é necessário fazer-se a correspondência entre imagens, ou casamento de imagens. A abordagem usada no presente trabalho para resolver o problema de casamento de imagem pertence à categoria baseada em características locais salientes. As características escolhidas para o casamento de imagens são pontos de alto contraste. Os algoritmos de visão computacional costumam ter vários parâmetros a serem ajustados. Infelizmente, os valores dos parâmetros ajustados para um conjunto de imagens nem sempre resultam bom desempenho para outro. Esta tese enfoca a sensibilidade do algoritmo de visão computacional a variações paramétricas feitas por um operador. Robustez a estas variações paramétricas torna possível o uso de tal algoritmo sob várias circunstâncias, sem a necessidade do ajuste manual de tais parâmetros. Inicialmente este trabalho focaliza a avaliação de um algoritmo de rotulação relaxada para casamento de imagens. Informação de movimento da câmera é usada pra reduzir a complexidade, ambigüidade e o custo computacional do casamento de imagens. Imagens reais foram usadas para a avaliação de sensibilidade. A recuperação de profundidade a partir das equações de fluxo óptico é feita utilizando-se os resultados do algoritmo de casamento de imagens. Um banco de dados de imagens calibrado obtidos por um helicóptero durante vôo rasante é empregado para analisar o impacto de incertezas nos parâmetros de movimento na recuperação de profundidade.
9

Navegação e guiamento de VANT utilizando visão do tipo PTZ

João Matheus de Oliveira Arantes 03 December 2012 (has links)
Grande parte das técnicas de navegação utilizadas em Veículos Aéreos Não-Tripulados (VANTs) é baseada na integração de sistemas de navegação por satélites (GNSS - Global Navigation Satellite System) e sistemas de navegação inercial (INS - Inertial Navigation System). Entretanto, a utilização do GNSS oferece um grande desafio para a expansão da utilização de VANTs por estarem sujeitos à degradação intencional ou não dos sinais transmitidos pelos satélites. Assim, técnicas de navegação autônoma com mínima dependência do GNSS têm sido exploradas como um meio alternativo/colaborativo. Nesta dissertação, é utilizada uma técnica de navegação baseada em imagens para auxiliar a navegação de um VANT quando o GNSS não está disponível. Algoritmos como o SIFT (Scale Invariant Features Transform) são capazes de extrair características de imagens que, em combinação com técnicas de estimação e decomposição de homografias, permitem estimar variações de atitude e posição da aeronave de maneira independente. No entanto, essa decomposição pode resultar em duas soluções fisicamente possíveis para a homografia. Contudo, somente uma delas representa as características geométricas reais do objeto em vista. Verifica-se também que o conhecimento do vetor normal ao plano de visada é suficiente para determinar a solução correta. Assim, sob a hipótese de pequena mudança do vetor normal entre duas imagens em sequência, neste trabalho se investiga a determinação da solução correta para a decomposição da homografia, comparando-se os vetores normais estimados entre dois instantes de tempo. Com o intuito de avaliar o desempenho do sistema de navegação utilizando as variações de atitude e posição, obtidas via processamento de imagens, foram realizadas simulações utilizando um modelo de seis graus de liberdade de um VANT. Os resultados mostram baixos erros iniciais, porém devido ao procedimento de propagação de atitude e posição, há erros crescentes com o tempo, sugerindo que a navegação autônoma, isto é, sem auxílio GNSS não é viável por longos períodos, como esperado. Contudo, a existência de leitura eventual GNSS, que é uma hipótese realista, permite limitar esses erros. Para demonstrar o potencial da navegação por imagens e elevar a representatividade dos resultados, as simulações foram realizadas tomando fotografias reais como base para geração das sequências de imagens.
10

Sistema mecatrônico para medida de desvios axial e radial de rodas utilizando recursos de visão computacional.

Fernando Toshihiko Mitsuyassu 00 December 2002 (has links)
A roda automotiva é um item de segurança do veículo, cujo desenvolvimento e produção é complexo e requer um rigoroso controle dimensional. Atualmente o sistema de medição da roda, situada entre etapas de produção, consiste no emprego de relógios comparadores. Desta forma, a qualidade da informação obtida depende da habilidade do operador em manipular o dispositivo de medição, estando também, suscetível ao desgaste físico por trabalho repetitivo.Soluções alternativas, para a medição da oscilação da roda, também foram estudadas, como por exemplo o emprego de equipamentos com sensores LVDT e roletes, os quais não apresentaram resultados satisfatórios. Devido a estes fatos, este trabalho tem como objetivo projetar um sistema mecatrônico, que utiliza recursos de visão computacional, para medir a oscilação da roda, buscando resolver os problemas apresentados por outros métodos comentados.

Page generated in 0.1206 seconds