• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 138
  • 18
  • 12
  • 12
  • 12
  • 9
  • 8
  • 8
  • 8
  • 6
  • 3
  • 1
  • Tagged with
  • 160
  • 160
  • 160
  • 92
  • 89
  • 68
  • 62
  • 40
  • 39
  • 35
  • 34
  • 33
  • 31
  • 28
  • 28
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Estudo e implementação de um método de cinemática inversa baseado em busca heurística para robôs manipuladores = aplicação em robôs redundantes e controle servo visual / Heuristic search based inverse kinematics for robotic manipulators : application to redundant robots and visual servoing

Nicolato, Fabricio 06 January 2007 (has links)
Orientador: Marconi Kolm Madrid / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-15T23:54:05Z (GMT). No. of bitstreams: 1 Nicolato_Fabricio_D.pdf: 1516280 bytes, checksum: 96229803f3bca54f669d4dcc22108c02 (MD5) Previous issue date: 2007 / Resumo: Esta tese trata o problema da resolução do modelo cinemático inverso para manipuladores industriais redundantes ou não. O problema foi abordado por um método de busca heurística no qual a solução da cinemática inversa é construída passo a passo calculando-se a contribuição do movimento de apenas uma junta a cada iteração. Dessa forma, o problema n-dimensional é transformado em problemas unidimensionais mais simples, cuja solução analítica tanto para juntas rotacionais quanto para juntas prismáticas é apresentada em termos da representação de Denavit-Hartenberg. O método proposto não possui singularidades internas. Além disso, o método foi expandido para incorporar informações de sensores externos visando fazer com que o processo seja mais robusto a incertezas nas modelagens envolvidas. Foram realizadas diversas simulações e comparações com técnicas tradicionais que evidenciaram as vantagens da abordagem proposta. O trabalho também englobou o projeto e a construção de um ambiente experimental e a implementação das técnicas desenvolvidas na parte teórica. Desenvolveu-se um sistema com um robô planar redundante de 3 DOF, assim como seus sistemas de controle, acionamento e interfaceamento usando técnicas de sistemas hardware-inthe-loop e lógica programável. As técnicas desenvolvidas foram aplicadas no ambiente experimental demonstrando características como: facilidade de lidar com redundâncias, capacidade de resolução em tempo real, robustez a incertezas de parâmetros etc / Abstract: This thesis deals with the problem of solving the inverse kinematics model of redundant and nonredundant industrial manipulators. The work was developed in a theoretical and a practical part. The problem was approached by an heuristic search method in which the solution of the inverse kinematics is built step by step calculating the movement contribution of just a single joint for each iteration. In that way, the n-dimensional problem is transformed in simpler one-dimensional problems, whose analytic solution for both rotational joints and prismatic joints is presented in terms of the Denavit and Hartenberg representation. The proposed method does not possess internal singularities. Furthermore, the method was expanded to incorporate information of external sensor in order to make the process more robust to uncertainties in the involved modelings. Several results of simulations and comparisons with traditional techniques, which evidence the advantages of the proposed approach, are presented. The work also included the construction of an experimental environment and the implementation of the techniques developed in the theoretical part. The details of a system with a 3-DOF redundant robot as well as its control system, drivers and interfaces using hardware-in-theloop techniques and programmable logic are presented. The developed techniques were applied in the experimental environment are demonstrating their efficiency and evidencing characteristics like: easiness of dealing with redundancies, real time capacity, robustness for parameters uncertainties etc / Doutorado / Automação
112

Bag of graphs = definition, implementation, and validation in classification tasks / Sacola de grafos : definição, implementação e validação em tarefas de classificação

Silva, Fernanda Brandão, 1988- 25 August 2018 (has links)
Orientador: Ricardo da Silva Torres / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-25T12:32:03Z (GMT). No. of bitstreams: 1 Silva_FernandaBrandao_M.pdf: 11339319 bytes, checksum: 8a89e5104479c5f13a4d5718242f42c9 (MD5) Previous issue date: 2014 / Resumo: Atualmente, há uma alta demanda por soluções que possibilitem a implementação de serviços de recuperação e classificação eficazes e eficientes para grande volumes de dados. Nesse contexto, diversos estudos têm investigado o uso de novas técnicas baseadas na comparação de estruturas locais presentes em objetos na implementação de serviços de classificação e recuperação. Estruturas locais podem ser caracterizadas por diferentes tipos de relacionamentos (e.g., distribuição espacial) entre primitivas de objetos, sendo geralmente exploradas em problemas de reconhecimento de padrões. Nessa dissertação de mestrado, propomos a Sacola de Grafos, uma nova abordagem baseada no modelo de Sacola de Palavras Visuais, que utiliza grafos para codificar estruturas locais de um objeto. Uma definição formal do modelo proposto é apresentada, assim como conceitos e regras que tornam este modelo flexível e ajustável a diferentes aplicações. Na abordagem proposta, um objeto é representado por um grafo que modela as estruturas locais existentes. Usando um dicionário pré-definido, o objeto pode ser descrito por uma representação vetorial com a frequência de ocorrência de padrões locais no grafo correspondente. Neste trabalho, apresentamos dois métodos baseados no modelo proposto, a Sacola de Grafos Triviais e a Sacola de Grafos Visuais, que constroem representações vetoriais para imagens e grafos, respectivamente. Ambos os métodos são validados em tarefas de classificação. Nós avaliamos o método Sacola de Grafos Triviais para classificação de grafos em quatro bases do repositório IAM, obtendo resultados significativos em termos de acurácia e tempo de execução. O método Sacola de Grafos Visuais é avaliado para classificação de imagens nas bases Caltech-101 e Caltech-256, alcançando resultados promissores, com elevados valores de acurácia / Abstract: Nowadays, there is a strong interest for solutions that allow the implementation of effective and efficient retrieval and classification services associated with large volumes of data. In this context, several studies have been investigating the use of new techniques based on the comparison of local structures within objects in the implementation of classification and retrieval services. Local structures may be characterized by different types of relationships (e.g., spatial distribution) among object primitives, being commonly exploited in pattern recognition problems. In this dissertation, we propose the Bag of Graphs (BoG), a new approach based on the Bag-of-Words model that uses graphs for encoding local structures of a digital object. We present a formal definition of the proposed model, introducing concepts and rules that make this model flexible and adaptable for different applications. In the proposed approach, a digital object is represented by a graph that models the existing local structures. Using a pre-defined dictionary, the object is described by a vector representation with the frequency of occurrence of local patterns in the corresponding graph. In this work, we present two BoG-based methods, the Bag of Singleton Graphs (BoSG) and the Bag of Visual Graphs (BoVG), which create vector representations for graphs and images, respectively. Both methods are validated in classification tasks. We evaluate the Bag of Singleton Graphs (BoSG) for graph classification on four datasets of the IAM repository, obtaining significant results in terms of both accuracy and execution time. The method Bag of Visual Graphs (BoVG), which encodes the spatial distribution of visual words, is evaluated for image classification on the Caltech-101 and Caltech-256 datasets, achieving promising results with high accuracy scores / Mestrado / Ciência da Computação / Mestra em Ciência da Computação
113

Identificação de manipulações de cópia-colagem em imagens digitais / Copy-move forgery identification in digital images

Silva, Ewerton Almeida, 1988- 07 December 2012 (has links)
Orientador: Anderson de Rezende Rocha / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-23T03:37:08Z (GMT). No. of bitstreams: 1 Silva_EwertonAlmeida_M.pdf: 20654769 bytes, checksum: cd66fa66dedc48d34c5feb0fa0311759 (MD5) Previous issue date: 2012 / Resumo: Neste trabalho, nós investigamos duas abordagens para detecção de manipulações de Cópia-colagem (Copy-move Forgery) em imagens digitais. A primeira abordagem é baseada no algoritmo PatchMatch Generalizado [4], cuja proposta é encontrar correspondências de patches (blocos de pixels de tamanho definido) em uma ou mais imagens. A nossa abordagem consiste na aplicação do PatchMatch Generalizado em uma dada imagem com o propósito de encontrar, para cada patch desta, um conjunto de patches similares com base nas distâncias de seus histogramas. Em seguida, nós verificamos as correspondências de cada patch para decidir se eles são segmentos de uma região duplicada. A segunda abordagem, que consiste em nossa principal contribuição, é baseada em um processo de Votação e Análise Multiescala da imagem. Dada uma imagem suspeita, extraímos pontos de interesse robustos a operações de escala e rotação, encontramos correspondências entre eles e os agrupamos em regiões com base em certas restrições geométricas, tais como a distância física e a inclinação da reta que os liga. Após a aplicação das restrições geométricas, criamos uma pirâmide multiescala que representará o espaço de escalas da imagem. Nós examinamos, em cada imagem, os grupos criados usando um descritor robusto a rotações, redimensionamentos e compressões. Este processo diminui o domínio de busca de regiões duplicadas e gera um mapa de detecção para cada escala. A decisão final é dada a partir de uma votação entre todos os mapas, na qual um segmento é considerado duplicado se este assim o é na maioria das escalas. Nós validamos ambos os métodos em uma base de imagens que construímos. A base _e composta por 108 clonagens originais e com elevado grau de realismo. Comparamos os métodos propostos com outros do estado da arte nessa mesma base de imagens / Abstract: In this work, we investigate two approaches toward Copy-move Forgery detection in digital images. The first approach relies on the Generalized PatchMatch algorithm [4], which aims at finding patch correspondences in one or more images. Our approach consists in applying the Generalized PatchMatch algorithm in a certain image in order to obtain, for each of its patches, a set of similar patches based on their histogram distances. Next, we check the correspondences of each patch to decide whether or not they are portions of a duplicated region. Our second approach is based on a Voting and Multiscale Analysis process of an image. Given a suspicious image, we extract its interest points robust to scale and rotation transformations and we find possible correspondences among them. Next, we group the correspondent points into regions considering some geometric constraints, such as physical distance and inclination of the line between points of interest. After that, we construct a multiscale pyramid to represent the image scale-space. In each image, we examine the created groups using a descriptor robust to rotation, scaling and compression. This process decreases the search space of duplicated regions and yields a detection map. The final decision depends on a voting among all the detected maps, in which a pixel is considered as part of a manipulation if it is marked as so in the majority of the pyramid scales. We validate both methods using a dataset we have built comprising 108 original and realistic clonings. We compare the proposed methods to others from the state-of-the-art using such cloning dataset / Mestrado / Ciência da Computação / Mestre em Ciência da Computação
114

Diabetic retinopathy image quality assessment, detection, screening and referral = Análise de qualidade, detecção de lesões de retinopatia diabética, triagem e verificação de necessidade de consulta a partir de imagens de retina / Análise de qualidade, detecção de lesões de retinopatia diabética, triagem e verificação de necessidade de consulta a partir de imagens de retina

Pires, Ramon, 1989- 23 August 2018 (has links)
Orientador: Anderson de Rezende Rocha / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-23T17:47:21Z (GMT). No. of bitstreams: 1 Pires_Ramon_M.pdf: 4429324 bytes, checksum: 4e4015bc2131a1f1a5e8aa215f24d98f (MD5) Previous issue date: 2013 / Resumo: A Retinopatia Diabética (RD), complicação provocada pela diabetes, se manifesta por meio de diferentes lesões que possuem suas especificidades. Estas especificidades são exploradas na literatura como estratégia para representação, proporcionando uma discriminação satisfatória entre imagens de pacientes normais e doentes. No entanto, por estarem fortemente atrelada _as características visuais de cada anomalia, a detecção de lesões distintas exige abordagens distintas. Neste trabalho, apresentamos um arcabouço geral cujo objetivo é automatizar o procedimento de análise de imagens de fundo de olho. O trabalho é dividido em quatro etapas: avaliação de qualidade, detecção de lesões individuais, triagem e verificação de necessidade de consulta. Na primeira etapa, aplicamos diferentes técnicas de caracterização de imagens para avaliar a qualidade das imagens por meio de dois critérios: definição de campo e detecção de borramentos. Na segunda etapa deste trabalho, propomos a continuação de um trabalho anterior desenvolvido pelo nosso grupo, no qual foi aplicado um método unificado na tentativa de detecção de lesões distintas. No nosso método para detecção de qualquer lesão, exploramos diferentes alternativas de representação em baixo nível (extração densa e esparsa) e médio nível (técnicas de coding/pooling para sacolas de palavras visuais) objetivando o desenvolvimento de um conjunto eficaz de detectores de lesões individuais. As pontuações provenientes de cada detector de lesão, obtidas para cada imagem, representam uma descrição de alto nível, ponto fundamental para a terceira e a quarta etapas. Tendo em mãos um conjunto de dados descritos em alto nível (pontuações dos detectores individuais), propomos, na terceira etapa do trabalho, a aplicação de técnicas de fusão de dados para o desenvolvimento de um método de detecção de múltiplas lesões. A descrição em alto nível também é explorada na quarta etapa para o desenvolvimento de um método eficaz de avaliação de necessidade de encaminhamento a um oftalmologista no intervalo de um ano, visando evitar que o médico seja sobrecarregado, bem como dar prioridade a pacientes em estado urgente / Abstract: Diabetic Retinopathy (DR), a common complication caused by diabetes, manifests through deferent lesions that have their particularities. These particularities are explored in the literature as methods for representation, providing a satisfactory discrimination between healthy/diseased retinas. However, by being strongly linked to the visual characteristics of each anomaly, the detection of distinct lesions requires distinct approaches. In this work, we present a general framework whose objective is to automate the eye-fundus image analysis. The work comprises four steps: image quality assessment, DR-related lesion detection, screening, and referral. In the first step, we apply characterization techniques to assess image quality by two criteria: field definition and blur detection. In the second step of this work, we extend up a previous work of our group which explored a unified method for detecting distinct lesions in eye-fundus images. In our approach for detection of any lesion, we explore several alternatives for low-level (dense and sparse extraction) and mid-level (coding/pooling techniques of bag of visual words) representations, aiming at the development of an effective set of individual DR-related lesion detectors. The scores derived from each individual DR-related lesion, taken for each image, represent a high-level description, fundamental point for the third and fourth steps. Given a dataset described in high-level (scores from the individual detectors), we propose, in the third step of the work, the use of machine learning fusion techniques aiming at the development of a multi-lesion detection method. The high-level description is also explored in the fourth step for the development of an effective method for evaluating the necessity of referral of a patient to an ophthalmologist in the interval of one year, avoiding overloading medical specialist with simple cases as well as give priority to patients in an urgent state / Mestrado / Ciência da Computação / Mestre em Ciência da Computação
115

Sistema de percepção visual embarcado aplicado à navegação segura de veículos = Embedded visual perception system applied to safe navigation of vehicles / Embedded visual perception system applied to safe navigation of vehicles

Miranda Neto, Arthur de 19 August 2018 (has links)
Orientadores: Douglas Eduardo Zampieri, Isabelle Fantoni Coichot / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecanica / Made available in DSpace on 2018-08-19T04:14:42Z (GMT). No. of bitstreams: 1 MirandaNeto_Arthurde_D.pdf: 4965049 bytes, checksum: 6d16ee5315ee6bbbfd893b534fde6729 (MD5) Previous issue date: 2011 / Resumo: Esta tese aborda o problema de evitamento de obstáculos para plataformas terrestres semie autônomas em ambientes dinâmicos e desconhecidos. Baseado num sistema monocular, propõe-se um conjunto de ferramentas que monitoram continuamente a estrada a frente do veículo, provendo-o de informações adequadas em tempo real. A partir de um algoritmo robusto de detecção da linha do horizonte é possível investigar dinamicamente somente a porção da estrada a frente do veículo, a fim de determinar a área de navegação, e da deteção de obstáculos. Uma área de navegação livre de obstáculos é então representa a partir de uma imagem multimodal 2D. Esta representação permite que um nível de segurança possa ser selecionado de acordo com o ambiente e o contexto de operação. A fim de reduzir o custo computacional, um método automático para descarte de imagens é proposto. Levando-se em conta a coerência temporal entre consecutivas imagens, uma nova metodologia de gerenciamento de energia (Dynamic Power Management) é aplicada ao sistema de percepção visual a fim de otimizar o consumo de energia. Estas propostas foram testadas em diferentes tipos de ambientes, e incluem a deteção da área de navegação, navegação reativa e estimação do risco de colisão. Uma característica das metodologias apresentadas é a independência em relação ao sistema de aquisição de imagem e do próprio veículo. Este sistema de percepção em tempo real foi avaliado a partir de diferentes bancos de testes e também a partir de dados reais obtidos por diferentes plataformas inteligentes. Em tarefas realizadas com uma plataforma semi-autônoma, testes foram conduzidos em velocidades acima de 100 Km/h. A partir de um sistema em malha aberta, deslocamentos reativos autônomos foram realizados com sucesso / Resumé: Les études développées dans ce projet doctoral ont concerné deux problématiques actuelles dans le domaine des systèmes robotiques pour la mobilité terrestre: premièrement, le problème associé à la navigation autonome et (semi)-autonome des véhicules terrestres dans un environnement inconnu ou partiellement connu. Cela constitue un enjeu qui prend de l'importance sur plusieurs fronts, notamment dans le domaine militaire. Récemment, l'agence DARPA1 aux États-Unis a soutenu plusieurs challenges sur cette problématique robotique; deuxièmement, le développement de systèmes d'assistance à la conduite basés sur la vision par ordinateur. Les acteurs de l'industrie automobile s'intéressent de plus en plus au développement de tels systèmes afin de rendre leurs produits plus sûrs et plus confortables à toutes conditions climatiques ou de terrain. De plus, grâce à l'électronique embarquée et à l'utilisation des systèmes visuels, une interaction avec l'environnement est possible, rendant les routes et les villes plus sûres pour les conducteurs et les piétons. L'objectif principal de ce projet doctoral a été le développement de méthodologies qui permettent à des systèmes mobiles robotisés de naviguer de manière autonome dans un environnement inconnu ou partiellement connu, basées sur la perception visuelle fournie par un système de vision monoculaire embarqué. Un véhicule robotisé qui doit effectuer des tâches précises dans un environnement inconnu, doit avoir la faculté de percevoir son environnement proche et avoir un degré minimum d'interaction avec celui-ci. Nous avons proposé un système de vision embarquée préliminaire, où le temps de traitement de l'information (point critique dans des systèmes de vision utilisés en temps-réel) est optimisé par une méthode d'identification et de rejet d'informations redondantes. Suite à ces résultats, on a proposé une étude innovante par rapport à l'état de l'art en ce qui concerne la gestion énergétique du système de vision embarqué, également pour le calcul du temps de collision à partir d'images monoculaires. Ainsi, nous proposons le développement des travaux en étudiant une méthodologie robuste et efficace (utile en temps-réel) pour la détection de la route et l'extraction de primitives d'intérêts appliquée à la navigation autonome des véhicules terrestres. Nous présentons des résultats dans un environnement réel, dynamique et inconnu. Afin d'évaluer la performance de l'algorithme proposé, nous avons utilisé un banc d'essai urbain et réel. Pour la détection de la route et afin d'éviter les obstacles, les résultats sont présents en utilisant un véhicule réel afin d'évaluer la performance de l'algorithme dans un déplacement autonome. Cette Thèse de Doctorat a été réalisée à partir d'un accord de cotutelle entre l' Université de Campinas (UNICAMP) et l'Université de Technologie de Compiègne (UTC), sous la direction du Professeur Docteur Douglas Eduardo ZAMPIERI, Faculté de Génie Mécanique, UNICAMP, Campinas, Brésil, et Docteur Isabelle FANTONI-COICHOT du Laboratoire HEUDIASYC UTC, Compiègne, France. Cette thèse a été soutenue le 26 août 2011 à la Faculté de Génie Mécanique, UNICAMP, devant un jury composé des Professeurs suivants / Abstract: This thesis addresses the problem of obstacle avoidance for semi- and autonomous terrestrial platforms in dynamic and unknown environments. Based on monocular vision, it proposes a set of tools that continuously monitors the way forward, proving appropriate road informations in real time. A horizon finding algorithm was developed to sky removal. This algorithm generates the region of interest from a dynamic threshold search method, allowing to dynamically investigate only a small portion of the image ahead of the vehicle, in order to road and obstacle detection. A free-navigable area is therefore represented from a multimodal 2D drivability road image. This multimodal result enables that a level of safety can be selected according to the environment and operational context. In order to reduce processing time, this thesis also proposes an automatic image discarding criteria. Taking into account the temporal coherence between consecutive frames, a new Dynamic Power Management methodology is proposed and applied to a robotic visual machine perception, which included a new environment observer method to optimize energy consumption used by a visual machine. This proposal was tested in different types of image texture (road surfaces), which includes free-area detection, reactive navigation and time-to-collision estimation. A remarkable characteristic of these methodologies is its independence of the image acquiring system and of the robot itself. This real-time perception system has been evaluated from different test-banks and also from real data obtained by two intelligent platforms. In semi-autonomous tasks, tests were conducted at speeds above 100 Km/h. Autonomous displacements were also carried out successfully. The algorithms presented here showed an interesting robustness / Doutorado / Mecanica dos Sólidos e Projeto Mecanico / Doutor em Engenharia Mecânica
116

Recuperação de informações tridimensionais a partir de múltiplas imagens / Recovering of three-dimensional information from multiple images

Gomes, Marcelo Marques 20 August 2018 (has links)
Orientador: Clésio Luis Tozzi / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-20T02:20:27Z (GMT). No. of bitstreams: 1 Gomes_MarceloMarques_M.pdf: 2920969 bytes, checksum: 0ae0c041b47241b92c32e9792f18d608 (MD5) Previous issue date: 2012 / Resumo: Este trabalho aborda a solução para o problema da recuperação da informação tridimensional somente a partir de imagens da cena ou do objeto que se deseja modelar desconhecidas as informações a respeito das câmeras utilizadas. A solução apresentada divide-se em duas partes: na primeira se estabelece a relação entre pares ou trios de câmeras utilizando matriz fundamental ou tensor trifocal, respectivamente e a partir dessas relações obtém-se por meio de triangulação uma reconstrução tridimensional da cena ou do objeto observado em função de uma transformação projetiva arbitrária. Na segunda parte determina-se uma transformação que leva a cena ou o objeto obtidos no espaço projetivo para o espaço métrico. Essa transformação que leva o objeto recuperado no espaço projetivo para o espaço métrico é encontrada por meio de autocalibração utilizando o plano no infinito e a cônica absoluta que apresentam a propriedade de serem invariantes a rotação, translação e escala, em relação a um referencial escolhido arbitrariamente. Dependendo do número de imagens disponíveis é necessário inserir restrições nos parâmetros intrínsecos das câmeras para viabilizar o cálculo da transformação. Essas restrições são inseridas na forma de suposições a respeito dos parâmetros intrínsecos das câmeras, como pontos principais conhecidos ou constantes entre as câmeras, skew nulo, relação de aspecto unitária etc. Os resultados da reconstrução no espaço projetivo obtidos com o uso da matriz fundamental e do tensor trifocal foram comparados em relação ao erro de reconstrução utilizando protótipo implementado em Matlab e imagens sintéticas. A solução geral foi avaliada em relação ao erro de reprojeção, reconstrução no espaço métrico com base em imagens sintéticas e imagens reais de objetos conhecidos, utilizando um protótipo desenvolvido na plataforma Embarcadero Delphi / Abstract: This work addresses a solution to the problem of recovering three-dimensional information from images of a scene or modeled object based only on images and without any information of the cameras parameters. The presented solution is divided in two parts: in the first part it is established the relationship between a pair or a triple of cameras using the fundamental matrix or trifocal tensor, respectively, and obtained by triangulation a three-dimensional reconstruction of the observed scene or object in function of an arbitrary projective transformation. In the second part it is determined a transformation to covert the obtained scene or object reconstruction from the projective space to the metric space. This transformation is found by auto-calibration using the plane at infinity and the absolute conic which have the property of being invariant to rotation, translation and scale in relation to an arbitrarily chosen reference frame. According to the number of available images, restrictions on the intrinsic parameters may be necessary in order to obtain a valid transformation. These restrictions are inserted in the form of assumptions about the values of the intrinsic parameters of the cameras or relations between then, like known principal points or constant values for the cameras, zero skew, unit aspect ratio and so on. Using synthetic images and a prototype implemented in Matlab, the results of reconstruction in projective space based on the fundamental matrix and trifocal tensor were compared in relation to the error of reconstruction. Based on synthetic images and real images of known objects and a prototype developed in the Embarcadero Delphi platform, the general solution was evaluated in relation to the reprojection error and the error of reconstruction in the metric space / Mestrado / Engenharia de Computação / Mestre em Engenharia Elétrica
117

Métodos fotométricos para visão computacional / Photometric methods for computer vision

Saracchini, Rafael Felipe Veiga, 1984- 20 August 2018 (has links)
Orientador: Jorge Stolfi / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-20T23:28:47Z (GMT). No. of bitstreams: 1 Saracchini_RafaelFelipeVeiga_D.pdf: 51136325 bytes, checksum: 85143775bfe25a7a66b61a5dcd0303d2 (MD5) Previous issue date: 2012 / Resumo: O principal objetivo desta tese de doutorado é o desenvolvimento e implementação de técnicas inovadoras para visão estereoscópica ou estéreo - a reconstrução de um modelo tridimensional de uma cena, a partir de duas ou mais imagens bidimensionais da mesma. Especificamente, estudamos e aprimoramos métodos de estéreo fotométrico, que utilizam imagens tomadas com mesmo ponto de vista sob várias condições de iluminação e determinam a normal à superfície da cena em cada pixel das imagens. Estas normais podem ser então integradas para gerar um mapa de alturas que fornece a terceira dimensão da cena. Consideramos principalmente métodos em que as condições de iluminação e o acabamento da superfície da cena são determinadas pela análise de imagens de objetos de referência (gabaritos) com forma conhecida. As contribuições desta tese consistem em: (1) desenvolvimento de gabaritos virtuais para eliminar o ruído presente nas imagens de gabaritos reais; (2) um método de grade bidimensional para determinação rápida das normais da cena; (3) uma abordagem robusta baseada em inferência bayesiana para determinação das normais na presença de anomalias de tonalização; e (4) dois métodos para integração multi-escala para mapas de normais que podem ser usados em mapas com lacunas e ruído. Investigamos também uma aplicação prática dessas técnicas: a captura da geometria da face de uma pessoa em movimento / Abstract: The main goal of this PhD thesis is the development and implementation of innovative techniques for stereo vision or stereo - the reconstruction of a tridimensional model of a scene from two or more two dimensional images. Specifically, we studied and improved photometric stereo methods, which use images taken from the same viewpoint under different lighting conditions, and determine the surface normal of the scene at each pixel. We mainly studied methods that determine the lighting conditions and surface finish by the analysis of images of reference objects (gauges or example objects) with known geometry. The contributions of this thesis consist of: (1) development of virtual example objects in order to eliminate noise and defects present in images of real example objects; (2) a 2D hashing grid method for fast normal computation; (3) a robust approach based in Bayesian inference for surface normal computation in the presence of shading anomalies, and (4) two methods for multi-scale normal map integration that can be used in maps with missing or noisy data. We also investigated a practical application of such methods: the capture of the 3D facial geometry of a person in movement / Doutorado / Ciência da Computação / Doutor em Ciência da Computação
118

Uso de fluxo óptico na odometria visual aplicada a robótica / Using the optical flow in the visual odometry applied robotics

Araújo, Darla Caroline da Silva, 1989- 26 August 2018 (has links)
Orientador: Paulo Roberto Gardel Kurka / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecânica / Made available in DSpace on 2018-08-26T21:38:28Z (GMT). No. of bitstreams: 1 Araujo_DarlaCarolinedaSilva_M.pdf: 5678583 bytes, checksum: a6ed9886369705a8853f15d431565a3d (MD5) Previous issue date: 2015 / Resumo: O presente trabalho descreve um método de odometria visual empregando a técnica de fluxo óptico, para estimar o movimento de um robô móvel, através de imagens digitais capturadas de duas câmeras estereoscópicas nele fixadas. Busca-se assim a construção de um mapa para a localização do Robô. Esta proposta, além de alternativa ao cálculo autônomo de movimento realizado por outros tipos de sensores como GPS, laser, sonares, utiliza uma técnica de processamento óptico de grande eficiência computacional. Foi construído um ambiente 3D para simulação do movimento do robô e captura das imagens necessárias para estimar sua trajetória e verificar a acurácia da técnica proposta. Utiliza-se a técnica de fluxo óptico de Lucas Kanade na identificação de características em imagens. Os resultados obtidos neste trabalho são de grande importância para os estudos de navegação robótica / Abstract: This work describes a method of visual odometry using the optical flow technique to estimate the motion of a mobile robot, through digital images captured from two stereoscopic cameras fixed on it, in order to obtain a map of location of the robot. This proposal is an alternative to the autonomous motion calculation performed by other types of sensors such as GPS, laser, sonar, and uses an optical processing technique of high computational efficiency. To check the accuracy of the technique it was necessary to build a 3D environment to simulate the robot performing a trajectory and capture the necessary images to estimate the trajectory. The optical flow technique of Lucas Kanade was used for identifying features in the images. The results of this work are of great importance for future robotic navigation studies / Mestrado / Mecanica dos Sólidos e Projeto Mecanico / Mestra em Engenharia Mecânica
119

Arquitetura do módulo de convolução para visão computacional baseada em FPGA / Convolution module architecture for computer vision based on FPGA

Almeida, Carlos Caetano de, 1976- 07 August 2015 (has links)
Orientador: Eurípedes Guilherme de Oliveira Nóbrega / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecânica / Made available in DSpace on 2018-08-27T23:49:29Z (GMT). No. of bitstreams: 1 Almeida_CarlosCaetanode_M.pdf: 5316196 bytes, checksum: 8c3ec7a0c5709f2507df4dbc54c137b0 (MD5) Previous issue date: 2015 / Resumo: Esta dissertação apresenta o estudo de uma arquitetura para o processamento digital de imagens, desenvolvido através de dispositivos de hardware programável, no caso FPGA, para a implementação eficiente no domínio do tempo do algoritmo da convolução discreta, que permita sua integração em redes neurais de convolução com múltiplas camadas, conhecidas como ConvNets, visando sua aplicação na área de visão computacional. A implementação em software pode acarretar elevado custo computacional de muitos algoritmos, o que pode não atender às restrições de aplicações em tempo real, logo o uso de implementações em FPGA torna-se uma ferramenta atraente. A convolução 2D na área de visão computacional é um desses algoritmos. O uso de FPGA permite a adoção de execução concorrente para os algoritmos, por ser em hardware, possibilitando que as redes de convolução possam vir a ser adotadas em sistemas embarcados de visão computacional. Neste trabalho de pesquisa foram estudadas duas soluções. Na primeira foi implementado no FPGA o processador soft core NIOS II®, e programado o algoritmo. Na segunda solução, foi desenvolvida uma configuração em que o algoritmo foi implementado diretamente em hardware, sem a necessidade de um microprocessador tradicional. Os resultados mostram que uma redução expressiva do tempo de processamento pode ser esperada em aplicações reais. Na continuidade do trabalho, deverá ser implementado e testado o algoritmo completo como parte de uma aplicação de redes ConvNets / Abstract: This research work presents a study of the architecture applied to image processing, using programmable hardware devices, in this case FPGA, to an efficient implementation of the time domain discrete convolution algorithm, which enables its integration into multiple layers networks, known as ConvNets, aiming applications of computational vision. For some algorithms, the software implementation can imply high computational costs, which may not satisfy specific real time restrictions, which turns FPGA adoption an attractive solution. Image processing application of 2D convolution is one of these algorithms. Hardware implementation using FPGA can adopt algorithm concurrency, habilitating convolution nets to be adopted in embedded systems for computer vision applications. In this research work, two different solutions were studied. In the first solution, a soft core NIOS II® processor was implemented in a FPGA, and the convolution algorithm programmed. In the second solution, a complete hardware implemented algorithm was developed, exempting the need for a regular processor. Results show that an expressive processing time reduction may be expected in real applications. In the continuity of the research work, a complete ConvNet will be implemented and the convolution algorithm application tested in a more realistic condition / Mestrado / Mecanica dos Sólidos e Projeto Mecanico / Mestre em Engenharia Mecânica
120

Odometria visual e fusão de sensores no problema de localização e mapeamento simultâneo de ambientes exteriores / Visual odometry and sensor fusion in simultaneous localization and mapping problem of outdoors environments

Delgado Vargas, Jaime Armando, 1986- 28 August 2018 (has links)
Orientador: Paulo Roberto Gardel Kurka / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecânica / Made available in DSpace on 2018-08-28T12:48:00Z (GMT). No. of bitstreams: 1 DelgadoVargas_JaimeArmando_D.pdf: 6984853 bytes, checksum: 4647b847de6d3abb110923a021a6f376 (MD5) Previous issue date: 2015 / Resumo: A localização de robôs móveis é foco de estudo em diferentes grupos de pesquisa ao redor do mundo. Robôs móveis são equipados com diferentes sensores, utilizando uma variedade de métodos de localização para as tarefas de exploração de ambientes desconhecidos ou para seguir uma trajetória predefinida. Este trabalho apresenta a investigação e implementação de um método robusto e eficiente da estimativa de movimento utilizando visão computacional, conhecido como odometria visual. Também, é estudada a fusão de estimativas de movimento de diferentes sensores através da técnica do filtro de Kalman. Neste trabalho utilizam-se câmeras estereoscópicas com lentes fixas de 9mm e simulações do movimento de uma câmera no ambiente 3D-Max. A validação experimental dos algoritmos é feita em uma plataforma robótica tipo Seekur Jr equipada com Lasers, GPS, encoders e câmeras estereoscópicas. O movimento do robô é estimado pelos diferentes sensores gerando redundância de localização Os algoritmos de odometria visual são validados em ambientes de interiores e exteriores. A velocidade de processamento dos métodos é comparada usando em diferentes processadores de tipo CPU e GPU, indicando a possibilidade um sistema de realização de odometria visual em tempo real / Abstract: The localization of mobile robots problem is addressed to a number of research groups around the world. Mobile robots are equipped with different sensors, using a variety of methods of localization in the exploration of unknown environments or following a pre-defined trajectory. The present work investigates and implements a robust method of estimation of movement using computer vision, known as visual odometry. The work investigates also the results of fusion of the estimates of movement obtained from different sensors, using the Kalman filter technique. Visual odometry uses stereoscopic vision techniques with real time computing in graphic processing units (GPU). Stereoscopic cameras with fixed 9mm lens and movement simulations in the 3d-Max computer environment are used in the present work. Experimental validation of the visual odometry algorithms is made in a Sekur Jr mobile robot platform, equipped with lasers, GPS, wheel encoders and stereoscopic cameras. Movements of the robot are estimated from the different sensors, yielding redundant localization information. The information from such sensors are fused together through the Kalman filter. Visual odometry algorithms are tested in indoors and outdoors navigation experiments. Processing speed of the methods is compared using different processing units: CPU and GPU, indicating the possibility of performing real time visual odometry / Doutorado / Mecanica dos Sólidos e Projeto Mecanico / Doutor em Engenharia Mecânica

Page generated in 0.0849 seconds