• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 138
  • 18
  • 12
  • 12
  • 12
  • 9
  • 8
  • 8
  • 8
  • 6
  • 3
  • 1
  • Tagged with
  • 160
  • 160
  • 160
  • 92
  • 89
  • 68
  • 62
  • 40
  • 39
  • 35
  • 34
  • 33
  • 31
  • 28
  • 28
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Método de mapeamento por perspectiva inversa aplicado à determinação da distância de objetos em sistemas avançados de assistência ao condutor / Inverse perspective mapping method applied to determine object distance in advanced driver assistance systems

Silva, Rodrigo Adamshuk 30 June 2017 (has links)
O problema de reconhecimento de objetos e características de rodovias está demandando cada vez mais atenção aos veículos automotivos em função da grande tendência em pesquisas em direção ao carro autônomo. Os sistemas avançados de auxílio ao condutor (ADAS – Advanced Driver Assistance System), são caracterizados pelo uso de sensores que possam assim identificar e classificar características do ambiente em que o veículo está inserido. Mecanismos de detecção e medição da distância de objetos a frente de um veículo são atualmente um requisito chave para que a implementação de funções como reconhecimento de sinalização, advertência à colisão, atenuação a colisão em pedestres entre outras. Para manter o veículo em um cenário de condução segura, é necessário identificar e medir a distância de objetos a sua frente. Desta forma, um sistema de câmera monocular para processamento de imagens está sendo aplicado em veículos com o propósito de identificar e determinar a distância de um objeto, o método de mapeamento por perspectiva inversa (IPM Inverse Perspective Mapping) é uma solução implementável para realizar esta função. Neste trabalho foram realizados estudo, análise e implementação da aplicação do método do IPM com o objetivo de detectar o veículo e a distância à frente. Foram utilizadas ferramentas e estratégias para a validação experimental em um veículo real e uma análise estatística a fim de obter resultados comparativos para o cálculo da distância em diferentes horários do dia. Através dos resultados obtidos foi concluído que existem diferenças de valores nas distâncias detectadas em diferentes horários do dia. / The problem of recognizing objects and characteristics of highways is demanding more and more attention to the automotive vehicles due to the great tendency in research towards the autonomous car. Advanced Driver Assistance Systems (ADAS) are characterized by the use of sensors that can identify and classify characteristics of the environment in which the vehicle is inserted. Mechanisms for detecting and measuring the distance of objects in front of a vehicle are currently a key requirement for the implementation of functions such as signaling recognition, collision warning, collision mitigation in pedestrians and others. To keep the vehicle in a safe driving scenario, it is necessary to identify and measure the distance of objects in front of it. In this way, a monocular camera system for image processing is being applied in vehicles with the purpose of identifying and determining the distance of an object, the Inverse Perspective Mapping (IPM) method is an implementable solution to realize this function. In this work, a study, analysis and implementation of the IPM method were performed with the objective of detecting the vehicle and the distance ahead. Tools and strategies for a real vehicle experimental validation and a statistical analysis were used in order to obtain comparative results for calculating the distance at different times of the day. Through the obtained results it was concluded that there are differences of values in the distances detected at different times of the day.
132

Metodologia para a captura, detecção e normalização de imagens faciais

Prodossimo, Flávio das Chagas 29 May 2013 (has links)
CAPES / O reconhecimento facial está se tornando uma tarefa comum com a evolução da tecnologia da informação. Este artefato pode ser utilizado na área de segurança, controlando acesso a lugares restritos, identificando pessoas que tenham cometido atos ilícitos, entre outros. Executar o reconhecimento facial é uma tarefa complexa e, para completar este processo, são implementadas etapas que compreendem: a captura de imagens faciais, a detecção de regiões de interesse, a normalização facial, a extração de características e o reconhecimento em si. Dentre estas, as três primeiras são tratadas neste trabalho, que tem como objetivo principal a normalização automática de faces. Tanto para a captura de imagens quanto para a normalização frontal existem normas internacionais que padronizam o procedimento de execução destas tarefas e que foram utilizadas neste trabalho. Além disto, algumas normas foram adaptadas para a construção de uma base de imagens faciais com o objetivo de auxiliar o processo de reconhecimento facial. Também foi criada uma nova metodologia para normalização de imagens faciais laterais, baseando-se nas normas da normalização frontal. Foram implementadas normalização semiautomática frontal, semiautomática lateral e automática lateral. Para a execução da normalização facial automática são necessários dois pontos de controle, os dois olhos, o que torna indispensável a execução da etapa de detecção de regiões de interesse. Neste trabalho, foram comparadas duas metodologias semelhantes para detecção. Primeiramente foi detectada uma região contendo ambos os olhos e, em seguida, dentro desta região, foram detectados cada um dos olhos de forma mais precisa. Para as duas metodologias foram utilizadas técnicas de processamento de imagens e reconhecimento de padrões. A primeira metodologia utiliza como filtro o Haar-Like Features em conjunto com a técnica de reconhecimento de padrões Adaptative Boosting. Sendo que as técnicas equivalentes no segundo algoritmo foram o Local Binary Pattern e o Support Vector Machines, respectivamente. Na segunda metodologia também foi utilizado um algoritmo de otimização de busca baseado em vizinhança, o Variable Neighborhood Search. Os estudos resultaram em uma base com 3726 imagens, mais uma base normalizada frontal com 966 imagens e uma normalizada lateral com 276 imagens. A detecção de olhos resultou, nos melhores testes, em aproximadamente 99% de precisão para a primeira metodologia e 95% para a segunda, sendo que em todos os testes a primeira foi o mais rápida. Com o desenvolvimento de trabalhos futuros pretende-se: tornar públicas as bases de imagens, melhorar a porcentagem de acerto e velocidade de processamento para todos os testes e melhorar a normalização, implementando a normalização de plano de fundo e também de iluminação. / With the evolution of information technology Facial recognition is becoming a common task. This artifact can be used in security, controlling access to restricted places and identifying persons, for example. Facial recognition is a complex task, and it's divided into some process, comprising: facial images capture, detection of regions of interest, facial normalization, feature extraction and recognition itself. Among these, the first three are treated in this work, which has as its main objective the automatic normalization of faces. For the capture of images and for the image normalization there are international standards that standardize the procedure for implementing these tasks and which were used in this work. In addition to following these rules, other standardizations have been developed to build a database of facial images in order to assist the process of face recognition. A new methodology for normalization of profile faces, based on the rules of frontal normalization. Some ways of normalization were implemented: frontal semiautomatic, lateral semiautomatic and automatic frontal. For the execution of frontal automatic normalization we need two points of interest, the two eyes, which makes it a necessary step to execute the detection regions of interest. In this work, we compared two similar methods for detecting. Where was first detected a region containing both eyes and then, within this region were detected each eye more accurately. For the two methodologies were used techniques of image processing and pattern recognition. The first method based on the Viola and Jones algorithm, the filter uses as Haar-like Features with the technique of pattern recognition Adaptive Boosting. Where the second algorithm equivalent techniques were Local Binary Pattern and Support Vector Machines, respectively. In the second algorithm was also used an optimization algorithm based on neighborhood search, the Variable Neighborhood Search. This studies resulted in a database with 3726 images, a frontal normalized database with 966 images and a database with face's profile normalized with 276 images. The eye detection resulted in better tests, about 99 % accuracy for the first method and 95 % for the second, and in all tests the first algorithm was the fastest. With the development of future work we have: make public the images database, improve the percentage of accuracy and processing speed for all tests and improve the normalization by implementing the normalization of the background and also lighting.
133

Uma proposta de estruturação e integração de processamento de cores em sistemas artificiais de visão. / A proposal for structuration and integration of color processing in artifical vision systems.

Jander Moreira 05 July 1999 (has links)
Esta tese descreve uma abordagem para a utilização da informação de cores no sistema de visão artificial com inspiração biológica denominada Cyvis-1. Considerando-se que grande parte da literatura sobre segmentação de imagens se refere a imagens em níveis de cinza, informações cromáticas na segmentação permanecem uma área que ainda deve ser mais bem explorada e para a qual se direcionou o interesse da presente pesquisa. Neste trabalho, o subsistema de cor do Cyvis-1 é definido, mantendo-se o vínculo com os princípios que inspiram o sistema de visão como um todo: hierarquia, modularidade, especialização do processamento, integração em vários níveis, representação efetiva da informação visual e integração com conhecimento de nível alto. O subsistema de cor se insere neste escopo, propondo uma técnica para segmentação de imagens coloridas baseada em mapas auto-organizáveis para a classificação dos pontos da imagem. A segmentação incorpora a determinação do número de classes sem supervisão, tornando o processo mais independente de intervenção humana. Por este processo de segmentação, são produzidos mapas das regiões encontradas e um mapa de bordas, derivado das regiões. Uma segunda proposta do trabalho é um estudo comparativo do desempenho de técnicas de segmentação por bordas. A comparação é feita em relação a um mapa de bordas de referência e o comportamento de várias técnicas é analisado segundo um conjunto de atributos locais baseados em contrastes de intensidade e cor. Derivada desta comparação, propõe-se também uma combinação para a geração de um mapa de bordas a partir da seleção das técnicas segundo seus desempenhos locais. Finalmente, integrando os aspectos anteriores, é proposta urna estruturação do módulo de cor, adicionalmente com a aquisição de imagens, a análise de formas e o reconhecimento de objetos poliédricos. Há, neste contexto, a integração ao módulo de estéreo, que proporciona o cálculo de dados tridimensionais, essenciais para o reconhecimento dos objetos. Para cada parte deste trabalho são propostas formas de avaliação para a validação dos resultados, demonstrando e caracterizando a eficiência e as limitações de cada uma. / This thesis describes an approach to color information processing in the biologically-inspired artificial vision system named Cyvis-1. Considering that most of the current literature in image segmentation deals with gray level images, color information remains an incipient area, which has motivated this research. This work defines the color subsystem within the Cyvis-1 underlying phylosophy, whose main principles include hierarchy, modularity, processing specialization, multilevel integration, effective representation of visual information, and high-level knowledge integration. The color subsystem is then introduced according to this framework, with a proposal of a segmentation technique based on self-organizing maps. The number of regions in the image is achieved through a unsupervised clustering approach, so no human interaction is needed. Such segmentation technique produces region oriented representation of the classes, which are used to derive an edge map. Another main topic in this work is a comparative study of the edge maps produced by several edge-oriented segmentation techniques. A reference edge map is used as standard segmentation, to which other edge maps are compared. Such analysis is carried out by means of local attributes (local gray level and \"color\" contrasts). As a consequence of the comparison, a combination edge map is also proposed, based on the conditional selection of techniques considering the local attributes. Finally, the integration of two above topics is proposed, which is characterized by the design of the color subsystem of Cyvis-1, altogether with the modules for image acquisition, shape analysis and polyhedral object recognition. In such a context, the integration with the stereo subsystem is accomplished, allowing the evaluation of the three-dimensional data needed for object recognition. Assessment and validation of the three proposals were carried out, providing the means for analyzing their efficiency and limitations.
134

Rastreamento de objetos de grandes proporções

MELO, Givanio José de 03 March 2016 (has links)
Submitted by Natalia de Souza Gonçalves (natalia.goncalves@ufpe.br) on 2016-09-28T12:05:32Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Givanio José de Melo - Rastreamento de objetos de grandes proporções - 2016.pdf: 16669202 bytes, checksum: cdbc131dfb4c4a78c9a942e89fbd9b80 (MD5) / Made available in DSpace on 2016-09-28T12:05:32Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Givanio José de Melo - Rastreamento de objetos de grandes proporções - 2016.pdf: 16669202 bytes, checksum: cdbc131dfb4c4a78c9a942e89fbd9b80 (MD5) Previous issue date: 2016-03-03 / FACEPE / Muitas aplicações necessitam ou se beneficiam de rastreamento de objetos 3D complexos, dentre elas: interfaces de interação, controle robótico e realidade aumentada são exemplos de sistemas que dependem desse tipo de implementação. A construção de um grande estádio de futebol por exemplo, incorpora várias etapas de inspeção visual, medições e controle, que hoje são realizadas de forma artesanal. Processos de produção de maquinários de grande porte como aqueles aplicados à produção de energia eólica, também comuns em estaleiros e indústrias do setor automobilístico e aeroespacial, são exemplos de onde os meios de produção atuais podem se beneficiar significativamente desse tipo de tecnologia. A área de pesquisa em visão computacional visa desenvolver soluções para problemas inerentes a esses processos de forma prática e pouco invasiva, embora o desenvolvimento de técnicas e práticas robustas para estruturas de grandes proporções ainda figure como um ramo inexplorado dessa área de pesquisa. O objetivo dessa dissertação é descrever a pesquisa realizada acerca da área de visão computacional com foco em rastreamento de objetos 3D e propor uma abordagem específica para aplicação em grandes estruturas. A mesma foi, portanto, concebida pela investigação, experimentação e análise de aplicação das técnicas de rastreamento 3D baseado em modelos, com ênfase na comparação dessas técnicas de acordo com o cenário de aplicação, focando no desenvolvimento do rastreamento dedicado a grandes estruturas. Conceitos de visão computacional, processamento digital de imagem e especificamente técnicas de rastreamento baseadas em imagens digitais e modelos tridimensionais são contextualizados nessa dissertação, além de propor uma nova abordagem de rastreamento baseado em modelo utilizando descritores de caracteristicas visuais, e rastreamento baseado em detecção. Os experimentos realizados e relatados nessa dissertação incluem múltiplos níveis de escala e complexidade de objetos, com o objetivo de avaliar tanto a eficiência das técnicas pré-existentes na literatura, como das técnicas implementadas utilizando a abordagem proposta. Os resultados obtidos evidenciam as diferenças existentes entre as abordagens de rastreamento baseado em modelo, de acordo com o tipo, quantidade e qualidade da informação utilizada, como também da técnica de rastreamento selecionada, por fluxo óptico ou por detecção. / Many applications can take benefit of 3D object tracking to be performed. Interaction interfaces, robotic control and augmented reality figure in this conjecture and depend on this kind of implementation. The building process of a big soccer stadium, for instance, includes various steps in visual inspection, measures and quality control, which one currently makes without assistance. Some means of production that can achieve gains using this technology are wind power generation, shipbuilding, car manufacturing, aircraft and aeroespacial building. Computer vision research aims to create new solutions for typical problems of these processes, in practical and non-invasive ways. Anyway, the tracking of big structures still figures as a non-explored branch of computer vision. The main objective for this master thesis is to report the research in computer vision, focusing in 3D object tracking, and propose a new specific approach for big object tracking applications. This master thesis was conceived by examination, experimentation and application analysis over 3D model based tracking applications, in order to compare the implementations in different scenarios and contribute to big structure tracking branch’s development. Inside this text is presented and discussed the basis of digital image processing and computer vision, specifically, this work focuses in 3D model based techniques to track real world objects in camera images. As the main contribution, a new approach is proposed for model based tracking using feature descriptors and tracking by detection. The tests presented, include multi-scale and multi-complexity objects in order to evaluate both, literature and proposed approaches, under the effectiveness aspect. The results obtained show clear differences between approaches in model based tracking, according to information (type, quantity, quality) and tracking basis (optical flow or tracking by detection).
135

Rastreamento de alvo móvel em mono-visão aplicado no sistema de navegação autônoma utilizando GPU / Tracking of target moving in monocular vision system applied to autonomous navigation using GPU

Vitor, Giovani Bernardes, 1985- 16 August 2018 (has links)
Orientador: Janito Vaqueiro Ferreira / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecânica / Made available in DSpace on 2018-08-16T19:38:32Z (GMT). No. of bitstreams: 1 Vitor_GiovaniBernardes_M.pdf: 6258094 bytes, checksum: fbd34947eb1efdce50b97b27f56c1920 (MD5) Previous issue date: 2010 / Resumo: O sistema de visão computacional é bastante útil em diversas aplicações de veículos autônomos, como em geração de mapas, desvio de obstáculos, tarefas de posicionamento e rastreamento de alvos. Além disso, a visão computacional pode proporcionar um ganho significativo na confiabilidade, versatilidade e precisão das tarefas robóticas, questões cruciais na maioria das aplicações reais. O presente trabalho tem como objetivo principal o desenvolvimento de uma metodologia de controle servo visual em veículos robóticos terrestres para a realização de rastreamento e perseguição de um alvo. O procedimento de rastreamento é baseado na correspondência da região alvo entre a seqüência de imagens, e a perseguição pela geração do movimento de navegação baseado nas informações da região alvo. Dentre os aspectos que contribuem para a solução do procedimento de rastreamento proposto, considera-se o uso das técnicas de processamento de imagens como filtro KNN, filtro Sobel, filtro HMIN e transformada Watershed que unidas proporcionam a robustez desejada para a solução. No entanto, esta não é uma técnica compatível com sistema de tempo real. Deste modo, tais algoritmos foram modelados para processamento paralelo em placas gráficas utilizando CUDA. Experimentos em ambientes reais foram analisados, apresentando diversos resultados para o procedimento de rastreamento, bem como validando a utilização das GPU's para acelerar o processamento do sistema de visão computacional / Abstract: The computer vision system is useful in several applications of autonomous vehicles, such as map generation, obstacle avoidance tasks, positioning tasks and target tracking. Furthermore, computer vision can provide a significant gain in reliability, versatility and accuracy of robotic tasks, which are important concerns in most applications. The present work aims at the development of a visual servo control method in ground robotic vehicles to perform tracking and follow of a target. The procedure for tracking is based on the correspondence between the target region sequence of images, and persecution by the generation of motion based navigation of information from target region. Among the aspects that contribute to the solution of the proposed tracking procedure, we consider the use of imaging techniques such as KNN filter, Sobel filter, HMIN filter and Watershed transform that together provide the desired robustness for the solution. However, this is not a technique compatible with real-time system. Thus, these algorithms were modeled for parallel processing on graphics cards using CUDA. Experiments in real environments were analyzed showed different results for the procedure for tracking and validating the use of GPU's to accelerate the processing of computer vision system / Mestrado / Mecanica dos Sólidos e Projeto Mecanico / Mestre em Engenharia Mecânica
136

Melhorias para sistemas de reconhecimento da placa de licenciamento veicular / Improvements for vehicle license plate recognition systems

Dias, Fabio Gaiotto 25 October 2005 (has links)
Orientador: Roberto de Alencar Lotufo / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-05T14:11:13Z (GMT). No. of bitstreams: 1 Dias_FabioGaiotto_M.pdf: 23093036 bytes, checksum: b69164dd21b02038afe09fee3044659a (MD5) Previous issue date: 2005 / Resumo: Sistemas de reconhecimento da placa de licenciamento veicular (SRPLV) identificam o código da placa de um veículo com base em sua imagem.. Suas principais aplicações são: detecção de veículos roubados; controle de acesso em áreas restritas; monitoramento de tráfego; fiscalização de trânsito; controle automático de estacionamentos e de pedágios. Neste trabalho, descrevemos melhorias para SRPLV. As principais contribuições estão no método de localização da placa, efetuando a binarização com base nos mínimos regionais da imagem filtrada; no enquadramento com correção da distorção de perspectiva da placa, através da homografia; na separação dos caracteres com auxilio da projeção vertical; e no reconhecimento dos caracteres, utilizando um classificador hierárquico de distância mínima. Nossa proposta obteve resultado 1,17 vezes superior na localização da placa e 1,58 vezes superior no correto reconhecimento da placa em relação ao melhor resultado entre duas demonstrações de sistemas comerciais disponíveis na internet (SeeCar e SIAV 3.0), usando um banco de dados com 1200 imagens / Abstract: Vehicle license plate recognition systems (VLPRS) identify the plate number of a vehicle based on its image. Their main applications are: stolen vehicle detection; access control of restricted areas; traffic monitoring; traffic law enforcement; automatic control of parking and toll collection, in this work, we describe improvements for VLPRS. The main contributions are in the plate location method performing the binarization based on regional minima of the filtered image; in the plate framing with perspective distortion correction using the homography; in the character separation with the aid of the vertical projection; and in the character recognition, using a minimal distance hierarchical classifier. Our proposal presented a performance 1.17 times superior in the plate location and 1.58 times superior in the correct plate recognition, when compared to the best result of two commercial system demonstrations available in the internet (SeeCar and SIAV 3.0), using a database of 1.200 images / Mestrado / Engenharia de Computação / Mestre em Engenharia Elétrica
137

Navegação de robos autonomos baseada em monovisão / Autonomous robot's navigation based on monocular vision

Miranda Neto, Arthur de 26 February 2007 (has links)
Orientadores: Douglas Eduardo Zampieri, Andre Mendeleck / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecanica / Made available in DSpace on 2018-08-09T05:32:53Z (GMT). No. of bitstreams: 1 MirandaNeto_Arthurde_M.pdf: 21444077 bytes, checksum: e685627c310f9057b82e1bb7b7229228 (MD5) Previous issue date: 2007 / Resumo: Neste trabalho apresentamos um sistema autônomo baseado em monovisão, aplicado ao controle de um robô móvel em tarefas de navegação por ambientes desconhecidos. Para o cumprimento de tarefas de navegação, o sistema não possui conhecimento inicial sobre o ambiente, tendo como fonte primária de informações, dados oriundos do sistema de visão. Os movimentos são estruturados através de um Algoritmo Genético, que define as ações a serem executadas pelo robô móvel. O sistema foi desenvolvido em uma arquitetura multicamadas, sendo elas: Visão Computacional, Estratégias de Navegação e Comandos. A camada de visão constitui-se de dois métodos principais: método de segmentação Threshold and Horizon Finder, baseado no método de busca do limiar ótimo proposto por Otsu; e um novo método para descarte de informações redundantes, baseado no Coeficiente de Correlação de Pearson. Na camada Estratégias de Navegação, apresentamos uma proposta de um sistema de navegação com aprendizado evolutivo. Na última camada Comandos, abordamos o protocolo de interface entre a aplicação e o projeto físico mecânico. Um experimento foi realizado com um protótipo real, cujos resultados validaram a metodologia proposta, demonstrando a capacidade de resposta do sistema em tempo real / Abstract: In this work we present an autonomous system based on monocular vision, applied to a mobile robot's control executing navigation tasks in an unknown environrnent. For the execution of navigation tasks, the system does not have previous knowledge of the environrnent. Its primary source of information is data originating from the vision system. The movements are structured through a Genetic AIgorithm that defines the actions to be executed by the mobile robot. The system was developed based on a multilayer architecture, where the three main layers are: Computer Vision, Navigation Strategies and Commands. The vision layer is constituted of two main methods: method of segmentation Threshold and Horizon Finder, based on the ideal threshold search method proposed by Otsu; and a new improved method for discarding redundant information, based on the Pearson's Coefficient Correlation. In the Navigation Strategies layer, we propose a navigation system with evolutive learning. In the last layer, Commands, we deal with the interface protocol between the application and the mechanical physical project. An experiment with a real prototype was executed, which results validated the proposed methodology, demonstrating that the system is able to give real time responses / Mestrado / Mecanica dos Sólidos e Projeto Mecanico / Mestre em Engenharia Mecânica
138

Localização híbrida para um veículo autônomo em escala usando fusão de sensores : Hybrid localization for an scale R/C car using sensor fusion / Hybrid localization for an scale R/C car using sensor fusion

Cárdenas Rueda, Miguel Ángel 24 August 2018 (has links)
Orientador: Janito Vaqueiro Ferreira / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecânica / Made available in DSpace on 2018-08-24T20:24:36Z (GMT). No. of bitstreams: 1 CardenasRueda_MiguelAngel_M.pdf: 13764912 bytes, checksum: 61cf12c0dfb532f0a7b4ccb7bd50bcae (MD5) Previous issue date: 2013 / Resumo: A localização tem sido definido como um dos problemas-chave da navegação autônoma. Este problema levanta a questão em relação ao fato de determinar a posição e orientação em qualquer instante durante uma trajetoria. Um dos métodos mais usados para determinar a localização de um robô movel é a odometria; embora não garanta informação precisa da posição e orientação, esse método é a base dos métodos de localização relativa. Também existem métodos de localização absoluta, que em relação a um referencial fixo provêm informação mais precisa sobre o estado de um robô, como, por exemplo, o GPS. Mas, quando erros de diferentes naturezas ocorrem, e como consequência introduzem ruído em qualquer sistema de localização, é necessário ter informação redundante para estabelecer uma informação mais precisa. Esta dissertação de mestrado propõe um sistema de localização para um veículo em escala baseado em sistemas de odometria visual e odometria clássica a fim de fornecer uma estimativa robusta de posição e orientação através de um sistema de posicionamento global simulado / Abstract: Localization has been defined as one of the key problems of autonomous navigation. This issue rises the question about the fact of determining the position and orientation at any time while tracking a trajectory. One of the most used methods to determine the localization of a mobile robot is odometry; however, despite the fact that can't provide accurate results for getting the position and orientation, this method is the basis of the relative localization methods. Also, there are methods for absolute localization which provide information more accurately about the state of the robot, such as the commonly used GPS. But when errors of different nature occur, and as a consequence, introduce noise at any localization system, it is necessary to have redundant information to establish a more accurate information. This master thesis proposes a tracking system for a scale indoor vehicle based on classic and visual odometry in order to provide a robust estimation of position and orientation relative through a simulated global positioning system / Mestrado / Mecanica dos Sólidos e Projeto Mecanico / Mestre em Engenharia Mecânica
139

Learning person-specific face representations = Aprendendo representações específicas para a face de cada pessoa / Aprendendo representações específicas para a face de cada pessoa

Chiachia, Giovani, 1981- 23 August 2018 (has links)
Orientadores: Alexandre Xavier Falcão, Anderson de Rezende Rocha / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-23T15:41:33Z (GMT). No. of bitstreams: 1 Chiachia_Giovani_D.pdf: 4376963 bytes, checksum: 8f7d18d591f2a5d943313d89416f96d4 (MD5) Previous issue date: 2013 / Resumo: Os seres humanos são especialistas natos em reconhecimento de faces, com habilidades que excedem em muito as dos métodos automatizados vigentes, especialmente em cenários não controlados, onde não há a necessidade de colaboração por parte do indivíduo sendo reconhecido. No entanto, uma característica marcante do reconhecimento de face humano é que nós somos substancialmente melhores no reconhecimento de faces familiares, provavelmente porque somos capazes de consolidar uma grande quantidade de experiência prévia com a aparência de certo indivíduo e de fazer uso efetivo dessa experiência para nos ajudar no reconhecimento futuro. De fato, pesquisadores em psicologia têm até mesmo sugeridos que a representação interna que fazemos das faces pode ser parcialmente adaptada ou otimizada para rostos familiares. Enquanto isso, a situação análoga no reconhecimento facial automatizado | onde um grande número de exemplos de treinamento de um indivíduo está disponível | tem sido muito pouco explorada, apesar da crescente relevância dessa abordagem na era das mídias sociais. Inspirados nessas observações, nesta tese propomos uma abordagem em que a representação da face de cada pessoa é explicitamente adaptada e realçada com o intuito de reconhecê-la melhor. Apresentamos uma coleção de métodos de aprendizado que endereça e progressivamente justifica tal abordagem. Ao aprender e operar com representações específicas para face de cada pessoa, nós somos capazes de consistentemente melhorar o poder de reconhecimento dos nossos algoritmos. Em particular, nós obtemos resultados no estado da arte na base de dados PubFig83, uma desafiadora coleção de imagens instituída e tornada pública com o objetivo de promover o estudo do reconhecimento de faces familiares. Nós sugerimos que o aprendizado de representações específicas para face de cada pessoa introduz uma forma intermediária de regularização ao problema de aprendizado, permitindo que os classificadores generalizem melhor através do uso de menos |, porém mais relevantes | características faciais / Abstract: Humans are natural face recognition experts, far outperforming current automated face recognition algorithms, especially in naturalistic, \in-the-wild" settings. However, a striking feature of human face recognition is that we are dramatically better at recognizing highly familiar faces, presumably because we can leverage large amounts of past experience with the appearance of an individual to aid future recognition. Researchers in psychology have even suggested that face representations might be partially tailored or optimized for familiar faces. Meanwhile, the analogous situation in automated face recognition, where a large number of training examples of an individual are available, has been largely underexplored, in spite of the increasing relevance of this setting in the age of social media. Inspired by these observations, we propose to explicitly learn enhanced face representations on a per-individual basis, and we present a collection of methods enabling this approach and progressively justifying our claim. By learning and operating within person-specific representations of faces, we are able to consistently improve performance on both the constrained and the unconstrained face recognition scenarios. In particular, we achieve state-of-the-art performance on the challenging PubFig83 familiar face recognition benchmark. We suggest that such person-specific representations introduce an intermediate form of regularization to the problem, allowing the classifiers to generalize better through the use of fewer | but more relevant | face features / Doutorado / Ciência da Computação / Doutor em Ciência da Computação
140

Método de medição de alinhamento de suspensão veicular não intrusivo baseado em visão computacional / Not intrusive method for the measurement of alignment angles of vehicular suspension based on computer vision

Mingoto Junior, Carlos Roberto 21 August 2018 (has links)
Orientador: Paulo Roberto Gardel Kurka / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecânica / Made available in DSpace on 2018-08-21T02:23:47Z (GMT). No. of bitstreams: 1 MingotoJunior_CarlosRoberto_D.pdf: 4676498 bytes, checksum: f396cb633ba04f6ff1589cea747bb133 (MD5) Previous issue date: 2012 / Resumo: O presente projeto de pesquisa aplica técnicas de visão estereoscópica computacional no desenvolvimento da configuração de um equipamento de medição de ângulos de alinhamento de suspensão veicular, usando câmeras de vídeo de baixo custo. Atualmente, a maioria dos dispositivos de medição de ângulos de alinhamento de suspensão de veículos baseia-se no uso de componentes eletromecânicos, como pêndulos resistivos, inclinômetros capacitivos, dispositivos opto-mecânicos (espelhos e raio de luz monocromática de baixa intensidade). Com a sequência aqui estabelecida dos fundamentos algébricos e técnicas de visão computacional, realizam-se estudos de viabilidade científica e proposta de construção de um equipamento de verificação de ângulos de alinhamento veicular. São apresentados testes virtuais e reais, ilustrativos da potencialidade operacional do equipamento / Abstract: This research project uses stereoscopic computer vision techniques to develop a system to measure alignment angles of vehicular suspensions, using low cost cameras. Currently, most of the devices intended to measure vehicular suspension angles are based on the use of electromechanical components, such as resistive pendulums, capacitive inclinometers or opticmechanical devices (mirrors and projection of beams of monochromatic light of low intensity). Fundaments of linear algebra and computer vision techniques, lead to studies of feasibility and practical implementation of a system used to measure vehicular suspension alignment angles. Virtual and real measurements are carried out to illustrate the operative potential of such a system / Doutorado / Mecanica dos Sólidos e Projeto Mecanico / Doutor em Engenharia Mecânica

Page generated in 0.031 seconds