• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 138
  • 18
  • 12
  • 12
  • 12
  • 9
  • 8
  • 8
  • 8
  • 6
  • 3
  • 1
  • Tagged with
  • 160
  • 160
  • 160
  • 92
  • 89
  • 68
  • 62
  • 40
  • 39
  • 35
  • 34
  • 33
  • 31
  • 28
  • 28
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Environment for the analysis and comparison of texture descriptors / Ambiente para análise e comparação de descritores de textura

Farfan, Alex Josue Florez 17 October 2018 (has links)
Texture analysis is an active area of research and plays an important role in computer vision applications. Texture, along with color and shape, contains important features of an image. Texture analysis allows to characterize regions inside an image by using descriptors. These descriptors are applied in the study of texture classification, in which the goal is to identify features that characterize a particular texture and assign a label to an image based on these features. Because of the importance of texture analysis in computer vision, researchers are continually devising and developing new descriptors, with the aim to improve the discriminative power of texture features of an image. A difficult task in texture analysis is to compare these descriptors and verify which are the most suitable for each type of image. The lack of a good review and comparison of descriptors cause that some applications do not use the most appropriate descriptor for a specific type of texture. Therefore, in this dissertation it was developed a research and collaboration platform for the analysis and comparison of texture descriptors and texture datasets. The platform aims to support the researchers in the area of texture analysis, specifically in texture classification. The platform was useful to perform an extensive comparison of texture descriptors and various texture datasets. Using the platform, in some datasets the results produced were better than those previously found in the literature. The results indicate that the classification accuracy varies according to the descriptor and classifier employed. By varying the parameters of texture descriptors it was possible to get different, yet better, classification accuracies. / A análise de textura é uma área ativa de pesquisa que desempenha um papel importante em aplicações de visão computacional. A textura, juntamente com a cor e a forma, contém características importantes de uma imagem. A análise de textura permite caracterizar regiões dentro de uma imagem usando descritores. Esses descritores são aplicados no estudo de classificação de texturas, no qual o objetivo é identificar características que distingam uma determinada textura e atribuir um rótulo a uma imagem baseada nessas características. Devido à importância da análise de textura na visão computacional, os pesquisadores estão continuamente criando e desenvolvendo novos descritores, com o objetivo de melhorar o poder discriminativo dessas características em uma imagem. Uma tarefa difícil na análise de textura é comparar esses descritores e verificar quais são os mais adequados para cada tipo de tipo de imagem. A falta de uma boa revisão e comparação de descritores de textura pode fazer com que algumas aplicações não utilizem o descritor mais adequado para um tipo específico de textura. Portanto, nesta dissertação foi desenvolvida uma plataforma de pesquisa e colaboração para a análise e comparação de descritores de textura e conjuntos de dados de textura. A plataforma visa apoiar os pesquisadores na área de análise de textura, especificamente na classificação de texturas. A plataforma foi útil para realizar uma comparação extensiva de descritores de textura e vários conjuntos de dados de textura. Com essa plataforma, em alguns conjuntos de dados os resultados encontrados foram melhores que aqueles encontrados anteriormente na literatura. Os resultados indicam que a acurácia de classificação muda segundo o descritor e o classificador usado. Mudando os valores dos parâmetros dos descritores de textura foi possível obter acurácias diferentes e até melhores.
122

Uma proposta de estruturação e integração de processamento de cores em sistemas artificiais de visão. / A proposal for structuration and integration of color processing in artifical vision systems.

Moreira, Jander 05 July 1999 (has links)
Esta tese descreve uma abordagem para a utilização da informação de cores no sistema de visão artificial com inspiração biológica denominada Cyvis-1. Considerando-se que grande parte da literatura sobre segmentação de imagens se refere a imagens em níveis de cinza, informações cromáticas na segmentação permanecem uma área que ainda deve ser mais bem explorada e para a qual se direcionou o interesse da presente pesquisa. Neste trabalho, o subsistema de cor do Cyvis-1 é definido, mantendo-se o vínculo com os princípios que inspiram o sistema de visão como um todo: hierarquia, modularidade, especialização do processamento, integração em vários níveis, representação efetiva da informação visual e integração com conhecimento de nível alto. O subsistema de cor se insere neste escopo, propondo uma técnica para segmentação de imagens coloridas baseada em mapas auto-organizáveis para a classificação dos pontos da imagem. A segmentação incorpora a determinação do número de classes sem supervisão, tornando o processo mais independente de intervenção humana. Por este processo de segmentação, são produzidos mapas das regiões encontradas e um mapa de bordas, derivado das regiões. Uma segunda proposta do trabalho é um estudo comparativo do desempenho de técnicas de segmentação por bordas. A comparação é feita em relação a um mapa de bordas de referência e o comportamento de várias técnicas é analisado segundo um conjunto de atributos locais baseados em contrastes de intensidade e cor. Derivada desta comparação, propõe-se também uma combinação para a geração de um mapa de bordas a partir da seleção das técnicas segundo seus desempenhos locais. Finalmente, integrando os aspectos anteriores, é proposta urna estruturação do módulo de cor, adicionalmente com a aquisição de imagens, a análise de formas e o reconhecimento de objetos poliédricos. Há, neste contexto, a integração ao módulo de estéreo, que proporciona o cálculo de dados tridimensionais, essenciais para o reconhecimento dos objetos. Para cada parte deste trabalho são propostas formas de avaliação para a validação dos resultados, demonstrando e caracterizando a eficiência e as limitações de cada uma. / This thesis describes an approach to color information processing in the biologically-inspired artificial vision system named Cyvis-1. Considering that most of the current literature in image segmentation deals with gray level images, color information remains an incipient area, which has motivated this research. This work defines the color subsystem within the Cyvis-1 underlying phylosophy, whose main principles include hierarchy, modularity, processing specialization, multilevel integration, effective representation of visual information, and high-level knowledge integration. The color subsystem is then introduced according to this framework, with a proposal of a segmentation technique based on self-organizing maps. The number of regions in the image is achieved through a unsupervised clustering approach, so no human interaction is needed. Such segmentation technique produces region oriented representation of the classes, which are used to derive an edge map. Another main topic in this work is a comparative study of the edge maps produced by several edge-oriented segmentation techniques. A reference edge map is used as standard segmentation, to which other edge maps are compared. Such analysis is carried out by means of local attributes (local gray level and \"color\" contrasts). As a consequence of the comparison, a combination edge map is also proposed, based on the conditional selection of techniques considering the local attributes. Finally, the integration of two above topics is proposed, which is characterized by the design of the color subsystem of Cyvis-1, altogether with the modules for image acquisition, shape analysis and polyhedral object recognition. In such a context, the integration with the stereo subsystem is accomplished, allowing the evaluation of the three-dimensional data needed for object recognition. Assessment and validation of the three proposals were carried out, providing the means for analyzing their efficiency and limitations.
123

Proposta de uma ferramenta de visualização e realidade virtual para o monitoramento de tráfego de redes de computadores /

Rosante, Júnior César. January 2011 (has links)
Orientador: José Remo Ferreira Brega / Banca: Luis Carlos Trevelin / Banca: Roberta Spolon / Resumo: O crescimento das redes de computadores e telecomunicações assim como do número de dispositivos conectados a essas provoca um aumento expressivo da quantidade de tráfego de dados gerando maior dificuldade no seu gerenciamento e demandas crescentes da necessidade de prover segurança dos dados e continuidade dos serviços de rede prestados pelas instituições. Existem ferramentas para auxiliar no trabalho de monitoramento de redes como o Tcpdump e o Snort. Este auxilia no trabalho de detecção e bloqueio de tráfegos maliciosos como portscans e ataques de denial of services (DoS) através da análise de tráfego por verificação de assinaturas e padrões. Ainda que sejam de suma importância, ferramentas deste tipo descartam a capacidade cognitiva do ser humano de aprendizado e reconhecimento de padrões. Para contornar essa carência e aproveitar a capacidade de cognição visual humana, este trabalho propõe o uso de conceitos de Realidade Virtual aliados a Visualização de Informação na implementação de uma ferramenta de visualização de informações. Esta deve apresentar os dados brutos do tráfego da rede através de novas perspectivas e metáforas visuais utilizando as técnicas de Realidade Virtual com suas características de imersão, interação e envolvimento em um espaço sintético tridimensional. A representação do tráfego de rede através de metáforas visuais pela ferramenta desperta o senso cognitivo do administrador de redes possibilitando a identificação de tráfego anômalo e de comportamentos estranhos. A ferramenta deve fornecer possibilidades de configurações para exibir diferentes aspectos do tráfego servindo tanto para auxílio administrativo de comportamentos dos usuários quanto para análise e detecção de acessos maliciosos / Abstract: The growth of computer networks and telecommunications as well as the number of devices connected to these causes a significant increase in the amount of data traffic generating greater difficulty in its management and growing demands on the need to provide data security and continuity of network services provided institutions. There are tools to assist in the work of monitoring networks such as Tcpdump and Snort. This helps in detecting and blocking malicious traffic and attacks such as portscans and denial of service (DoS) attacks by analyzing traffic for verification of signatures and patterns. Though they are very important, tool of this type discard the cognitive capacity of human learning and pattern recognition. To address this need and the ability to take advantage of human visual cognition, this work proposes the use of concepts of Virtual Reality to Information Visualization in the implementation of an information visualization tool. This should provide the raw data of network traffic through new perspectives and visual metaphors using Virtual Reality techniques to their characteristics of immersion, interaction and involvement in a synthetic three-dimensional space. The representation of network traffic through visual metaphors for the cognitive tool awakens the sense of enabling network administrators to identify anomalous traffic and strange behavior. The tool should give you plenty of settings to display different aspects of traffic serving both to assist administrators and users' behavior for analysis and detection of malicious access / Mestre
124

Visual novelty detection for autonomous inspection robots

Vieira Neto, Hugo 06 1900 (has links)
CAPES / Mobile robot applications that involve automated exploration and inspection of environments are often dependant on novelty detection, the ability to differentiate between common and uncommon perceptions. Because novelty can be anything that deviates from the normal context, we argue that in order to implement a novelty filter it is necessary to exploit the robot's sensory data from the ground up, building models of normality rather than abnormality. In this work we use unrestricted colour visual data as perceptual input to on-line incremental learning algorithms. Unlike other sensor modalities, vision can provide a variety of useful information about the environment through massive amounts of data, which often need to be reduced for realtime operation. Here we use mechanisms of visual attention to select candidate image regions to be encoded and fed to higher levels of processing, enabling the localisation of novel features within the input image frame. An extensive series of experiments using visual input, obtained by a real mobile robot interacting with laboratory and medium-scale real world environments, are used to discuss different visual novelty filter configurations. We compare performance and functionality of novelty detection mechanisms based on the Grow-When-Required neural network and incremental Principal Component Analysis. Results are assessed using both qualitative and quantitative methods, demonstrating advantages and disadvantages of each investigated approach.
125

Desenvolvimento e avaliação de um sistema de visão artificial para classificação de madeira serrada de eucalipto / Developing and evaluating an machine vision system for grading of the eucalyptus sawn lumber

Khoury Junior, Joseph Kalil 29 March 2004 (has links)
Submitted by Marco Antônio de Ramos Chagas (mchagas@ufv.br) on 2017-02-22T16:16:57Z No. of bitstreams: 1 texto completo.pdf: 637669 bytes, checksum: e730f93df33c88ccacf7199d6d74a720 (MD5) / Made available in DSpace on 2017-02-22T16:16:57Z (GMT). No. of bitstreams: 1 texto completo.pdf: 637669 bytes, checksum: e730f93df33c88ccacf7199d6d74a720 (MD5) Previous issue date: 2004-03-29 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Na seleção de madeira serrada para fabricação de móveis e utilização em projeto de interiores, a aparência é o requisito de maior importância. Classificando e selecionando-se as peças, pode-se conseguir um produto com a aparência desejada. Dessa forma, a indústria de madeira serrada tem dispensado especial atenção às etapas de classificação e seleção de madeira serrada. A etapa de classificação visual é considerada uma atividade estressante, em razão da exigência de concentração para identificar e mensurar defeitos nas peças de madeira e classificá-las por tempo prolongado. Os sistemas de classificação, que utilizam imagens digitais no processo de automatização são conhecidos como sistemas de visão artificial. No presente trabalho, o objetivou-se desenvolver um algoritmo com base em processamento de imagens digitais para classificação de madeira serrada de eucalipto, para aplicação em um sistema de visão artificial. Para o desenvolvimento e testes dos algoritmos, foram coletadas imagens digitais coloridas de peças de madeira serrada de eucalipto, secas ao ar e previamente aplainadas. As amostras foram escolhidas de forma que estariam presentes, além de madeiras limpas, os defeitos visuais que afetavam a qualidade da peça de madeira serrada. Características obtidas de imagens de defeitos da madeira foram utilizadas para desenvolver e testar dois tipos de classificadores: um classificador estatístico e outro com base em redes neurais. Um algoritmo foi implementado, para classificação de madeira serrada com base na norma ABNT - NBR 14806 (Madeira serrada de eucalipto Requisitos), que estabelece os requisitos exigidos para madeira serrada de eucalipto, proveniente de florestas plantadas. As características utilizadas como descritores dos defeitos e madeira limpa foram percentis de blocos da imagem das bandas do vermelho, verde e azul. Foram testados dois tamanhos de blocos da imagem 64x64 pixels e 32x32 pixels. Os resultados das exatidões globais, encontrados nestes dois tamanhos de blocos para os classificadores estatísticos, foram de 81% e 76%, enquanto para as redes neurais foram de 83% e 77%, respectivamente. O classificador estatístico apresentou melhor identificação em algumas classes especificas de defeitos. O algoritmo para classificação das faces das peças de madeira serrada foi implementado, utilizando-se o classificador estatístico e blocos de 32x32 pixels para identificar os tipos de defeito e madeira limpa. A exatidão global foi de 65%, na classificação de cada face larga da peça independentemente. Entretanto, a exatidão foi de 90% na classificação da madeira serrada, em que ambas as faces foram avaliadas simultaneamente. A ocorrência de erros proveniente da classificação não foi devida à identificação de madeira limpa, mas, principalmente, à confusão entre alguns tipos de defeitos. / In selecting the sawn lumber for production of furniture manufacture and utilization in interiors design, a very important requirement is the appearance. The grading and selection of the boards are fundamental stages for getting a product with the desired appearance. So, the sawn lumber industry has giving a special attention to these stages. The visual classification stage is considered as a stressful activity, because its requires special concentration in identifying and measuring the defects in the boards, as well as to classify them for an extended time. The grading systems using digital images in the automation process are known as machine vision systems. This study aimed at the development of an algorithm based on the digital image processing for grading the eucalyptus sawn lumber to be applied on a machine vision system. Some colored digital images of the air-dried and flattened eucalyptus boards were collected in order to develop and test the algorithms. The board samples were chosen in such a way that would show clear wood as well as the visual defects affecting the quality of the board. The characteristics obtained from the lumber defect were used to developing and testing two classifier types: a statistical one and the artificial neural network. Finally, an algorithm was implemented for the board classification based on the Brazilian norm ABNT - NBR 14806 (Eucalyptus sawn Wood Requirements) that establishes the requirements for eucalyptus sawn lumber from the planted forests. The characteristics used as descriptors of the defects and clear wood were the percentiles of the red, green and blue bands of the image blocks. Two block sizes of the image (64x64 and 32x32) pixels were tested. The overall accuracy found in these two block sizes for the statistical classifiers were 81% and 76%, whereas the neural networks reached 83% and 77%, respectively. And the statistical classifier showed a better identification for some specific defect classes. The algorithm for grading the face of the sawn lumber boards was implemented, by using the statistical classifier and the boards (32x32 to pixels) to identify both the defect types and clear wood. The overall accuracy was 65%, when classifying independently each wide face of the board. However, an accuracy of 90% was attained, when classifying the sawn lumber in which both faces were simultaneously evaluated. The occurrence of the errors upon classification were not due to the identification of clear wood, but rather to the embarrassment among some kinds of defects. / Tese importada do Alexandria
126

Facial expression recognition using deep learning - convolutional neural network

Lopes, André Teixeira 03 March 2016 (has links)
Made available in DSpace on 2016-08-29T15:33:24Z (GMT). No. of bitstreams: 1 tese_9629_dissertacao(1)20160411-102533.pdf: 9277551 bytes, checksum: c18df10308db5314d25f9eb1543445b3 (MD5) Previous issue date: 2016-03-03 / CAPES / O reconhecimento de expressões faciais tem sido uma área de pesquisa ativa nos últimos dez anos, com uma área de aplicação em crescimento como animação de personagens e neuro-marketing. O reconhecimento de uma expressão facial não é um problema fácil para métodos de aprendizagem de máquina, dado que pessoas diferentes podem variar na forma com que mostram suas expressões. Até uma imagem da mesma pessoa em uma expressão pode variar em brilho, cor de fundo e posição. Portanto, reconhecer expressões faciais ainda é um problema desafiador em visão computacional. Para resolver esses problemas, nesse trabalho, nós propomos um sistema de reconhecimento de expressões faciais que usa redes neurais de convolução. Geração sintética de dados e diferentes operações de pré-processamento foram estudadas em conjunto com várias arquiteturas de redes neurais de convolução. A geração sintética de dados e as etapas de pré-processamento foram usadas para ajudar a rede na seleção de características. Experimentos foram executados em três bancos de dados largamente utilizados (CohnKanade, JAFFE, e BU3DFE) e foram feitas validações entre bancos de dados(i.e., treinar em um banco de dados e testar em outro). A abordagem proposta mostrou ser muito efetiva, melhorando os resultados do estado-da-arte na literatura. / Facial expression recognition has been an active research area in the past ten years, with growing application areas such avatar animation, neuromarketing and sociable robots. The recognition of facial expressions is not an easy problem for machine learning methods, since people can vary signi cantly in the way that they show their expressions. Even images of the same person in one expression can vary in brightness, background and position. Hence, facial expression recognition is still a challenging problem. To address these problems, in this work we propose a facial expression recognition system that uses Convolutional Neural Networks. Data augmentation and di erent preprocessing steps were studied together with various Convolutional Neural Networks architectures. The data augmentation and pre-processing steps were used to help the network on the feature selection. Experiments were carried out with three largely used databases (Cohn-Kanade, JAFFE, and BU3DFE) and cross-database validations (i.e. training in one database and test in another) were also performed. The proposed approach has shown to be very e ective, improving the state-of-the-art results in the literature and allowing real time facial expression recognition with standard PC computers.
127

Improving face recognition with multispectral fusion and support vector machines /

Chiachia, Giovani. January 2009 (has links)
Orientador: Aparecido Nilceu Marana / Banca: Roberto Marcondes Cesar Junior / Banca: Ivan Rizzo Guilherme / Resumo: O reconhecimento facial é uma das principais formas de identificação humana. Apesar das pesquisas em reconhecimento facial automático terem crescido substancialmente ao longo dos últimos 35 anos, identificar pessoas a partir da face continua sendo um desafio para as áreas de Visão Computacional e Reconhecimento de Padrões. Em função dos cenários variarem desde a identificação a partir de fotografias até o reconhecimento baseado em vídeos sem nenhum tipo de controle ao serem gravados, os maiores desafios estão relacionados à independência contra diferentes tipos de iluminação, pose e expressão. O objetivo desta dissertação é propor técnicas que possam contribuir para a melhoria dos sistemas de reconhecimento facial. A primeira técnica endereça o problema da iluminação através da fusão dos espectros visível e infravermelho da face. Através desta abordagem, as taxas de reconhecimento foram melhoradas em 2.07% enquanto a taxa de erro igual (EER) foi reduzida em 45.47%. A segunda técnica trata do caso da extração e classificação de características faciais. Ela propõe um novo modelo para reconhecimento facial através do uso de características extraídas por Histogramas Census e de uma técnica de reconhecimento de padrões baseada em Máquinas de Vetores de Suporte (SVMs). Este outro grupo de experimentos nos possibilitou aumentar a precisão do reconhecimento no teste FERET fa/fb em 0.5%. Além destes resultados, algumas contribuições adicionais deste trabalho que merecem ser destacadas são a análise da dependência estatística entre classificadores de espectros diferentes e considerações sobre o comportamento de uma única C-SVC SVM para identificação de pessoas de forma eficaz. / Abstract: Face recognition is one of the primary ways of human identification. Although researches on automated face recognition have broadly increased along the last 35 years, it remains a challenging task in the fields of Computer Vision and Pattern Recognition. As the scenarios varies from static and constrained photographs to uncontrolled video images, the challenging issues on automatic face recognition are usually related with variations in illumination, pose and expressions. The goal of this master thesis is to propose techniques for the improvement of face recognition systems. The first technique addresses the problem of illumination by fusing the visible and the infrared spectra of the face. With this approach the recognition rates were improved in 2.07% while the Equal Error Rate (EER) were reduced in 45.47%. The second technique addresses the issue of face features extraction and classification. It proposes a new framework for face recognition by using features extracted by Census Histograms and a pattern recognition technique based on Support Vector Machines (SVMs). This other group of experiments enabled us to increase the recognition accuracy in the FERET fa/fb test in 0.5%. Beyond these results, additional contributions of this work that deserve to be highlighted are the statistical dependency analysis between face recognition systems based on different spectra and a better comprehension about the behavior of a single C-SVC SVM to reliably predict faces identities. / Mestre
128

Um modelo de visão computacional para identificação do estágio de maturação e injúrias no pós-colheita de bananas (Musa sapientum)

Tezuka, Érika Sayuri 28 September 2009 (has links)
Made available in DSpace on 2016-06-02T19:05:40Z (GMT). No. of bitstreams: 1 2695.pdf: 5053010 bytes, checksum: 2e6ff8d79ec3a3f85928bc9486a54956 (MD5) Previous issue date: 2009-09-28 / This dissertation presents the development of a computer vision system for bananas (Musa sapientum) analysis in post-harvest stage based on digital image processing techniques. The development used considerations about image acquisition, pre-processing, identification based on texture, percentage of brown spots and injuries on the fruits and classification of its maturity levels. The validation has been developed considering geometric patterns generated in laboratory, as well as real fruits. With the texture map it was possible to identify the existence of brown spots or injuries in a specific region of the images. The assessment of the level of maturation was performed considering both human observers and the computer vision system. The average of identification level of maturity was equal to 50% for human observers and 100% for computer vision. The results show identification rates of 80.40% for brown spots on the single image of banana, 97.70% for brown spots on the images of bundle of bananas, 97.80% for injuries for the set of single image of banana, and 75.30% for hand injuries considering the images of bundle of bananas. Besides, the method presents application for quality assessing of fruits in the post-harvest procedures. / Este trabalho apresenta o desenvolvimento de um sistema de visão computacional para análise de bananas (Musa sapientum), em estágio de pós-colheita, utilizando técnicas de processamento digital de imagens. Para o desenvolvimento foram consideradas as etapas de aquisição das imagens, pré-processamento, identificação baseada em textura, classificação em níveis de maturação e a obtenção do percentual de manchas marrons e injúrias. A validação foi desenvolvida considerando padrões geométricos gerados em laboratório, bem como considerando frutas reais. A obtenção do mapa de textura viabilizou a identificação da existência de manchas marrons ou injúrias em uma região da imagem. A avaliação método de classificação em nível de maturação foi realizada considerando os resultados obtidos com observadores humanos e visão computacional. A média da taxa de acerto dos observadores foi de 50% e a taxa de acerto da visão computacional foi de 100%. Além disso, os resultados da análise de manchas marrons e injúrias indicam uma taxa de acerto de 80,40% para manchas marrons em imagem de banana individual, 97,70% para manchas marrons em imagem de penca de bananas, 97,80% para injúrias em imagem de banana individual e 75,30% para injúrias em imagem de pencas. Adicionalmente, o desempenho global do sistema motiva a aplicação desta metodologia para avaliação da qualidade dos frutos no pós-colheita de bananas.
129

Improving face recognition with multispectral fusion and support vector machines

Chiachia, Giovani [UNESP] 19 June 2009 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:29:40Z (GMT). No. of bitstreams: 0 Previous issue date: 2009-06-19Bitstream added on 2014-06-13T18:07:45Z : No. of bitstreams: 1 chiachia_g_me_sjrp.pdf: 1197775 bytes, checksum: a782f5b01605aa2a8b8bb080a56b3cad (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / O reconhecimento facial é uma das principais formas de identificação humana. Apesar das pesquisas em reconhecimento facial automático terem crescido substancialmente ao longo dos últimos 35 anos, identificar pessoas a partir da face continua sendo um desafio para as áreas de Visão Computacional e Reconhecimento de Padrões. Em função dos cenários variarem desde a identificação a partir de fotografias até o reconhecimento baseado em vídeos sem nenhum tipo de controle ao serem gravados, os maiores desafios estão relacionados à independência contra diferentes tipos de iluminação, pose e expressão. O objetivo desta dissertação é propor técnicas que possam contribuir para a melhoria dos sistemas de reconhecimento facial. A primeira técnica endereça o problema da iluminação através da fusão dos espectros visível e infravermelho da face. Através desta abordagem, as taxas de reconhecimento foram melhoradas em 2.07% enquanto a taxa de erro igual (EER) foi reduzida em 45.47%. A segunda técnica trata do caso da extração e classificação de características faciais. Ela propõe um novo modelo para reconhecimento facial através do uso de características extraídas por Histogramas Census e de uma técnica de reconhecimento de padrões baseada em Máquinas de Vetores de Suporte (SVMs). Este outro grupo de experimentos nos possibilitou aumentar a precisão do reconhecimento no teste FERET fa/fb em 0.5%. Além destes resultados, algumas contribuições adicionais deste trabalho que merecem ser destacadas são a análise da dependência estatística entre classificadores de espectros diferentes e considerações sobre o comportamento de uma única C-SVC SVM para identificação de pessoas de forma eficaz. / Face recognition is one of the primary ways of human identification. Although researches on automated face recognition have broadly increased along the last 35 years, it remains a challenging task in the fields of Computer Vision and Pattern Recognition. As the scenarios varies from static and constrained photographs to uncontrolled video images, the challenging issues on automatic face recognition are usually related with variations in illumination, pose and expressions. The goal of this master thesis is to propose techniques for the improvement of face recognition systems. The first technique addresses the problem of illumination by fusing the visible and the infrared spectra of the face. With this approach the recognition rates were improved in 2.07% while the Equal Error Rate (EER) were reduced in 45.47%. The second technique addresses the issue of face features extraction and classification. It proposes a new framework for face recognition by using features extracted by Census Histograms and a pattern recognition technique based on Support Vector Machines (SVMs). This other group of experiments enabled us to increase the recognition accuracy in the FERET fa/fb test in 0.5%. Beyond these results, additional contributions of this work that deserve to be highlighted are the statistical dependency analysis between face recognition systems based on different spectra and a better comprehension about the behavior of a single C-SVC SVM to reliably predict faces identities.
130

Metodologia para a captura, detecção e normalização de imagens faciais

Prodossimo, Flávio das Chagas 29 May 2013 (has links)
CAPES / O reconhecimento facial está se tornando uma tarefa comum com a evolução da tecnologia da informação. Este artefato pode ser utilizado na área de segurança, controlando acesso a lugares restritos, identificando pessoas que tenham cometido atos ilícitos, entre outros. Executar o reconhecimento facial é uma tarefa complexa e, para completar este processo, são implementadas etapas que compreendem: a captura de imagens faciais, a detecção de regiões de interesse, a normalização facial, a extração de características e o reconhecimento em si. Dentre estas, as três primeiras são tratadas neste trabalho, que tem como objetivo principal a normalização automática de faces. Tanto para a captura de imagens quanto para a normalização frontal existem normas internacionais que padronizam o procedimento de execução destas tarefas e que foram utilizadas neste trabalho. Além disto, algumas normas foram adaptadas para a construção de uma base de imagens faciais com o objetivo de auxiliar o processo de reconhecimento facial. Também foi criada uma nova metodologia para normalização de imagens faciais laterais, baseando-se nas normas da normalização frontal. Foram implementadas normalização semiautomática frontal, semiautomática lateral e automática lateral. Para a execução da normalização facial automática são necessários dois pontos de controle, os dois olhos, o que torna indispensável a execução da etapa de detecção de regiões de interesse. Neste trabalho, foram comparadas duas metodologias semelhantes para detecção. Primeiramente foi detectada uma região contendo ambos os olhos e, em seguida, dentro desta região, foram detectados cada um dos olhos de forma mais precisa. Para as duas metodologias foram utilizadas técnicas de processamento de imagens e reconhecimento de padrões. A primeira metodologia utiliza como filtro o Haar-Like Features em conjunto com a técnica de reconhecimento de padrões Adaptative Boosting. Sendo que as técnicas equivalentes no segundo algoritmo foram o Local Binary Pattern e o Support Vector Machines, respectivamente. Na segunda metodologia também foi utilizado um algoritmo de otimização de busca baseado em vizinhança, o Variable Neighborhood Search. Os estudos resultaram em uma base com 3726 imagens, mais uma base normalizada frontal com 966 imagens e uma normalizada lateral com 276 imagens. A detecção de olhos resultou, nos melhores testes, em aproximadamente 99% de precisão para a primeira metodologia e 95% para a segunda, sendo que em todos os testes a primeira foi o mais rápida. Com o desenvolvimento de trabalhos futuros pretende-se: tornar públicas as bases de imagens, melhorar a porcentagem de acerto e velocidade de processamento para todos os testes e melhorar a normalização, implementando a normalização de plano de fundo e também de iluminação. / With the evolution of information technology Facial recognition is becoming a common task. This artifact can be used in security, controlling access to restricted places and identifying persons, for example. Facial recognition is a complex task, and it's divided into some process, comprising: facial images capture, detection of regions of interest, facial normalization, feature extraction and recognition itself. Among these, the first three are treated in this work, which has as its main objective the automatic normalization of faces. For the capture of images and for the image normalization there are international standards that standardize the procedure for implementing these tasks and which were used in this work. In addition to following these rules, other standardizations have been developed to build a database of facial images in order to assist the process of face recognition. A new methodology for normalization of profile faces, based on the rules of frontal normalization. Some ways of normalization were implemented: frontal semiautomatic, lateral semiautomatic and automatic frontal. For the execution of frontal automatic normalization we need two points of interest, the two eyes, which makes it a necessary step to execute the detection regions of interest. In this work, we compared two similar methods for detecting. Where was first detected a region containing both eyes and then, within this region were detected each eye more accurately. For the two methodologies were used techniques of image processing and pattern recognition. The first method based on the Viola and Jones algorithm, the filter uses as Haar-like Features with the technique of pattern recognition Adaptive Boosting. Where the second algorithm equivalent techniques were Local Binary Pattern and Support Vector Machines, respectively. In the second algorithm was also used an optimization algorithm based on neighborhood search, the Variable Neighborhood Search. This studies resulted in a database with 3726 images, a frontal normalized database with 966 images and a database with face's profile normalized with 276 images. The eye detection resulted in better tests, about 99 % accuracy for the first method and 95 % for the second, and in all tests the first algorithm was the fastest. With the development of future work we have: make public the images database, improve the percentage of accuracy and processing speed for all tests and improve the normalization by implementing the normalization of the background and also lighting.

Page generated in 0.0974 seconds