• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 47
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 1
  • Tagged with
  • 56
  • 56
  • 34
  • 33
  • 14
  • 12
  • 11
  • 11
  • 10
  • 10
  • 9
  • 9
  • 9
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Uma nova versão de um sistema de detecção e reconhecimento de face utilizando a Transformada Cosseno Discreta

Marinho, Adriano da Silva 30 July 2012 (has links)
Made available in DSpace on 2015-05-14T12:36:38Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 2501696 bytes, checksum: a1f65e686060aa68aa5e43dee1e6c0b5 (MD5) Previous issue date: 2012-07-30 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Reliable identification systems have become key components in many applications that provide services to authenticated users. Since traditional authentication methods (such as using passwords or smartcards) can be manipulated in order to bypass the systems, biometric authentication methods have been receiving more attention in recent years. One of the biometric traits is the face. The problem of recognizing faces in video and photo still is an object of research, since there are many factors that influence the detection and recognition, such as lighting, position of the face, the background image, different facial expressions, etc. One can perform face recognition using Discrete Cosine Transform (DCT). In order to adjust a face recognition system to uncontrolled environments, two improvements for it were developed in this work: a image normalization module with respect to rotation and scale, and a change in the feature extraction module through the insertion of a non-ideal low-pass filter. The system and its modifications were tested on the following face databases: UFPB, ORL, Yale, and VSoft GTAV, developed specially for the job. Tests showed the efficiency of the image normalization module, but the system still is not adequate for every environment. / Sistemas de identificação confiáveis tornaram-se componentes chaves de várias aplicações que disponibilizam serviços para usuários autenticados. Uma vez que métodos de autenticação tradicionais (como os que utilizam senhas ou smartcards) podem ser manipulados com o objetivo de burlar os sistemas, métodos de autenticação biométrica vêm recebendo mais atenção nos últimos anos. Um dos traços biométricos é a face. O problema do reconhecimento de faces em vídeo e foto é objeto de pesquisa, uma vez que existem muitos fatores que influenciam na detecção e no reconhecimento, tais como: iluminação, posição da face, imagem ao fundo, diferentes expressões faciais, etc. É possível realizar reconhecimento facial utilizando a Transformada Cosseno Discreta (DCT). Com o intuito de adequar um Sistema de Detecção e Reconhecimento de Faces a ambientes não controlados, neste trabalho foram desenvolvidas duas melhorias para ele: um módulo normalizador de imagens em relação à rotação e à escala e uma modificação na etapa de seleção de atributos, por meio da inserção de um filtro passa-baixas não ideal. O sistema e suas modificações foram testados nos bancos de faces UFPB, ORL, Yale, GTAV e Vsoft, desenvolvido especialmente para o trabalho. Os testes mostraram a eficácia do módulo de normalização da imagem, mas ainda assim o sistema não é adequado para qualquer ambiente.
22

Reconhecimento facial em imagens de baixa resolução

SILVA, José Ivson Soares da 24 February 2015 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2016-04-07T12:14:52Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) dissertação_jiss_ciênciadacomputação.pdf: 2819671 bytes, checksum: 98f583c2b7105c3a5b369b2b48097633 (MD5) / Made available in DSpace on 2016-04-07T12:14:52Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) dissertação_jiss_ciênciadacomputação.pdf: 2819671 bytes, checksum: 98f583c2b7105c3a5b369b2b48097633 (MD5) Previous issue date: 2015-02-24 / FADE / Tem crescido o uso de sistemas computacionais para reconhecimento de pessoas por meio de dados biométricos, consequentemente os métodos para realizar o reconhecimento tem evoluído. A biometria usada no reconhecimento pode ser face, voz, impressão digital ou qualquer característica física capaz de distinguir as pessoas. Mudanças causadas por cirurgias, envelhecimento ou cicatrizes, podem não causar mudanças significativas nas características faciais tornando possível o reconhecimento após essas mudanças de aparência propositais ou não. Por outro lado tais mudanças se tornam um desafio para sistemas de reconhecimento automático. Além das mudanças físicas há outros fatores na obtenção da imagem que influenciam o reconhecimento facial como resolução da imagem, posição da face em relação a câmera, iluminação do ambiente, oclusão, expressão. A distância que uma pessoa aparece na cena modifica a resolução da região da sua face, o objetivo de sistemas direcionados a esse contexto é que a influência da resolução nas taxas de reconhecimento seja minimizada. Uma pessoa mais distante da câmera tem sua face na imagem numa resolução menor que uma que esteja mais próxima. Sistemas de reconhecimento facial têm um menor desempenho ao tratar imagens faciais de baixa resolução. Uma das fases de um sistema de reconhecimento é a extração de características, que processa os dados de entrada e fornece um conjunto de informações mais representativas das imagens. Na fase de extração de características os padrões da base de dados de treinamento são recebidos numa mesma dimensão, ou seja, no caso de imagens numa mesma resolução. Caso as imagens disponíveis para o treinamento sejam de resoluções diferentes ou as imagens de teste sejam de resolução diferente do treinamento, faz-se necessário que na fase de pré-processamento haja um tratamento de resolução. O tratamento na resolução pode ser aplicando um aumento da resolução das imagens menores ou redução da resolução das imagens maiores. O aumento da resolução não garante um ganho de informação que possa melhorar o desempenho dos sistemas. Neste trabalho são desenvolvidos dois métodos executados na fase de extração de características realizada por Eigenface, os vetores de características são redimensionados para uma nova escala menor por meio de interpolação, semelhante ao que acontece no redimensionamento de imagens. No primeiro método, após a extração de características, os vetores de características e as imagens de treinamento são redimensionados. Então, as imagens de treinamento e teste são projetadas no espaço de características pelos vetores de dimensão reduzida. No segundo método, apenas os vetores de características são redimensionados e multiplicados por um fator de compensação. Então, as imagens de treinamento são projetadas pelos vetores originais e as imagens de teste são projetadas pelos vetores reduzidos para o mesmo espaço. Os métodos propostos foram testados em 4 bases de dados de reconhecimento facial com a presença de problemas de variação de iluminação, variação de expressão facial, presença óculos e posicionamento do rosto. / In the last decades the use of computational systems to recognize people by biometric data is increasing, consequently the efficacy of methods to perform recognition is improving. The biometry used for recognition can be face, voice, fingerprint or other physical feature that enables the distiction of different persons. Facial changes caused by surgery, aging or scars, does not necessarily causes significant changes in facial features. For a human it is possible recognize other person after these interventions of the appearance. On the other hand, these interventions become a challenge to computer recognition systems. Beyond the physical changes there are other factors in aquisition of an image that influence the face recognition such as the image resolution, position between face and camera, light from environment, occlusions and variation of facial expression. The distance that a person is at image aquisition changes the resolution of face image. The objective of systems for this context is to minimize the influence of the image resolution for the recognition. A person more distant from the camera has the image of the face in a smaller resolution than a person near the camera. Face recognition systems have a poor performance to analyse low resolution image. One of steps of a recognition system is the features extraction that processes the input data so provides more representative images. In the features extraction step the images from the training database are received at same dimension, in other words, to analyse the images they have the same resolution. If the training images have different resolutions of test images it is necessary a preprocessing to normalize the image resolution. The preprocessing of an image can be to increase the resolution of small images or to reduce the resolution of big images. The increase resolution does not guarantee that there is a information gain that can improves the performance of the recognition systems. In this work two methods are developed at features extraction step based on Eigenface. The feature vectors are resized to a smaller scale, similar to image resize. In first method, after the feature extraction step, the feature vectors and the training images are resized. Then the training and test images are projected to feature space by the resized feature vectors. In second method, only the feature vectors are resized and multiplied by a compensation factor. The training images are projected by original feature vectors and the test images are projected by resized feature vectors to the same space. The proposed methods were tested in 4 databases of face recognition with presence of light variation, variation of facial expression, use of glasses and face position.
23

Comparação do desempenho do classificador de novidades com o classificador do vizinho mais próximo no reconhecimento facial

Falcão, Thiago Azevedo 13 January 2014 (has links)
Made available in DSpace on 2015-04-22T22:00:50Z (GMT). No. of bitstreams: 1 Thiago Falcao.pdf: 1370921 bytes, checksum: ec7b9ab219f2028eded75407403140be (MD5) Previous issue date: 2014-01-13 / This work proposes the new classifier for face recognition, novelty classifier, which is based on novelty filter proposed by Kohonen. In order to evaluate the new classifier performance, it is performed a comparison with nearest neighboard classifier, which uses the Euclidian distance as distance metric. ORL face database was chosen to be used in this comparison. There was not any pre-processing (photometric or geometric) on face images. It was used the following feature extraction methods: PCA, 2DPCA and (2D)2PCA. Some results in identification mode are exposed through rank 1 recognition rate and CMC curves. In verification mode, the results were presented by Correct Acceptance Rate (CAR), Equivalent Error Rate (EER), ROC curves and Area under the ROC curve (AUC). Results shown that the proposed classifier performs better than others previously published, when the 10-fold Cross Validation method is employed as a test strategy. Recognition rate of 100% is achieved with this test methodology. / Este trabalho propõe a utilização do classificador de novidades para reconhecimento de faces, o qual é baseado no filtro de novidades, proposto por Kohonen. Para avaliar o desempenho do novo classificador é feita uma comparação com o classificador do vizinho mais próximo, usando a métrica da distância euclidiana. A base de dados utilizada para essa comparação foi a base ORL. A informação da face é extraída utilizando os métodos PCA, 2DPCA e (2D)2PCA, sem usar qualquer tipo de pré-processamento (fotométrico ou geométrico). Os seguintes resultados são apresentados no modo de identificação: taxa de reconhecimento rank 1 e as curvas CMC, no modo verificação: as taxas de correta aceitação (CAR), de erro equivalente (EER), as curvas ROC e área sob a curva ROC (AUC). Os resultados obtidos mostraram que o classificador proposto tem um desempenho melhor do que o desempenho do vizinho mais próximo e do que outros classificadores anteriormente publicados usando a mesma base, quando a estratégia de validação cruzada 10-fold é usada, com essa estratégia a taxa de reconhecimento obtida foi de 100%
24

[en] AGE ESTIMATION FROM FACIALS IMAGES / [pt] ESTIMATIVA DA IDADE A PARTIR DE IMAGENS FACIAIS

JOSE DAVID BERMUDEZ CASTRO 12 February 2016 (has links)
[pt] Esta dissertação tem por objetivo investigar métodos de estimação da idade a partir de imagens faciais. Avalia-se o impacto de distintos fatores sobre a acurácia da estimativa, especificamente, a acurácia da localização de pontos fiduciais, métodos de extração de atributos, de redução de dimensionalidade, e técnicas de regressão. Adicionalmente, foi estudada a influência da raça e do sexo na acurácia da estimação da idade desenvolvido. Consideraram-se cinco métricas de desempenho do sistema, especificamente, o erro médio absoluto (MAE), o erro médio absoluto por década (MAE/D), o erro médio absoluto por idade (MAE/A), o escore acumulado (CS), e os intervalos de confiança (IC). Os experimentos foram realizados empregando dois bancos de dados públicos, cujas imagens estão rotuladas com a idade da face. Os resultados indicaram que o método automático para detecção de pontos fiduciais da face tem uma repercussão moderada sobre a acurácia das estimativas. Entre as variantes analisadas, a que apresentou a melhor acurácia foi o sistema que emprega os AAMs (Active Appearance Models) como método de extração de atributos, o PCA (Principal Components Analysis) como método para reduzir dimensionalidade, e as SVRs (Support Vector Regression) como técnica para fazer regressão. / [en] This thesis aims to investigate methods for age estimation from facial images. The impact of distinct factors over the estimate’s accuracy is assessed, specifically the accuracy in the location of face fiducial points, feature extraction and dimensionality reduction methods, and regression techniques. Additionally, the dependence on race and gender in the accuracy of age estimation is assessed. Five performance metrics have been considered: the mean absolute error (MAE), the mean absolute error per decade (MAE / D), the mean absolute error for age (MAE / A), the cumulative score (CS) and confidence intervals (CI). The experiments were performed using two public databases, whose images are labeled with the age of the face. The results showed the impact of the automatic method for detection of fiducial points of the face has a moderate impact on the accuracy of the estimates. Among the analyzed variants, the one with the best accuracy was the system that employs the Active Appearance Models (AAMs) as feature extraction method, the Principal Components Analysis (PCA) as dimensionality reduction method, and Support Vector Regression (SVRs) as a technique to do regression.
25

[en] BETTER JUSTICE THROUGH BETTER SCIENCE-TECHNOLOGY?: THE ENTANGLEMENTS OF ALGORITHMS AND SECURITY AND LEGAL PROFESSIONALS / [pt] MELHOR JUSTIÇA ATRAVÉS DE MELHOR CIÊNCIA E TECNOLOGIA?: OS EMARANHADOS DE ALGORITMOS E PROFISSIONAIS SEGURANÇA E DIREITO

THALLITA GABRIELE LOPES LIMA 21 October 2024 (has links)
[pt] Na segurança e Justiça Criminal, os algoritmos tornaram-se prevalentes, utilizados por instituições como agências de inteligência, polícia e tribunais. Essas tecnologias, incluindo software de reconhecimento facial, são empregadas em várias práticas de segurança e vigilância em todo o mundo. Esse uso generalizado levanta questões sobre a autoridade epistêmica e a credibilidade dos algoritmos, particularmente na produção de práticas de (in)segurança e na contestação de evidências dentro do sistema de justiça criminal. Neste contexto, essa tese explora os complexos emaranhados das práticas de profissionais de segurança e do direito e algoritmos, enfatizando como essas tecnologias digitais se materializam, estabilizam e circulam em diversas práticas mesmo em meio a erros e contestações. Primeiro, a tese examina as implicações da razão algorítmica, abordando como essas tecnologias prometem simultaneamente eficiência e objetividade, enquanto recorrentemente erram. Seguidamente, explora como os algoritmos moldam percepções, identificam alvos e influenciam ações de segurança, focando especialmente em dados biométricos e algoritmos de reconhecimento facial, como o uso Clearview AI nos Estados Unidos. Ao analisar esses sistemas, a pesquisa visa entender como os algoritmos criam e legitimam imaginários de melhor justiça/segurança e suas consequências sociais e políticas mais amplas. A tese se situa dentro dos Estudos Críticos de Segurança, Estudos de Ciência e Tecnologia e críticas feministas da tecnociência, compondo com diferentes campos para entender a característica operativa da razão algorítmica na política internacional. Por fim, a pesquisa demonstra como os algoritmos criam condições de possibilidade para práticas de segurança e justiça, organizando uma multitude de elementos e produzindo uma ordem que impacta esses campos e destaca a importância de entender a força política dos discursos em torno dos algoritmos e seu papel na reformulação das condições de possibilidade para pensar e fazer segurança. / [en] In security, algorithms have become prevalent and used by institutions such as intelligence agencies, police, and courts. These technologies, including facial recognition software, are employed in various security and surveillance practices worldwide. This widespread use raises questions about algorithms epistemic authority and credibility, particularly in producing (in)security practices and contesting evidence within the criminal justice system. In this context, this thesis explores the complex entanglements of the practices of security and legal professionals and algorithms, emphasizing how these digital technologies materialize, stabilize, and circulate in diverse practices even amid errors and contestations. First, the thesis examines the implications of algorithmic reason, addressing how these technologies simultaneously promise efficiency and objectivity while repeatedly getting it wrong. It then explores how algorithms shape perceptions, identify targets, and influence security actions, focusing primarily on biometric data and facial recognition algorithms, such as the use of Clearview AI in the United States. By analyzing these systems, the research aims to understand how algorithms create and legitimize better justice/security imaginaries and their broader social and political consequences. The thesis is located within Critical Security Studies, Science and Technology Studies, and feminist critiques of technoscience, crossing different fields to understand the operative characteristic of algorithmic reason in international politics. Finally, the research demonstrates how algorithms create conditions of possibility for security and justice practices, organizing a multitude of elements and producing an order that impacts these fields and highlights the importance of understanding the political force of the discourses surrounding algorithms and their role in reformulating the conditions of possibility for thinking and doing security.
26

Reconhecimento de face e de prova de vida com Tensorflow para criação de um sistema de segurança voltado a residências e a ambientes de acesso restrito / Face recognition and \"proof of life\" with Tensorflow to create a security system focused on residences and restricted access environments

Rouhani, Sama 16 May 2019 (has links)
O reconhecimento de faces é aplicado em várias tecnologias de segurança, como desbloqueios de celular, autenticação de entradas e saídas de estabelecimentos, meios de pagamentos via aplicativos móveis e outros. Para melhorar a confiança nos sistemas de segurança, foi desenvolvido também um reconhecedor de vida, com o uso do espectrograma da voz do usuário. Esse projeto propõe a criação de um sistema de segurança de autenticação de portas de residências e de acesso a salas e ambientes restritos (p.ex. laboratórios de pesquisa), com a aplicação das técnicas de reconhecimento de faces e de prova de vida, através de Deep Learning e Aprendizagem de Máquina, com o auxílio da ferramenta Tensorflow (um framework de aprendizado de máquina bastante utilizado no mercado), e com isso, criar um protótipo do sistema de reconhecimento facial e de vida, que pode ser facilmente convertido em um produto comercial. O projeto foi dividido em quatro redes neurais(RN-1, 2, 3, 4). A primeira, RN-1, consiste em treinar a rede com a base LFW ( Face Dataset ) para obter a melhor arquitetura de Aprendizado de Máquina. Então a aplicação realiza a captura da imagem e da voz do usuário. Na segunda rede, RN-2, utilizou-se dessa arquitetura selecionada para treinar a rede em base própria de reconhecimento de face (de complexidade 1:N), que foi criada especificamente para este trabalho. A terceira, RN-3, corresponde ao Reconhecimento da Prova de Vida (de complexidade 1:N), pois o sistema verifica se a voz (áudio) se refere à mesma pessoa da RN-2, evitando que o sistema seja enganado com a simples apresentação de uma foto/imagem no lugar da face humana real ou mesmo de um gravador de voz. Isso aumenta muito o grau de confiabilidade da aplicação, pois a verificação é dupla. A quarta rede, RN-4,(de complexidade 1:1) verifica também a voz da pessoa, porém há somente 2 classes: a do indivíduo em questão e a classe outros (outros usuários), portanto, haverá uma rede separada para cada usuário. Essa análise aumenta ainda mais o grau de confiabilidade da aplicação. Os resultados mostraram que: dentre 9 arquiteturas testadas, na RN-1, apenas a mobilenet_1.0_128 obteve os melhores resultados; a acurácia da rede, com a base própria na RN-2, obteve resultados muito melhores do que na RN-1 com a base LFW; o espectrograma de voz analisado na RN-3 obteve resultados muito satisfatórios com acurácia chegando a 92%; já na RN-4 as acurácias das redes chegaram a 100%. / Face recognition is applied in lot of security technologies, such as mobile unlocking, authentication of station inputs and outputs, payment options by mobile applications, and more. To improve confidence in security systems, a life recognizer has also been developed with the use of the user\'s voice spectrogram. This project proposes creation of a door entry security system and access to classrooms and restricted environments, with an application of face recognition and Life-Proof techniques, through the Deep Learning and Machine Learning, using Tensorflow tool, a framework of machine learning, the most famous of the market, with the objective of creating a prototype to a commercial product. The project was divided into four neural networks (RN-1, 2, 3, 4). The first, RN-1, consists in training a network with LFW (Face Dataset) to get the best architecture. Then the application makes a capture of the image and the voice of the user. In the second network, RN-2, we used this selected architecture to train the network based on its own face recognition dataset (1: N complexity), which was created specifically for this project. The third, RN-3, corresponds to the \"Life-Proof\" Recognition (of complexity 1: N), since the system checks if the voice refers to the same person as the RN-2, with the simple presentation of a photo / image in place of the actual human face or even of a voice recorder. This greatly increases the degree of reliability of the application, since the verification is double. The fourth network, RN-4 (1: 1 complexity) also verifies the person\'s voice, but there are only 2 classes: one of the individual in question and the class \"other\" (other users), so there will be a separate network for each person. This analysis improve the degree of reliability of the application. The results showed the best architecture was the mobilenet_1.0_128; the network with the own dataset (RN-2) obtained much better results than the network with the LFW base (RN-1); the voice spectrogram analyzed in RN-3 obtained very satisfactory results with accuracy reaching 92%; already in RN-4 the accuracy of the networks reached 100%.
27

[en] AN EVALUATION OF AUTOMATIC FACE RECOGNITION METHODS FOR SURVEILLANCE / [pt] ESTUDO DE MÉTODOS AUTOMÁTICOS DE RECONHECIMENTO FACIAL PARA VÍDEO MONITORAMENTO

VICTOR HUGO AYMA QUIRITA 26 March 2015 (has links)
[pt] Esta dissertação teve por objetivo comparar o desempenho de diversos algoritmos que representam o estado da arte em reconhecimento facial a imagens de sequências de vídeo. Três objetivos específicos foram perseguidos: desenvolver um método para determinar quando uma face está em posição frontal com respeito à câmera (detector de face frontal); avaliar a acurácia dos algoritmos de reconhecimento com base nas imagens faciais obtidas com ajuda do detector de face frontal; e, finalmente, identificar o algoritmo com melhor desempenho quando aplicado a tarefas de verificação e identificação. A comparação dos métodos de reconhecimento foi realizada adotando a seguinte metodologia: primeiro, foi criado um detector de face frontal que permitiu o captura das imagens faciais frontais; segundo, os algoritmos foram treinados e testados com a ajuda do facereclib, uma biblioteca desenvolvida pelo Grupo de Biometria no Instituto de Pesquisa IDIAP; terceiro, baseando-se nas curvas ROC e CMC como métricas, compararam-se os algoritmos de reconhecimento; e por ultimo, as análises dos resultados foram realizadas e as conclusões estão relatadas neste trabalho. Experimentos realizados sobre os bancos de vídeo: MOBIO, ChokePOINT, VidTIMIT, HONDA, e quatro fragmentos de diversos filmes, indicam que o Inter Session Variability Modeling e Gaussian Mixture Model são os algoritmos que fornecem a melhor acurácia quando são usados em tarefas tanto de verificação quanto de identificação, o que os indica como técnicas de reconhecimento viáveis para o vídeo monitoramento automático em vídeo. / [en] This dissertation aimed to compare the performance of state-of-the-arte face recognition algorithms in facial images captured from multiple video sequences. Three specific objectives were pursued: to develop a method for determining when a face is in frontal position with respect to the camera (frontal face detector); to evaluate the accuracy for recognition algorithms based on the facial images obtained with the help of the frontal face detector; and finally, to identify the algorithm with better performance when applied to verification and identification tasks in video surveillance systems. The comparison of the recognition methods was performed adopting the following approach: first, a frontal face detector, which allowed the capture of facial images was created; second, the algorithms were trained and tested with the help of facereclib, a library developed by the Biometrics Group at the IDIAP Research Institute; third, ROC and CMC curves were used as metrics to compare the recognition algorithms; and finally, the results were analyzed and the conclusions were reported in this manuscript. Experiments conducted on the video datasets: MOBIO, ChokePOINT, VidTIMIT, HONDA, and four fragments of several films, indicate that the Inter-Session Variability Modelling and Gaussian Mixture Model algorithms provide the best accuracy on classification when the algorithms are used in verification and identification tasks, which indicates them as a good automatic recognition techniques for video surveillance applications.
28

Reconhecimento facial em ambientes não controlados por meio do High-boost Weber Descriptor na região periocular / Face recognition under uncontrolled scenarios using the new High-Boost Weber Descriptor in the periocular region

Affonso, Alex Antonio 27 April 2018 (has links)
O reconhecimento facial automático é uma tarefa muito importante para a sociedade moderna, pois possibilita o desenvolvimento de diversas aplicações, tais como o controle de imigração em aeroportos, a autenticação de documentos, etc. Muitas destas aplicações ocorrem em ambientes não controlados, onde as fotos são obtidas com grandes variações de poses e expressões faciais, de iluminação, no uso de maquiagem e acessórios, etc. A tarefa de reconhecimento facial automático em ambientes não controlados é ainda muito desafiadora e tem sido alvo de muitas pesquisas no mundo todo nos últimos anos. Dentro deste contexto, esta tese propõe e implementa um conjunto de novos métodos que visam contribuir para o avanço do estado da arte relacionado a este tema de pesquisa. Inicialmente foi proposto o HBWLF, um filtro para enfatizar as componentes de alta frequência da imagem, sem eliminar as de baixa, realçando assim os diversos detalhes das imagens faciais. Em seguida foi proposta uma versão mais geral deste filtro, o MHBWLF, que considera uma vizinhança circular, ao invés de uma grade regular de 3x3 pixels. O MHBWLF foi aplicado em conjunto com um filtro MOSSE no desenvolvimento de um método para a localização precisa dos centros dos olhos. Aproveitando as características do MHBWLF e inspirado em outros descritores foi proposto um novo descritor, o HBWD. Por fim, foi introduzido um novo método de reconhecimento facial, baseado no HBWD. O método proposto emprega o HBWD para descrever densamente a região periocular e, a fim de reduzir a dimensão dos dados, foi proposto um algoritmo de mapeamento baseado no método de agrupamento k-Means++. Os métodos propostos foram todos avaliados utilizando-se imagens das bases LFW, FGLFW e BioID e os resultados experimentais obtidos mostram que os métodos propostos tem desempenho superior a vários outros métodos estado da arte. / The task of automatic face recognition is very important for modern society and very useful for many kind of applications, such as automatic recognition of credit card users, document authentication, security in big events and others. Further, this is a challenging task when performed in uncontrolled scenarios, which involve great variations in imaging conditions such as illumination, poses and facial expressions, partial occlusion due to hair or glasses, makeup, etc. This thesis first introduces the new High-Boost Weber Local Filter (HBWLF) that emphasizes high-frequency components, without eliminating the low-frequency ones, and thus enhances the details of a face. It is also introduced the new MHBWLF (Multiscale High-Boost Weber Local Filter), which is a multiscale version of HBWLF. A new method for precise eye localization is presented, where a MOSSE filter is used for learning the features enhanced by MHBWLF. This thesis also introduces a new local descriptor called HBWD (High-Boost Weber Descriptor) which combines some features of MHBWLF, SIFT and CS-LMP. Finally, a new method of face recognition is presented. The proposed method basically detects the faces, localizes their eyes and performs a face alignment. After that the region of interest (ROI) is more accurately cropped and described using the new HBWD in a dense sampling scheme (sampling each pixel). A new algorithm, based on the known clustering method k-Means++, reduces the dimensionality of the HBWD descriptors densely applied on each ROI, and produces a signature for the image pair being compared. Finally, a SVM is used to classify the images as a matched or mismatched pair. The proposed methods were evaluated using images from the well-known LFW, FGLFW and BioID databases and the experimental results show that the proposed methods outperform other state-of-the-art approaches.
29

Reconhecimento de faces humanas usando redes neurais MLP / Human face recognition using MLP neural networks

Gaspar, Thiago Lombardi 15 February 2006 (has links)
O objetivo deste trabalho foi desenvolver um algoritmo baseado em redes neurais para o reconhecimento facial. O algoritmo contém dois módulos principais, um módulo para a extração de características e um módulo para o reconhecimento facial, sendo aplicado sobre imagens digitais nas quais a face foi previamente detectada. O método utilizado para a extração de características baseia-se na aplicação de assinaturas horizontais e verticais para localizar os componentes faciais (olhos e nariz) e definir a posição desses componentes. Como entrada foram utilizadas imagens faciais de três bancos distintos: PICS, ESSEX e AT&T. Para esse módulo, a média de acerto foi de 86.6%, para os três bancos de dados. No módulo de reconhecimento foi utilizada a arquitetura perceptron multicamadas (MLP), e para o treinamento dessa rede foi utilizado o algoritmo de aprendizagem backpropagation. As características faciais extraídas foram aplicadas nas entradas dessa rede neural, que realizou o reconhecimento da face. A rede conseguiu reconhecer 97% das imagens que foram identificadas como pertencendo ao banco de dados utilizado. Apesar dos resultados satisfatórios obtidos, constatou-se que essa rede não consegue separar adequadamente características faciais com valores muito próximos, e portanto, não é a rede mais eficiente para o reconhecimento facial / This research presents a facial recognition algorithm based in neural networks. The algorithm contains two main modules: one for feature extraction and another for face recognition. It was applied in digital images from three database, PICS, ESSEX and AT&T, where the face was previously detected. The method for feature extraction was based on previously knowledge of the facial components location (eyes and nose) and on the application of the horizontal and vertical signature for the identification of these components. The mean result obtained for this module was 86.6% for the three database. For the recognition module it was used the multilayer perceptron architecture (MLP), and for training this network it was used the backpropagation algorithm. The extracted facial features were applied to the input of the neural network, that identified the face as belonging or not to the database with 97% of hit ratio. Despite the good results obtained it was verified that the MLP could not distinguish facial features with very close values. Therefore the MLP is not the most efficient network for this task
30

Reconhecimento facial em ambientes não controlados por meio do High-boost Weber Descriptor na região periocular / Face recognition under uncontrolled scenarios using the new High-Boost Weber Descriptor in the periocular region

Alex Antonio Affonso 27 April 2018 (has links)
O reconhecimento facial automático é uma tarefa muito importante para a sociedade moderna, pois possibilita o desenvolvimento de diversas aplicações, tais como o controle de imigração em aeroportos, a autenticação de documentos, etc. Muitas destas aplicações ocorrem em ambientes não controlados, onde as fotos são obtidas com grandes variações de poses e expressões faciais, de iluminação, no uso de maquiagem e acessórios, etc. A tarefa de reconhecimento facial automático em ambientes não controlados é ainda muito desafiadora e tem sido alvo de muitas pesquisas no mundo todo nos últimos anos. Dentro deste contexto, esta tese propõe e implementa um conjunto de novos métodos que visam contribuir para o avanço do estado da arte relacionado a este tema de pesquisa. Inicialmente foi proposto o HBWLF, um filtro para enfatizar as componentes de alta frequência da imagem, sem eliminar as de baixa, realçando assim os diversos detalhes das imagens faciais. Em seguida foi proposta uma versão mais geral deste filtro, o MHBWLF, que considera uma vizinhança circular, ao invés de uma grade regular de 3x3 pixels. O MHBWLF foi aplicado em conjunto com um filtro MOSSE no desenvolvimento de um método para a localização precisa dos centros dos olhos. Aproveitando as características do MHBWLF e inspirado em outros descritores foi proposto um novo descritor, o HBWD. Por fim, foi introduzido um novo método de reconhecimento facial, baseado no HBWD. O método proposto emprega o HBWD para descrever densamente a região periocular e, a fim de reduzir a dimensão dos dados, foi proposto um algoritmo de mapeamento baseado no método de agrupamento k-Means++. Os métodos propostos foram todos avaliados utilizando-se imagens das bases LFW, FGLFW e BioID e os resultados experimentais obtidos mostram que os métodos propostos tem desempenho superior a vários outros métodos estado da arte. / The task of automatic face recognition is very important for modern society and very useful for many kind of applications, such as automatic recognition of credit card users, document authentication, security in big events and others. Further, this is a challenging task when performed in uncontrolled scenarios, which involve great variations in imaging conditions such as illumination, poses and facial expressions, partial occlusion due to hair or glasses, makeup, etc. This thesis first introduces the new High-Boost Weber Local Filter (HBWLF) that emphasizes high-frequency components, without eliminating the low-frequency ones, and thus enhances the details of a face. It is also introduced the new MHBWLF (Multiscale High-Boost Weber Local Filter), which is a multiscale version of HBWLF. A new method for precise eye localization is presented, where a MOSSE filter is used for learning the features enhanced by MHBWLF. This thesis also introduces a new local descriptor called HBWD (High-Boost Weber Descriptor) which combines some features of MHBWLF, SIFT and CS-LMP. Finally, a new method of face recognition is presented. The proposed method basically detects the faces, localizes their eyes and performs a face alignment. After that the region of interest (ROI) is more accurately cropped and described using the new HBWD in a dense sampling scheme (sampling each pixel). A new algorithm, based on the known clustering method k-Means++, reduces the dimensionality of the HBWD descriptors densely applied on each ROI, and produces a signature for the image pair being compared. Finally, a SVM is used to classify the images as a matched or mismatched pair. The proposed methods were evaluated using images from the well-known LFW, FGLFW and BioID databases and the experimental results show that the proposed methods outperform other state-of-the-art approaches.

Page generated in 0.058 seconds