Spelling suggestions: "subject:"face recognition"" "subject:"race recognition""
251 |
Aplicação de sistemas imunológicos artificiais para biometria facial: Reconhecimento de identidade baseado nas características de padrões bináriosSilva, Jadiel Caparrós da [UNESP] 15 May 2015 (has links) (PDF)
Made available in DSpace on 2015-09-17T15:26:23Z (GMT). No. of bitstreams: 0
Previous issue date: 2015-05-15. Added 1 bitstream(s) on 2015-09-17T15:45:43Z : No. of bitstreams: 1
000846199.pdf: 4785482 bytes, checksum: d06441c7f33c2c6fc4bfe273884b0d5a (MD5) / O presente trabalho tem como objetivo realizar o reconhecimento de identidade por meio de um método baseado nos Sistemas Imunológicos Artificiais de Seleção Negativa. Para isso, foram explorados os tipos de recursos e alternativas adequadas para a análise de expressões faciais 3D, abordando a técnica de Padrão Binário que tem sido aplicada com sucesso para o problema 2D. Inicialmente, a geometria facial 3D foi convertida em duas representações em 2D, a Depth Map e a APDI, que foram implementadas com uma variedade de tipos de recursos, tais como o Local Phase Quantisers, Gabor Filters e Monogenic Filters, a fim de produzir alguns descritores para então fazer-se a análise de expressões faciais. Posteriormente, aplica-se o Algoritmo de Seleção Negativa onde são realizadas comparações e análises entre as imagens e os detectores previamente criados. Havendo afinidade entre as imagens previamente estabelecidas pelo operador, a imagem é classificada. Esta classificação é chamada de casamento. Por fim, para validar e avaliar o desempenho do método foram realizados testes com imagens diretamente da base de dados e posteriormente com dez descritores desenvolvidos a partir dos padrões binários. Esses tipos de testes foram realizados tendo em vista três objetivos: avaliar quais os melhores descritores e as melhores expressões para se realizar o reconhecimento de identidade e, por fim, validar o desempenho da nova solução de reconhecimento de identidades baseado nos Sistemas Imunológicos Artificiais. Os resultados obtidos pelo método apresentaram eficiência, robustez e precisão no reconhecimento de identidade facial / This work aims to perform the identity recognition by a method based on Artificial Immune Systems, the Negative Selection Algorithm. Thus, the resources and adequate alternatives for analyzing 3D facial expressions were explored, exploring the Binary Pattern technique that is successfully applied for the 2D problem. Firstly, the 3D facial geometry was converted in two 2D representations. The Depth Map and the Azimuthal Projection Distance Image were implemented with other resources such as the Local Phase Quantisers, Gabor Filters and Monogenic Filters to produce descriptors to perform the facial expression analysis. Afterwards, the Negative Selection Algorithm is applied, and comparisons and analysis with the images and the detectors previously created are done. If there is affinity with the images, than the image is classified. This classification is called matching. Finally, to validate and evaluate the performance of the method, tests were realized with images from the database and after with ten descriptors developed from the binary patterns. These tests aim to: evaluate which are the best descriptors and the best expressions to recognize the identities, and to validate the performance of the new solution of identity recognition based on Artificial Immune Systems. The results show efficiency, robustness and precision in recognizing facial identity
|
252 |
Investigating the Associations between Performance Outcomes on Tasks Indexing Featural, Configural and Holistic Face Processing and Their Correlations with Face Recognition AbilityNelson, Elizabeth 25 July 2018 (has links)
Many important questions remain unanswered regarding how we recognize faces. Methodological inconsistencies have contributed to confusion regarding these questions, especially those surrounding three purported face processing mechanisms—featural, configural, and holistic—and the extent to which each play a role in face recognition. The work presented here aims to 1) empirically test the assumption that several face recognition tasks index the same underlying construct(s), and 2) contribute data to a number of ongoing debates concerning the reliability and validity of various methods for assessing integrative (i.e., holistic and/or configural) aspects of face processing.
Experiment 1 tested the assumption that various tasks purporting to measure integrative face processing index the same construct(s). It is important to test this assumption because if these tasks are in fact measuring different things, then researchers should cease interpreting them as interchangeable measures. Using a within-subjects design (N = 223) we compared performance—as reflected by accuracy and reaction time measures, as well as two types of difference scores—across four of the most commonly used integrative face processing tasks: The Partial Composite Face Effect Task, the Face Inversion Effect Task, the Part Whole Effect Task, and the Configural/Featural Difference Detection Task.
Analyses showed that within-task correlations were much stronger than those between-tasks. This suggests that the four conditions within each task are measuring something in common; In contrast, low correlations across tasks suggest that each is measuring something unique. This in turn suggests these tasks should not be seen as assessing the same integrative face-processing construct. Exploratory factor analyses corroborated the correlation data, finding that performance on most conditions loaded onto a single factor in unrotated solutions, but onto separate factors in direct oblimin-rotated solutions.
In Experiment 2, we investigated the question of whether integrative face processing performance is related to face recognition ability. We did this by assessing the degree to which results from four widely-used integrative face processing tasks correlate with a measure of general face recognition ability, The Cambridge Face Memory Test (CFMT). The four integrative processing tasks used in this study only partly overlapped those from in Experiment 1. They were: The Complete Composite Face Effect Task, the Partial Composite Face Effect Task, the Part Whole Effect Task, and the Configural/Featural Difference Detection Task. As with Experiment 1, we used a within-subjects design (N = 260) and analyzed a variety of performance variables across these tasks.
Analyses demonstrated low to moderate positive correlations between performance on the task conditions and performance on the CFMT. This suggests that the constructs the tasks reflect do contribute to face recognition ability to a modest degree. These analyses also replicated parts of Experiment 1, showing weak correlations between tasks. Also similar to Experiment 1, factor analyses generally revealed task conditions loading onto a common first factor in the unrotated factor matrix, but loading separately in the rotated factor solution.
In addition to providing evidence regarding the nature of integrative face processing tasks, the data presented here speak to a number of other questions in this domain. For instance, they contribute to the debate regarding which kinds of difference scores (subtraction-based or regression-based) are more reliable, as well as the reliability of the various tasks used to investigate integrative face processing. In addition, the data inform the debate over whether the Complete or the Partial version of the Composite Face Effect Task is the superior measure of integrative face processing.
In summary, the studies presented here indicate that the previous literature in face recognition needs to be interpreted with care, with an eye to differences in methodology and the problems of low measurement reliability. The various methods used to investigate integrative face processing are not assessing the same thing and cannot be taken as reflecting the same underlying construct.
|
253 |
Reconhecimento de faces com filtragens de frequências espaciais altas e baixas nos hemicampos visuais direito e esquerdo / Facial recognition in high and low spatial frequency filtering in the right and in the left hemifieldsRui de Moraes Júnior 06 March 2012 (has links)
O presente estudo teve por objetivo investigar se o reconhecimento de faces ocorre prioritariamente por processamento analítico ou holístico nos hemisférios cerebrais em homens e mulheres por meio do estudo do espectro de frequência espacial. Para isso, no Experimento I, 40 voluntários (20 mulheres) realizaram duas sessões. Em cada uma delas foram memorizadas 14 faces para uma tarefa de reconhecimento. Nesta, cada face foi apresentada por 300 ms, e em uma das sessões as imagens foram apresentadas somente no hemicampo visual direito, e noutra só no hemicampo visual esquerdo por meio de uma adaptação do método do campo visual dividido. A tarefa dos participantes foi assinalar o grau de confiabilidade de sua resposta (confidence rating method) ao discriminar as faces memorizadas de outras inéditas. Os estímulos da tarefa de reconhecimento foram apresentados em três condições: (1) em frequências espaciais altas, FEAs, (2) em frequências espaciais baixas, FEBs, e (3) sem filtragem, SFE. As frequências de respostas aos graus de confiabilidade permitiram calcular as curvas ROC e os parâmetros Az e da da Teoria de Deteção de Sinal. Por meio destes, foi comparado o desempenho do reconhecimento facial nas diferentes faixas do espectro espacial. De maneira complementar, foi realizado uma ANOVA para testar a diferença dos tempos de resposta no reconhecimento entre as filtragens. Não foi evidenciada especialização hemisférica no reconhecimento de faces com filtragem espacial. Mas homens, de modo tênue, perceberam melhor faces em FEBs e mulheres em FEAs. Para verificar se este resultado não se deu em função da apresentação lateralizada, foi realizado o Experimento II, nos moldes de uma sessão experimental do Experimento I, mas com apresentação central. Vinte voluntários (10 mulheres) participaram do experimento. Novamente, homens e mulheres foram mais sensíveis às faces em FEBs e FEAs, respectivamente. Deste modo, conclui-se que homens utilizam mais recursos holísticos e mulheres, por sua vez, operações analíticas. Os resultados dão bases para a não ocorrência de especialização hemisférica de frequencias espaciais no reconhecimento de faces em longos tempos de exposições. A diferença de sexo observada e nos atenta para a necessidade de controle amostral por sexo em pesquisas da área. / This study aimed to investigate whether face recognition occurs primarily by analytic or holistic processing in the cerebral hemispheres of men and women through the study of the spatial frequency spectrum. Therefore, in Experiment I, 40 volunteers (20 women) performed two sessions. In each of, 14 faces were memorized for a recognition task and each face was presented for 300 ms. Images were presented only in the right visual hemifield in a session, and in another only in the left visual hemifield by means of an adaptation of the method of divided visual field. The participants task was to assign the reliability of their response (confidence rating method) to discriminate the study faces from distractors. The recognition task stimuli were presented in three conditions: (1) at high spatial frequencies, FEAs, (2) at low spatial frequencies, FEBs, and (3) unfiltered, SFE. The frequencies of responses to the degree of reliability used to calculate ROC curves and parameters Az and da of the Signal Detection Theory compared the performance of face recognition in different bands of the spectrum. In a complementary way, an ANOVA was conducted to test response times differences in the recognition between filtering. There was no evidence of hemispheric specialization in face recognition with spatial filtering. But men had better performance in recognizing faces in FEBs and women faces in FEAs. To verify that this result was not in function of lateralized presentation, Experiment II was conducted, along the lines of an experimental session of Experiment I, but with central presentation. Twenty volunteers (10 women) participated in the experiment. Again, men and women were more sensitive to faces in FEBs and FEAs, respectively. Thus it follows that men use holistic resources and women analytical operations. The results provide no basis for the occurrence of hemispheric specialization of spatial frequencies in face recognition over long exposure times. The sex difference observed brings us to the need for control sample by sex in spatial frequency research.
|
254 |
Uma nova versão de um sistema de detecção e reconhecimento de face utilizando a Transformada Cosseno DiscretaMarinho, Adriano da Silva 30 July 2012 (has links)
Made available in DSpace on 2015-05-14T12:36:38Z (GMT). No. of bitstreams: 1
arquivototal.pdf: 2501696 bytes, checksum: a1f65e686060aa68aa5e43dee1e6c0b5 (MD5)
Previous issue date: 2012-07-30 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Reliable identification systems have become key components in many applications that provide services to authenticated users. Since traditional authentication methods (such as using passwords or smartcards) can be manipulated in order to bypass the systems, biometric authentication methods have been receiving more attention in recent years. One of the biometric traits is the face. The problem of recognizing faces in video and photo still is an object of research, since there are many factors that influence the detection and recognition, such as lighting, position of the face, the background image, different facial expressions, etc. One can perform face recognition using Discrete Cosine Transform (DCT). In order to adjust a face recognition system to uncontrolled environments, two improvements for it were developed in this work: a image normalization module with respect to rotation and scale, and a change in the feature extraction module through the insertion of a non-ideal low-pass filter. The system and its modifications were tested on the following face databases: UFPB, ORL, Yale, and VSoft GTAV, developed specially for the job. Tests showed the efficiency of the image normalization module, but the system still is not adequate for every environment. / Sistemas de identificação confiáveis tornaram-se componentes chaves de várias aplicações que disponibilizam serviços para usuários autenticados. Uma vez que métodos de autenticação tradicionais (como os que utilizam senhas ou smartcards) podem ser manipulados com o objetivo de burlar os sistemas, métodos de autenticação biométrica vêm recebendo mais atenção nos últimos anos. Um dos traços biométricos é a face. O problema do reconhecimento de faces em vídeo e foto é objeto de pesquisa, uma vez que existem muitos fatores que influenciam na detecção e no reconhecimento, tais como: iluminação, posição da face, imagem ao fundo, diferentes expressões faciais, etc. É possível realizar reconhecimento facial utilizando a Transformada Cosseno Discreta (DCT). Com o intuito de adequar um Sistema de Detecção e Reconhecimento de Faces a ambientes não controlados, neste trabalho foram desenvolvidas duas melhorias para ele: um módulo normalizador de imagens em relação à rotação e à escala e uma modificação na etapa de seleção de atributos, por meio da inserção de um filtro passa-baixas não ideal. O sistema e suas modificações foram testados nos bancos de faces UFPB, ORL, Yale, GTAV e Vsoft, desenvolvido especialmente para o trabalho. Os testes mostraram a eficácia do módulo de normalização da imagem, mas ainda assim o sistema não é adequado para qualquer ambiente.
|
255 |
Reconhecimento de face utilizando transformada discreta do cosseno bidimensional, análise de componentes principais bidimensional e mapas auto-organizáveis concorrentesGuimarães, Thayso Silva 14 May 2010 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / The identification of a person by their face is one of the most effective non-intrusive
methods in biometrics, however, is also one of the greatest challenges for researchers in the
area, consisting of research in psychophysics, neuroscience, engineering, pattern recognition,
analysis and image processing, computer vision and applied in face recognition by humans
and by machines. The algorithm proposed in this dissertation for face recognition was
developed in three stages. In the first stage feature matrices are derived of faces using the
Two-Dimensional Discrete Cosine Transform (2D-DCT) and Two-Dimensional Principal
Component Analysis (2D-PCA). The training of the Concurrent Self-Organizing Map
(Csoma) is performed in the second stage using the characteristic matrices of the faces. And
finally, the third stage we obtain the feature matrix of the image consulting classifying it using
the CSOM network of the second step. To check the performance of face recognition
algorithm proposed in this paper were tested using three well-known image databases in the
area of image processing: ORL, YaleA and Face94. / A identificação de uma pessoa pela sua face é um dos métodos não-intrusivo mais
efetivo em biometria, no entanto, também é um dos maiores desafios para os pesquisadores na
área; consistindo em pesquisas em psicofísica, neurociência, engenharia, reconhecimento de
padrões, análise e processamento de imagens, e visão computacional aplicada no
reconhecimento de faces pelos seres humanos e pelas máquinas. O algoritmo proposto nesta
dissertação para reconhecimento de faces foi desenvolvido em três etapas. Na primeira etapa
são obtidas as matrizes características das faces utilizando a Two-Dimensional Discrete
Cosine Transform (2D-DCT) e a Two-Dimensional Principal Component Analysis (2D-PCA).
O treinamento da Concurrent Self-Organizing Map (CSOM) é realizado na segunda etapa
usando as matrizes características das faces. E finalmente, na terceira etapa obtém-se a matriz
característica da imagem consulta classificando-a utilizando a rede CSOM da segunda etapa.
Para verificar o desempenho do algoritmo de reconhecimento de faces proposto neste trabalho
foram realizados testes utilizando três bancos de imagens bem conhecidos na área de
processamento de imagens: ORL, YaleA e Face94. / Mestre em Ciências
|
256 |
Reconhecimento facial tolerante à variação de pose utilizando uma câmera RGB-D de baixo custo / Face recognition using an low cost RGB-D camera to deal with the problem of pose variationZeni, Luis Felipe de Araujo January 2014 (has links)
Reconhecer a identidade de seres humanos a partir de imagens digitais gravadas de suas faces é uma etapa importante para uma variedade de aplicações que incluem segurança de acesso, iteração humano computador, entretenimento digital, entre outras. Neste trabalho é proposto um novo método automático para reconhecimento facial que utiliza simultaneamente a informação 2D e 3D de uma câmera RGB-D(Kinect). O método proposto utiliza a informação de cor da imagem 2D para localizar faces na cena, uma vez que uma face é localizada ela é devidamente recortada e normalizada para um padrão de tamanho e cor. Posteriormente com a informação de profundidade o método estima a pose da cabeça em relação com à câmera. Com faces recortadas e suas respectivas informações de pose, o método proposto treina um modelo de faces robusto à variação de poses e expressões propondo uma nova técnica automática que separa diferentes poses em diferentes modelos de faces. Com o modelo treinado o método é capaz de identificar se as pessoas utilizadas para aprender o modelo estão ou não presentes em novas imagens adquiridas, as quais o modelo não teve acesso na etapa de treinamento. Os experimentos realizados demonstram que o método proposto melhora consideravelmente o resultado de classificação em imagens reais com variação de pose e expressão. / Recognizing the identity of human beings from recorded digital images of their faces is important for a variety of applications, namely, security access, human computer interation, digital entertainment, etc. This dissertation proposes a new method for automatic face recognition that uses both 2D and 3D information of an RGB-D(Kinect) camera. The method uses the color information of the 2D image to locate faces in the scene, once a face is properly located it is cut and normalized to a standard size and color. Afterwards, using depth information the method estimates the pose of the head relative to the camera. With the normalized faces and their respective pose information, the proposed method trains a model of faces that is robust to pose and expressions using a new automatic technique that separates different poses in different models of faces. With the trained model, the method is able to identify whether people used to train the model are present or not in new acquired images, which the model had no access during the training phase. The experiments demonstrate that the proposed method considerably improves the result of classification in real images with varying pose and expression.
|
257 |
Semantic Sparse Learning in Images and VideosJanuary 2014 (has links)
abstract: Many learning models have been proposed for various tasks in visual computing. Popular examples include hidden Markov models and support vector machines. Recently, sparse-representation-based learning methods have attracted a lot of attention in the computer vision field, largely because of their impressive performance in many applications. In the literature, many of such sparse learning methods focus on designing or application of some learning techniques for certain feature space without much explicit consideration on possible interaction between the underlying semantics of the visual data and the employed learning technique. Rich semantic information in most visual data, if properly incorporated into algorithm design, should help achieving improved performance while delivering intuitive interpretation of the algorithmic outcomes. My study addresses the problem of how to explicitly consider the semantic information of the visual data in the sparse learning algorithms. In this work, we identify four problems which are of great importance and broad interest to the community. Specifically, a novel approach is proposed to incorporate label information to learn a dictionary which is not only reconstructive but also discriminative; considering the formation process of face images, a novel image decomposition approach for an ensemble of correlated images is proposed, where a subspace is built from the decomposition and applied to face recognition; based on the observation that, the foreground (or salient) objects are sparse in input domain and the background is sparse in frequency domain, a novel and efficient spatio-temporal saliency detection algorithm is proposed to identify the salient regions in video; and a novel hidden Markov model learning approach is proposed by utilizing a sparse set of pairwise comparisons among the data, which is easier to obtain and more meaningful, consistent than tradition labels, in many scenarios, e.g., evaluating motion skills in surgical simulations. In those four problems, different types of semantic information are modeled and incorporated in designing sparse learning algorithms for the corresponding visual computing tasks. Several real world applications are selected to demonstrate the effectiveness of the proposed methods, including, face recognition, spatio-temporal saliency detection, abnormality detection, spatio-temporal interest point detection, motion analysis and emotion recognition. In those applications, data of different modalities are involved, ranging from audio signal, image to video. Experiments on large scale real world data with comparisons to state-of-art methods confirm the proposed approaches deliver salient advantages, showing adding those semantic information dramatically improve the performances of the general sparse learning methods. / Dissertation/Thesis / Ph.D. Computer Science 2014
|
258 |
Reconhecimento facial com projeções ortogonais preservadoras de localidade customizadas para maximizar margens suaves / Face recognition using customized orthogonal locality preserving projections with soft margin maximizationSoldera, John January 2015 (has links)
Atualmente, o reconhecimento facial por técnicas automáticas é ainda uma tarefa desafiadora uma vez que as imagens faciais podem ser afetadas por mudanças na cena, tais como na iluminação, na pose da cabeça, ou na expressão facial. Além disso, a representação de faces por feições faciais geralmente requer diversas dimensões, o que impõe desafios adicionais ao reconhecimento facial. Nessa tese, é proposto um novo método de reconhecimento facial com o objetivo de ser robusto a muitos dos fatores que podem afetar as feições faciais na prática e se baseia em determinar transformações do espaço original de feições faciais de alta dimensionalidade para um espaço de baixa dimensionalidade que apresenta maior discriminação das classes de dados faciais (indivíduos). Isso é realizado através da aplicação de um método Projeções Ortogonais Preservadoras de Localidade (Orthogonal Locality Preserving Projections - OLPP) modificado, que usa esquemas de definição de localidade supervisionados que têm o objetivo de preservar a estrutura das classes de dados faciais no espaço resultante de baixa dimensionalidade, diferentemente do método OLPP típico que preserva a estrutura dos dados faciais. Dessa forma, as classes se tornam mais compactas, preservando a métrica de classificação. O método proposto pode trabalhar tanto com representações densas como esparsas de imagens faciais (ou seja, ele pode usar subconjuntos ou todos os pixels das imagens faciais), sendo proposto nessa tese um método de extração de feições faciais esparsas e um método de extração de feições faciais densas que preservam a informação de cor das imagens faciais apresentando melhora em relação ao método OLPP típico que usa imagens em escalas de cinza em baixa resolução. Novas imagens faciais de teste são classificadas no espaço de baixa dimensionalidade obtido usando Máquinas de Vetores de Suporte (Support Vector Machines - SVM) treinadas com margens suaves, apresentando maior eficiência do que a regra do vizinho mais próximo usada no método OLPP típico. Um conjunto de experimentos foi projetado para avaliar o método proposto sob várias condições encontradas na prática (como mudanças na pose, expressão facial, iluminação e a presença de artefatos que causam oclusão facial). Os resultados experimentais foram obtidos usando cinco bases de imagens faciais públicas (a PUT, a FEI, a FERET, a Yale e a ORL). Esses experimentos confirmam que os esquemas propostos de extração de feições faciais integrados à transformação proposta para um espaço discriminativo de baixa dimensionalidade empregando o esquema alternativo de classificação usando SVM com margens suaves obtêm maiores taxas de reconhecimento do que o próprio método OLPP e métodos representativos do estado da arte mesmo quando são usadas imagens coloridas em alta resolução (das bases de imagens faciais PUT, FEI e FERET) como imagens faciais em escalas de cinza em baixa resolução (das bases Yale e ORL). / Nowadays, face recognition by automatic techniques still is a challenging task since face images may be affected by changes in the scene, such as in the illumination, head pose or face expression. Also, face feature representation often requires several dimensions, which poses additional challenges for face recognition. In this thesis is proposed a novel face recognition method with the objective of to be robust to many issues which can affect the face features in practice and it is based on projections of high dimensional face image representations into lower dimensionality and highly discriminative spaces. This is achieved by a modified Orthogonal Locality Preserving Projections (OLPP) method that uses a supervised alternative locality definition scheme designed to preserve the face class (individuals) structure in the obtained lower dimensionality face feature space unlike the typical OLPP method which preserves the face data structure. Besides, a new kernel equation is proposed to calculate affinities among face samples, presenting better class structure preservation when compared to the heat kernel used by the typical OLPP method. The proposed method can work with sparse and dense face image representations (i.e. it can use sub-sets or all face image pixels), and a sparse and a dense feature extraction methods are proposed, which preserve the color information during the feature extraction process from the facial images improving on the typical OLPP method which uses grayscale low-resolution face images. New test face images are classified in the obtained lower dimensionality feature space using a trained soft margins Support Vector Machine (SVM), so it performs better than the nearest neighbor rule used in the typical OLPP method. A set of experiments was designed to evaluate the proposed method under various conditions found in practice (such as changes in head pose, face expression, illumination, and in the presence of occlusion artifacts). The experimental results were obtained using five challenging public face databases (namely, PUT, FEI, FERET, Yale and ORL). These experiments confirm that the proposed feature extraction method integrated to the proposed transformation to a discriminative lower dimensionality space using the alternative classification scheme with SVM and soft margins obtains higher recognition rates than the OLPP method itself and methods representative of the state-ofthe- art even when are used color (RGB) face images in high resolution (PUT, FEI and FERET face databases) as well as grayscale face images in low resolution (Yale and ORL face databases).
|
259 |
Reconhecimento facial tolerante à variação de pose utilizando uma câmera RGB-D de baixo custo / Face recognition using an low cost RGB-D camera to deal with the problem of pose variationZeni, Luis Felipe de Araujo January 2014 (has links)
Reconhecer a identidade de seres humanos a partir de imagens digitais gravadas de suas faces é uma etapa importante para uma variedade de aplicações que incluem segurança de acesso, iteração humano computador, entretenimento digital, entre outras. Neste trabalho é proposto um novo método automático para reconhecimento facial que utiliza simultaneamente a informação 2D e 3D de uma câmera RGB-D(Kinect). O método proposto utiliza a informação de cor da imagem 2D para localizar faces na cena, uma vez que uma face é localizada ela é devidamente recortada e normalizada para um padrão de tamanho e cor. Posteriormente com a informação de profundidade o método estima a pose da cabeça em relação com à câmera. Com faces recortadas e suas respectivas informações de pose, o método proposto treina um modelo de faces robusto à variação de poses e expressões propondo uma nova técnica automática que separa diferentes poses em diferentes modelos de faces. Com o modelo treinado o método é capaz de identificar se as pessoas utilizadas para aprender o modelo estão ou não presentes em novas imagens adquiridas, as quais o modelo não teve acesso na etapa de treinamento. Os experimentos realizados demonstram que o método proposto melhora consideravelmente o resultado de classificação em imagens reais com variação de pose e expressão. / Recognizing the identity of human beings from recorded digital images of their faces is important for a variety of applications, namely, security access, human computer interation, digital entertainment, etc. This dissertation proposes a new method for automatic face recognition that uses both 2D and 3D information of an RGB-D(Kinect) camera. The method uses the color information of the 2D image to locate faces in the scene, once a face is properly located it is cut and normalized to a standard size and color. Afterwards, using depth information the method estimates the pose of the head relative to the camera. With the normalized faces and their respective pose information, the proposed method trains a model of faces that is robust to pose and expressions using a new automatic technique that separates different poses in different models of faces. With the trained model, the method is able to identify whether people used to train the model are present or not in new acquired images, which the model had no access during the training phase. The experiments demonstrate that the proposed method considerably improves the result of classification in real images with varying pose and expression.
|
260 |
Reconhecimento facial em imagens de baixa resoluçãoSILVA, José Ivson Soares da 24 February 2015 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2016-04-07T12:14:52Z
No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
dissertação_jiss_ciênciadacomputação.pdf: 2819671 bytes, checksum: 98f583c2b7105c3a5b369b2b48097633 (MD5) / Made available in DSpace on 2016-04-07T12:14:52Z (GMT). No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
dissertação_jiss_ciênciadacomputação.pdf: 2819671 bytes, checksum: 98f583c2b7105c3a5b369b2b48097633 (MD5)
Previous issue date: 2015-02-24 / FADE / Tem crescido o uso de sistemas computacionais para reconhecimento de pessoas por meio
de dados biométricos, consequentemente os métodos para realizar o reconhecimento tem
evoluído. A biometria usada no reconhecimento pode ser face, voz, impressão digital
ou qualquer característica física capaz de distinguir as pessoas. Mudanças causadas por
cirurgias, envelhecimento ou cicatrizes, podem não causar mudanças significativas nas
características faciais tornando possível o reconhecimento após essas mudanças de aparência
propositais ou não. Por outro lado tais mudanças se tornam um desafio para sistemas de
reconhecimento automático. Além das mudanças físicas há outros fatores na obtenção da
imagem que influenciam o reconhecimento facial como resolução da imagem, posição da
face em relação a câmera, iluminação do ambiente, oclusão, expressão. A distância que uma
pessoa aparece na cena modifica a resolução da região da sua face, o objetivo de sistemas
direcionados a esse contexto é que a influência da resolução nas taxas de reconhecimento
seja minimizada. Uma pessoa mais distante da câmera tem sua face na imagem numa
resolução menor que uma que esteja mais próxima. Sistemas de reconhecimento facial têm
um menor desempenho ao tratar imagens faciais de baixa resolução. Uma das fases de
um sistema de reconhecimento é a extração de características, que processa os dados de
entrada e fornece um conjunto de informações mais representativas das imagens. Na fase
de extração de características os padrões da base de dados de treinamento são recebidos
numa mesma dimensão, ou seja, no caso de imagens numa mesma resolução. Caso as
imagens disponíveis para o treinamento sejam de resoluções diferentes ou as imagens
de teste sejam de resolução diferente do treinamento, faz-se necessário que na fase de
pré-processamento haja um tratamento de resolução. O tratamento na resolução pode
ser aplicando um aumento da resolução das imagens menores ou redução da resolução
das imagens maiores. O aumento da resolução não garante um ganho de informação que
possa melhorar o desempenho dos sistemas. Neste trabalho são desenvolvidos dois métodos
executados na fase de extração de características realizada por Eigenface, os vetores de
características são redimensionados para uma nova escala menor por meio de interpolação,
semelhante ao que acontece no redimensionamento de imagens. No primeiro método, após
a extração de características, os vetores de características e as imagens de treinamento são
redimensionados. Então, as imagens de treinamento e teste são projetadas no espaço de
características pelos vetores de dimensão reduzida. No segundo método, apenas os vetores
de características são redimensionados e multiplicados por um fator de compensação.
Então, as imagens de treinamento são projetadas pelos vetores originais e as imagens de
teste são projetadas pelos vetores reduzidos para o mesmo espaço. Os métodos propostos
foram testados em 4 bases de dados de reconhecimento facial com a presença de problemas
de variação de iluminação, variação de expressão facial, presença óculos e posicionamento
do rosto. / In the last decades the use of computational systems to recognize people by biometric data
is increasing, consequently the efficacy of methods to perform recognition is improving.
The biometry used for recognition can be face, voice, fingerprint or other physical feature
that enables the distiction of different persons. Facial changes caused by surgery, aging or
scars, does not necessarily causes significant changes in facial features. For a human it is
possible recognize other person after these interventions of the appearance. On the other
hand, these interventions become a challenge to computer recognition systems. Beyond the
physical changes there are other factors in aquisition of an image that influence the face
recognition such as the image resolution, position between face and camera, light from
environment, occlusions and variation of facial expression. The distance that a person is
at image aquisition changes the resolution of face image. The objective of systems for this
context is to minimize the influence of the image resolution for the recognition. A person
more distant from the camera has the image of the face in a smaller resolution than a
person near the camera. Face recognition systems have a poor performance to analyse
low resolution image. One of steps of a recognition system is the features extraction that
processes the input data so provides more representative images. In the features extraction
step the images from the training database are received at same dimension, in other words,
to analyse the images they have the same resolution. If the training images have different
resolutions of test images it is necessary a preprocessing to normalize the image resolution.
The preprocessing of an image can be to increase the resolution of small images or to
reduce the resolution of big images. The increase resolution does not guarantee that there
is a information gain that can improves the performance of the recognition systems. In
this work two methods are developed at features extraction step based on Eigenface. The
feature vectors are resized to a smaller scale, similar to image resize. In first method, after
the feature extraction step, the feature vectors and the training images are resized. Then
the training and test images are projected to feature space by the resized feature vectors.
In second method, only the feature vectors are resized and multiplied by a compensation
factor. The training images are projected by original feature vectors and the test images
are projected by resized feature vectors to the same space. The proposed methods were
tested in 4 databases of face recognition with presence of light variation, variation of facial
expression, use of glasses and face position.
|
Page generated in 0.1106 seconds