• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 64
  • 7
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 3
  • 1
  • Tagged with
  • 69
  • 69
  • 69
  • 31
  • 27
  • 25
  • 23
  • 23
  • 20
  • 19
  • 17
  • 17
  • 17
  • 16
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Metodologia para a captura, detecção e normalização de imagens faciais

Prodossimo, Flávio das Chagas 29 May 2013 (has links)
CAPES / O reconhecimento facial está se tornando uma tarefa comum com a evolução da tecnologia da informação. Este artefato pode ser utilizado na área de segurança, controlando acesso a lugares restritos, identificando pessoas que tenham cometido atos ilícitos, entre outros. Executar o reconhecimento facial é uma tarefa complexa e, para completar este processo, são implementadas etapas que compreendem: a captura de imagens faciais, a detecção de regiões de interesse, a normalização facial, a extração de características e o reconhecimento em si. Dentre estas, as três primeiras são tratadas neste trabalho, que tem como objetivo principal a normalização automática de faces. Tanto para a captura de imagens quanto para a normalização frontal existem normas internacionais que padronizam o procedimento de execução destas tarefas e que foram utilizadas neste trabalho. Além disto, algumas normas foram adaptadas para a construção de uma base de imagens faciais com o objetivo de auxiliar o processo de reconhecimento facial. Também foi criada uma nova metodologia para normalização de imagens faciais laterais, baseando-se nas normas da normalização frontal. Foram implementadas normalização semiautomática frontal, semiautomática lateral e automática lateral. Para a execução da normalização facial automática são necessários dois pontos de controle, os dois olhos, o que torna indispensável a execução da etapa de detecção de regiões de interesse. Neste trabalho, foram comparadas duas metodologias semelhantes para detecção. Primeiramente foi detectada uma região contendo ambos os olhos e, em seguida, dentro desta região, foram detectados cada um dos olhos de forma mais precisa. Para as duas metodologias foram utilizadas técnicas de processamento de imagens e reconhecimento de padrões. A primeira metodologia utiliza como filtro o Haar-Like Features em conjunto com a técnica de reconhecimento de padrões Adaptative Boosting. Sendo que as técnicas equivalentes no segundo algoritmo foram o Local Binary Pattern e o Support Vector Machines, respectivamente. Na segunda metodologia também foi utilizado um algoritmo de otimização de busca baseado em vizinhança, o Variable Neighborhood Search. Os estudos resultaram em uma base com 3726 imagens, mais uma base normalizada frontal com 966 imagens e uma normalizada lateral com 276 imagens. A detecção de olhos resultou, nos melhores testes, em aproximadamente 99% de precisão para a primeira metodologia e 95% para a segunda, sendo que em todos os testes a primeira foi o mais rápida. Com o desenvolvimento de trabalhos futuros pretende-se: tornar públicas as bases de imagens, melhorar a porcentagem de acerto e velocidade de processamento para todos os testes e melhorar a normalização, implementando a normalização de plano de fundo e também de iluminação. / With the evolution of information technology Facial recognition is becoming a common task. This artifact can be used in security, controlling access to restricted places and identifying persons, for example. Facial recognition is a complex task, and it's divided into some process, comprising: facial images capture, detection of regions of interest, facial normalization, feature extraction and recognition itself. Among these, the first three are treated in this work, which has as its main objective the automatic normalization of faces. For the capture of images and for the image normalization there are international standards that standardize the procedure for implementing these tasks and which were used in this work. In addition to following these rules, other standardizations have been developed to build a database of facial images in order to assist the process of face recognition. A new methodology for normalization of profile faces, based on the rules of frontal normalization. Some ways of normalization were implemented: frontal semiautomatic, lateral semiautomatic and automatic frontal. For the execution of frontal automatic normalization we need two points of interest, the two eyes, which makes it a necessary step to execute the detection regions of interest. In this work, we compared two similar methods for detecting. Where was first detected a region containing both eyes and then, within this region were detected each eye more accurately. For the two methodologies were used techniques of image processing and pattern recognition. The first method based on the Viola and Jones algorithm, the filter uses as Haar-like Features with the technique of pattern recognition Adaptive Boosting. Where the second algorithm equivalent techniques were Local Binary Pattern and Support Vector Machines, respectively. In the second algorithm was also used an optimization algorithm based on neighborhood search, the Variable Neighborhood Search. This studies resulted in a database with 3726 images, a frontal normalized database with 966 images and a database with face's profile normalized with 276 images. The eye detection resulted in better tests, about 99 % accuracy for the first method and 95 % for the second, and in all tests the first algorithm was the fastest. With the development of future work we have: make public the images database, improve the percentage of accuracy and processing speed for all tests and improve the normalization by implementing the normalization of the background and also lighting.
52

Desenvolvimento de uma armband para captura de sinais eletromiográficos para reconhecimento de movimentos / Development of an armband to capture of electromyography signals for movement recognition

Mendes Júnior, José Jair Alves 12 December 2016 (has links)
Esta dissertação apresenta o desenvolvimento de um sistema em forma de armband para a captura de sinais de eletromiográficos de superfície para o reconhecimento de movimentos do braço. São apresentadas todas as suas etapas de projeto, desde a construção física, projeto de circuitos, sistema de aquisição, processamento e classificação por meio de Redes Neurais Artificiais. Foi construído um bracelete contendo oito canais para a captação do sinal de eletromiografia e um sistema auxiliar (giroscópio) de referência foi utilizado para indicar o instante em que o braço foi movimentado. Foram adquiridos dados dos grupos musculares do bíceps e do tríceps. Por meio da fusão de dados de sensores, os sinais foram processados por meio de rotinas no software LabVIEWTM. Após a extração de características do sinal, as amostras foram encaminhadas para uma Rede Neural Multi-Layer Perceptron para a classificação dos movimentos de flexão e extensão do braço. A mesma armband foi inserida na região do antebraço e os sinais de eletromiografia foram comparados com os sinais obtidos pelo dispositivo comercial MyoTM. O sistema apresentou como resultado altas taxas de classificação, acima de 95% e os sinais obtidos na região do antebraço apresentaram semelhanças com os obtidos pelo dispositivo comercial. / This master thesis presents the development of an armband system to capture of superficial electromyography signals to arm movement recognition. All project steps, since the physical building, project of the circuits, acquisition system, processing and classification by Artificial Neural Networks are presented. An armband with eight channel to capture the electromyography signal was constructed and an auxiliary system (gyroscope) was used to indicate the instant when the arm was moved. The muscle acquired groups were the biceps and triceps. By sensor data fusion, the signals were processed by LabVIEWTM routines. After the signal characteristic extraction, the samples were forwarded to a Multi-Layer Perceptron Neural Network to movement classification of arm flexion and extension. The same armband was inserted on the forearm and the electromyography signals were compared with the signals obtained by the commercial device MyoTM. The system presented, as results, high classification rates, above of 95% and the obtained signals on the region of forearm showed similarities with the obtained ones by commercial device.
53

Metodologia para a captura, detecção e normalização de imagens faciais

Prodossimo, Flávio das Chagas 29 May 2013 (has links)
CAPES / O reconhecimento facial está se tornando uma tarefa comum com a evolução da tecnologia da informação. Este artefato pode ser utilizado na área de segurança, controlando acesso a lugares restritos, identificando pessoas que tenham cometido atos ilícitos, entre outros. Executar o reconhecimento facial é uma tarefa complexa e, para completar este processo, são implementadas etapas que compreendem: a captura de imagens faciais, a detecção de regiões de interesse, a normalização facial, a extração de características e o reconhecimento em si. Dentre estas, as três primeiras são tratadas neste trabalho, que tem como objetivo principal a normalização automática de faces. Tanto para a captura de imagens quanto para a normalização frontal existem normas internacionais que padronizam o procedimento de execução destas tarefas e que foram utilizadas neste trabalho. Além disto, algumas normas foram adaptadas para a construção de uma base de imagens faciais com o objetivo de auxiliar o processo de reconhecimento facial. Também foi criada uma nova metodologia para normalização de imagens faciais laterais, baseando-se nas normas da normalização frontal. Foram implementadas normalização semiautomática frontal, semiautomática lateral e automática lateral. Para a execução da normalização facial automática são necessários dois pontos de controle, os dois olhos, o que torna indispensável a execução da etapa de detecção de regiões de interesse. Neste trabalho, foram comparadas duas metodologias semelhantes para detecção. Primeiramente foi detectada uma região contendo ambos os olhos e, em seguida, dentro desta região, foram detectados cada um dos olhos de forma mais precisa. Para as duas metodologias foram utilizadas técnicas de processamento de imagens e reconhecimento de padrões. A primeira metodologia utiliza como filtro o Haar-Like Features em conjunto com a técnica de reconhecimento de padrões Adaptative Boosting. Sendo que as técnicas equivalentes no segundo algoritmo foram o Local Binary Pattern e o Support Vector Machines, respectivamente. Na segunda metodologia também foi utilizado um algoritmo de otimização de busca baseado em vizinhança, o Variable Neighborhood Search. Os estudos resultaram em uma base com 3726 imagens, mais uma base normalizada frontal com 966 imagens e uma normalizada lateral com 276 imagens. A detecção de olhos resultou, nos melhores testes, em aproximadamente 99% de precisão para a primeira metodologia e 95% para a segunda, sendo que em todos os testes a primeira foi o mais rápida. Com o desenvolvimento de trabalhos futuros pretende-se: tornar públicas as bases de imagens, melhorar a porcentagem de acerto e velocidade de processamento para todos os testes e melhorar a normalização, implementando a normalização de plano de fundo e também de iluminação. / With the evolution of information technology Facial recognition is becoming a common task. This artifact can be used in security, controlling access to restricted places and identifying persons, for example. Facial recognition is a complex task, and it's divided into some process, comprising: facial images capture, detection of regions of interest, facial normalization, feature extraction and recognition itself. Among these, the first three are treated in this work, which has as its main objective the automatic normalization of faces. For the capture of images and for the image normalization there are international standards that standardize the procedure for implementing these tasks and which were used in this work. In addition to following these rules, other standardizations have been developed to build a database of facial images in order to assist the process of face recognition. A new methodology for normalization of profile faces, based on the rules of frontal normalization. Some ways of normalization were implemented: frontal semiautomatic, lateral semiautomatic and automatic frontal. For the execution of frontal automatic normalization we need two points of interest, the two eyes, which makes it a necessary step to execute the detection regions of interest. In this work, we compared two similar methods for detecting. Where was first detected a region containing both eyes and then, within this region were detected each eye more accurately. For the two methodologies were used techniques of image processing and pattern recognition. The first method based on the Viola and Jones algorithm, the filter uses as Haar-like Features with the technique of pattern recognition Adaptive Boosting. Where the second algorithm equivalent techniques were Local Binary Pattern and Support Vector Machines, respectively. In the second algorithm was also used an optimization algorithm based on neighborhood search, the Variable Neighborhood Search. This studies resulted in a database with 3726 images, a frontal normalized database with 966 images and a database with face's profile normalized with 276 images. The eye detection resulted in better tests, about 99 % accuracy for the first method and 95 % for the second, and in all tests the first algorithm was the fastest. With the development of future work we have: make public the images database, improve the percentage of accuracy and processing speed for all tests and improve the normalization by implementing the normalization of the background and also lighting.
54

Melhorias para sistemas de reconhecimento da placa de licenciamento veicular / Improvements for vehicle license plate recognition systems

Dias, Fabio Gaiotto 25 October 2005 (has links)
Orientador: Roberto de Alencar Lotufo / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-05T14:11:13Z (GMT). No. of bitstreams: 1 Dias_FabioGaiotto_M.pdf: 23093036 bytes, checksum: b69164dd21b02038afe09fee3044659a (MD5) Previous issue date: 2005 / Resumo: Sistemas de reconhecimento da placa de licenciamento veicular (SRPLV) identificam o código da placa de um veículo com base em sua imagem.. Suas principais aplicações são: detecção de veículos roubados; controle de acesso em áreas restritas; monitoramento de tráfego; fiscalização de trânsito; controle automático de estacionamentos e de pedágios. Neste trabalho, descrevemos melhorias para SRPLV. As principais contribuições estão no método de localização da placa, efetuando a binarização com base nos mínimos regionais da imagem filtrada; no enquadramento com correção da distorção de perspectiva da placa, através da homografia; na separação dos caracteres com auxilio da projeção vertical; e no reconhecimento dos caracteres, utilizando um classificador hierárquico de distância mínima. Nossa proposta obteve resultado 1,17 vezes superior na localização da placa e 1,58 vezes superior no correto reconhecimento da placa em relação ao melhor resultado entre duas demonstrações de sistemas comerciais disponíveis na internet (SeeCar e SIAV 3.0), usando um banco de dados com 1200 imagens / Abstract: Vehicle license plate recognition systems (VLPRS) identify the plate number of a vehicle based on its image. Their main applications are: stolen vehicle detection; access control of restricted areas; traffic monitoring; traffic law enforcement; automatic control of parking and toll collection, in this work, we describe improvements for VLPRS. The main contributions are in the plate location method performing the binarization based on regional minima of the filtered image; in the plate framing with perspective distortion correction using the homography; in the character separation with the aid of the vertical projection; and in the character recognition, using a minimal distance hierarchical classifier. Our proposal presented a performance 1.17 times superior in the plate location and 1.58 times superior in the correct plate recognition, when compared to the best result of two commercial system demonstrations available in the internet (SeeCar and SIAV 3.0), using a database of 1.200 images / Mestrado / Engenharia de Computação / Mestre em Engenharia Elétrica
55

Estudo dimensional de características aplicadas à leitura labial automática

Madureira, Fillipe Levi Guedes 31 August 2018 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / This work is a study of the relationship between the intrinsic dimension of feature vectors applied to the classification of video signals in order to perform lip reading. In pattern recognition tasks, the extraction of relevant features is crucial for a good performance of the classifiers. The starting point of this work was the reproduction of the work of J.R. Movellan [1], which classifies lips gestures with HMM using only the video signal from the Tulips1 database. The database consists of videos of volunteers’ mouths while they utter the first 4 numerals in English. The original work uses feature vectors of high dimensionality in relation to the size of the database. Consequently, the adjustment of HMM classifiers has become problematic and the maximum accuracy was only 66.67%. Alternative strategies for feature extraction and classification schemes were proposed in order to analyze the influence of the intrinsic dimension in the performance of classifiers. The best solution, in terms of results, achieved an accuracy of approximately 83%. / Este trabalho é um estudo da relação entre a dimensão intrínseca de vetores de características aplicados à classificação de sinais de vídeo no intuito de realizar-se a leitura labial. Nas tarefas de reconhecimento de padrões, a extração de características relevantes é crucial para um bom desempenho dos classificadores. O ponto de partida deste trabalho foi a reprodução do trabalho de J.R. Movellan [1], que realiza a classificação de gestos labiais com HMM na base de dados Tulips1, utilizando somente o sinal de vídeo. A base é composta por vídeos das bocas de voluntários enquanto esses pronunciam os primeiros 4 numerais em inglês. O trabalho original utiliza vetores de características de dimensão muito alta em relação ao tamanho da base. Consequentemente, o ajuste de classificadores HMM se tornou problemático e só se alcançou 66,67% de acurácia. Estratégias de extração de características e esquemas de classificação alternativos foram propostos, a fim de analisar a influência da dimensão intrínseca no desempenho de classificadores. A melhor solução, em termos de resultados, obteve uma acurácia de aproximadamente 83%. / São Cristóvão, SE
56

'Theta'-FAMs : memórias associativas fuzzy baseadas em funções-'theta' / 'Theta'-FAMs : fuzzy associative memories based on functions-'theta'

Esmi, Estevão, 1982- 25 August 2018 (has links)
Orientador: Peter Sussner / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Matemática Estatística e Computação Científica / Made available in DSpace on 2018-08-25T00:54:31Z (GMT). No. of bitstreams: 1 Esmi_Estevao_D.pdf: 1836434 bytes, checksum: 5c3a2879200ff2c7bb59b21e24a173fc (MD5) Previous issue date: 2014 / Resumo: Muitas das memórias associativas fuzzy (FAMs) da literatura correspondem a redes neurais com uma única camada de pesos que armazenam de forma distributiva as informações das associações desejadas. As principais aplicações deste tipo de mémorias associativas são encontradas em sistemas baseados em regras fuzzy. Nesta tese introduzimos a classe de memórias associativas fuzzy-T (T-FAMs) que, em contraste com estes outros modelos, representam redes neurais fuzzy com duas camadas. Caso particulares de T-FAMs, denominadas S-FAMs (duais) e E-FAMs, são baseadas em medidas de subsethood e equivalência fuzzy. Resultados gerais sobre a capacidade de armazenamento e a capacidade de correção de erro das T-FAMs também foram providenciados. Adicionalmente, introduzimos um algoritmo geral de treinamento para T-FAM cuja convergência é sempre garantida. Apresentamos ainda um algoritmo alternativo para treinamento de uma certa classe de E-FAMs que além de ajustar os seus parâmetros também determina automaticamente a topologia da rede. Finalmente, comparamos as taxas de classificação produzidas pelas T-FAMs com alguns classificadores bem conhecidos em diversos problemas de classificação disponíveis na internet. Além disso, aplicamos com sucesso as T-FAMs em um problema de auto-localização de robô móvel baseado em visão / Abstract: Most fuzzy associative memories in the literature correspond to neural networks with a single layer of weights that distributively contains the information about the associations to be stored. The main applications of these types of associative memory can be found in fuzzy rule-base systems. In contrast, we present in this thesis the class of T-fuzzy associative memories (T-FAMs) that represent fuzzy neural networks with two layers. Particular cases of T-FAMs, called (dual) S-FAMs and E-FAMs, are based on fuzzy subsethood and equivalence measures. We provide theoretical results concerning the storage capability and error correction capability of T-FAMs. Furthermore, we introduce a general training algorithm for T-FAM that is guaranteed to converge in a finite numbers of iterations. We also proposed another alternative training algorithm for a certain type of E-FAM that not only adjusts the parameters of the corresponding network but also automatically determines its topology. We compare the classification rates produced by T-FAMs with that ones of some well-known classifiers in several benchmark classification problems that are available on the internet. Finally, we successful apply T-FAM approach to a problem of vision-based selflocalization in mobile robotics / Doutorado / Matematica Aplicada / Doutor em Matemática Aplicada
57

Desenvolvimento de uma interface homem-máquina baseada em potenciais evocados em regime estacionário / Development of a human-machine interface based on steady state visual evoked potentials

Suarez Uribe, Luisa Fernanda, 1985- 24 August 2018 (has links)
Orientadores Eleri Cardozo, Diogo Coutinho Soriano / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-24T05:15:26Z (GMT). No. of bitstreams: 1 SuarezUribe_LuisaFernanda_M.pdf: 6173860 bytes, checksum: 3a1e038c4b2f0b3d7f6c4981c268de63 (MD5) Previous issue date: 2013 / Resumo: Os potenciais evocados visuais de estado em regime permanente (SSVEP) são uma resposta cerebral medida ao capturar sinais cerebrais através de Eletroencefalograma (EEG) usando-se uma touca com eletrodos posicionados no escalpo mediante estimulação visual externa. Um sistema que detecta a resposta SSVEP gerada em um sujeito estimulado com fontes de luz (LEDs) piscando a frequências diferentes foi desenvolvido nesta dissertação com o intuito de criar uma interface homen-máquina. Para tanto, foram usados quatro estímulos visuais codificando quatro possíveis comandos, mais o estado de repouso, a serem classificados e identificados a partir da resposta observada no EEG de um sujeito e da devida análise espectral deste sinal. As características que determinam se a resposta SSVEP está presente foram estudadas através de diferentes heurísticas para a seleção de descritores (coeficientes associados a densidade espectral de potência), os quais foram posteriormente passados para um classificador linear para a determinação do comando associado ao estímulo. Para a seleção de características, o índice Davies Bouldin (DB) foi utilizado. No que concerne a análise de frequência realizado para os três sujeitos estudados foi possível observar a presença da resposta SSVEP nas frequências de estimulação, mas tal como esperado, com forte presença de ruído e com grande variabilidade entre os sujeitos. Apesar da variabilidade das características selecionadas pela estratégia adotada, obteve-se aqui resultados de classificação próximos a 90% de acerto para cada classe. Estes resultados de classificação indicaram que esta metodologia de processamento pode ser usada num sistema de BCI em tempo real, dado que o atual sistema foi projetado para operar somente com dados que foram gravados off-line / Abstract: Steady State Visual Evoked Potentials (SSVEP) is a brain response measured by capturing brain signals generated by external visual stimulation, through electroencephalogram (EEG) using a cap with electrodes placed on the scalp. A system for detection SSVEP response generated in a subject stimulated with light sources (LEDs) flashing at different frequencies has been developed in this dissertation in order to implement a human machine interface. Thus, we used four visual stimuli encoding four possible commands, besides idle state, to be classified and identified from the response observed in the EEG of a subject through the spectral analysis of this signal. The characteristics that determine if a SSVEP response is present were studied through different heuristics for selecting descriptors (coefficients associated with power spectral density), which were then passed to a linear classifier for the determination of the stimulus associated command. Davies Bouldin (DB) index was the method used for the selection of features. From the frequency analysis carried out for three subjects it was observed the presence of SSVEP response on the stimulation frequencies, but in some cases, as expected, was blurred by noise, which differ among individuals. Despite the variability of the features selected by the strategy adopted, it was obtained classification results with accuracy nearly 90\% for each class. These classification results indicated that this processing methodology could be used in a BCI system in real time, as the current system was designed to operate only with data that were recorded off-line / Mestrado / Engenharia de Computação / Mestra em Engenharia Elétrica
58

Autenticação biométrica de usuários em sistemas de E-learning baseada em reconhecimento de faces a partir de vídeo /

Penteado, Bruno Elias. January 2009 (has links)
Orientador: Aparecido Nilceu Elias / Banca: Agma Juci Machado Traina / Banca: Wilson Massashiro Yonezawa / Resumo: Nos últimos anos tem sido observado um crescimento exponencial na oferta de cursos a distância realizados pela Internet, decorrente de suas vantagens e características (menores custos de distribuição e atualização de conteúdo, gerenciamento de grandes turmas, aprendizado assíncrono e geograficamente independente, etc.), bem como de sua regulamentação e apoio governamental. Entretanto, a falta de mecanismos eficazes para assegurar a autenticação dos alunos neste tipo de ambiente é apontada como uma séria deficiência, tanto no acesso ao sistema quanto durante a participação do usuário nas atividades do curso. Atualmente, a autenticação baseada em senhas continua predominante. Porém, estudos têm sido conduzidos sobre possíveis aplicações da Biometria para autenticação em ambientes Web. Com a popularização e conseqüente barateamento de hardware habilitado para coleta biométrica (como webcams, microfone e leitores de impressão digital embutidos), a Biometria passa a ser considerada uma forma segura e viável de autenticação remota de indivíduos em aplicações Web. Baseado nisso, este trabalho propõe uma arquitetura distribuída para um ambiente de e-Learning, explorando as propriedades de um sistema Web para a autenticação biométrica tanto no acesso ao sistema quanto de forma contínua, durante a realização do curso. Para análise desta arquitetura, é avaliada a performance de técnicas de reconhecimento de faces a partir de vídeo capturadas on-line por uma webcam em um ambiente de Internet, simulando a interação natural de um indivíduo em um sistema de e- Learning. Para este fim, foi criada uma base de dados de vídeos própria, contando com 43 indivíduos navegando e interagindo com páginas Web. Os resultados obtidos mostram que os métodos analisados, consolidados na literatura, podem ser aplicados com sucesso nesse tipo de aplicação... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: In the last years it has been observed an exponential growth in the offering of Internet-enabled distance courses, due to its advantages and features (decreased distribution and content updates costs, management of large groups of students, asynchronous and geographically independent learning) as well as its regulation and governmental support. However, the lack of effective mechanisms that assure user authentication in this sort of environment has been pointed out as a serious deficiency, both in the system logon and during user attendance in the course assignments. Currently, password based authentication still prevails. Nevertheless, studies have been carried out about possible biometric applications for Web authentication. With the popularization and resultant decreasing costs of biometric enabled devices, such as webcams, microphones and embedded fingerprint sensors, Biometrics is reconsidered as a secure and viable form of remote authentication of individuals for Web applications. Based on that, this work presents a distributed architecture for an e-Learning environment, by exploring the properties of a Web system for biometric authentication both in the system logon and in continuous monitoring, during the course attendance. For the analysis of this architecture, the performance of techniques for face recognition from video, captured on-line by a webcam in an Internet environment, is evaluated, simulating the natural interaction of an individual in an e-Learning system. For that, a private database was created, with 43 individuals browsing and interacting with Web pages. The results show that the methods analyzed, though consolidated in the literature, can be successfully applied in this kind of application, with recognition rates up to 97% in ideal conditions, with low execution times and with short amount of information transmitted between client and server, with templates sizes of about 30KB. / Mestre
59

Efficient construction of multi-scale image pyramids for real-time embedded robot vision

Entschev, Peter Andreas 16 December 2013 (has links)
Detectores de pontos de interesse, ou detectores de keypoints, têm sido de grande interesse para a área de visão robótica embarcada, especialmente aqueles que possuem robustez a variações geométricas, como rotação, transformações afins e mudanças em escala. A detecção de características invariáveis a escala é normalmente realizada com a construção de pirâmides de imagens em multiescala e pela busca exaustiva de extremos no espaço de escala, uma abordagem presente em métodos de reconhecimento de objetos como SIFT e SURF. Esses métodos são capazes de encontrar pontos de interesse bastante robustos, com propriedades adequadas para o reconhecimento de objetos, mas são ao mesmo tempo computacionalmente custosos. Nesse trabalho é apresentado um método eficiente para a construção de pirâmides de imagens em sistemas embarcados, como a plataforma BeagleBoard-xM, de forma similar ao método SIFT. O método aqui apresentado tem como objetivo utilizar técnicas computacionalmente menos custosas e a reutilização de informações previamente processadas de forma eficiente para reduzir a complexidade computacional. Para simplificar o processo de construção de pirâmides, o método utiliza filtros binomiais em substituição aos filtros Gaussianos convencionais utilizados no método SIFT original para calcular múltiplas escalas de uma imagem. Filtros binomiais possuem a vantagem de serem implementáveis utilizando notação ponto-fixo, o que é uma grande vantagem para muitos sistemas embarcados que não possuem suporte nativo a ponto-flutuante. A quantidade de convoluções necessária é reduzida pela reamostragem de escalas já processadas da pirâmide. Após a apresentação do método para construção eficiente de pirâmides, é apresentada uma maneira de implementação eficiente do método em uma plataforma SIMD (Single Instruction, Multiple Data, em português, Instrução Única, Dados Múltiplos) – a plataforma SIMD usada é a extensão ARM Neon disponível no processador ARM Cortex-A8 da BeagleBoard-xM. Plataformas SIMD em geral são muito úteis para aplicações multimídia, onde normalmente é necessário realizar a mesma operação em vários elementos, como pixels em uma imagem, permitindo que múltiplos dados sejam processados com uma única instrução do processador. Entretanto, a extensão Neon no processador Cortex-A8 não suporta operações em ponto-flutuante, tendo o método sido cuidadosamente implementado de forma a superar essa limitação. Por fim, alguns resultados sobre o método aqui proposto e método SIFT original são apresentados, incluindo seu desempenho em tempo de execução e repetibilidade de pontos de interesse detectados. Com uma implementação direta (sem o uso da plataforma SIMD), é mostrado que o método aqui apresentado necessita de aproximadamente 1/4 do tempo necessário para construir a pirâmide do método SIFT original, ao mesmo tempo em que repete até 86% dos pontos de interesse. Com uma abordagem completamente implementada em ponto-fixo (incluindo a vetorização com a plataforma SIMD) a repetibilidade chega a 92% dos pontos de interesse do método SIFT original, porém, reduzindo o tempo de processamento para menos de 3%. / Interest point detectors, or keypoint detectors, have been of great interest for embedded robot vision for a long time, especially those which provide robustness against geometrical variations, such as rotation, affine transformations and changes in scale. The detection of scale invariant features is normally done by constructing multi-scale image pyramids and performing an exhaustive search for extrema in the scale space, an approach that is present in object recognition methods such as SIFT and SURF. These methods are able to find very robust interest points with suitable properties for object recognition, but at the same time are computationally expensive. In this work we present an efficient method for the construction of SIFT-like image pyramids in embedded systems such as the BeagleBoard-xM. The method we present here aims at using computationally less expensive techniques and reusing already processed information in an efficient manner in order to reduce the overall computational complexity. To simplify the pyramid building process we use binomial filters instead of conventional Gaussian filters used in the original SIFT method to calculate multiple scales of an image. Binomial filters have the advantage of being able to be implemented by using fixed-point notation, which is a big advantage for many embedded systems that do not provide native floating-point support. We also reduce the amount of convolution operations needed by resampling already processed scales of the pyramid. After presenting our efficient pyramid construction method, we show how to implement it in an efficient manner in an SIMD (Single Instruction, Multiple Data) platform -- the SIMD platform we use is the ARM Neon extension available in the BeagleBoard-xM ARM Cortex-A8 processor. SIMD platforms in general are very useful for multimedia applications, where normally it is necessary to perform the same operation over several elements, such as pixels in images, enabling multiple data to be processed with a single instruction of the processor. However, the Neon extension in the Cortex-A8 processor does not support floating-point operations, so the whole method was carefully implemented to overcome this limitation. Finally, we provide some comparison results regarding the method we propose here and the original SIFT approach, including performance regarding execution time and repeatability of detected keypoints. With a straightforward implementation (without the use of the SIMD platform), we show that our method takes approximately 1/4 of the time taken to build the entire original SIFT pyramid, while repeating up to 86% of the interest points found with the original method. With a complete fixed-point approach (including vectorization within the SIMD platform) we show that repeatability reaches up to 92% of the original SIFT keypoints while reducing the processing time to less than 3%.
60

Are you experienced? Contributions towards experience recognition, cognition, and decision making

Chada, Daniel de Magalhães 08 December 2016 (has links)
Submitted by Daniel Chada (danielc2112@gmail.com) on 2017-01-10T13:25:02Z No. of bitstreams: 1 chada.phd.2017.01.09.pdf: 5177057 bytes, checksum: a6174d9f2ba0b373776e750def2a23aa (MD5) / Approved for entry into archive by ÁUREA CORRÊA DA FONSECA CORRÊA DA FONSECA (aurea.fonseca@fgv.br) on 2017-01-12T14:03:51Z (GMT) No. of bitstreams: 1 chada.phd.2017.01.09.pdf: 5177057 bytes, checksum: a6174d9f2ba0b373776e750def2a23aa (MD5) / Made available in DSpace on 2017-01-23T11:48:10Z (GMT). No. of bitstreams: 1 chada.phd.2017.01.09.pdf: 5177057 bytes, checksum: a6174d9f2ba0b373776e750def2a23aa (MD5) Previous issue date: 2016-12-08 / Este trabalho consiste em três contribuições independentes do âmbito da modelagem cognitiva ao campo de management science. O primeiro aborda Experience Recognition, uma teoria inicialmente introduzida por Linhares e Freitas [91]. Aqui ela é estendida e delineada, além de se discutir suas contribuições para a ciência cognitiva e management science. A segunda contribuição introduz a framework cognitiva chamada Rotational Sparse Distributed Memory, e fornece uma aplicação-exemplo de suas características como substrato para um fortemente relevante campo da management science: redes semânticas. A contribuição final aplica Rotational Sparse Distributed Memory para a modelagem de motifs de rede, flexibilidade dinâmica e organização hierárquica, três resultados de forte impacto na literatura recente de neurociência. A relevância de uma abordagem baseada na modelagem neurocientífica para a decision science é discutida. / This work is comprised of three independent contributions from the realm of cognitive modeling to management science. The first addresses Experience Recognition, a theory first introduced by Linhares and Freitas [91]. Here it is extended and better defined, and also its contribution to cognitive science and management science are discussed. The second contribution introduces a cognitive framework called Rotational Sparse Distributed Memory, and provides a sample application of its characteristics as a substrate for a highly relevant subject in management science: semantic networks. The final contribution applies Rotational Sparse Distributed Memory to modeling network motifs, dynamic flexibility and hierarchical organization, all highly impactful results in recent neuroscience literature. The relevance of a neuroscientific modeling approach towards a cognitive view of decision science are discussed.

Page generated in 0.113 seconds