Made available in DSpace on 2016-06-02T19:05:30Z (GMT). No. of bitstreams: 1
1899.pdf: 6848122 bytes, checksum: 73de4f19b5358e6ac6d95ad0e75e7ea1 (MD5)
Previous issue date: 2007-08-30 / Financiadora de Estudos e Projetos / This work presents an implementation of the Neocognitron Neural Network, using a high performance computing architecture based on GPU (Graphics Processing Unit). Neocognitron is an artificial neural network, proposed by Fukushima and collaborators, constituted of several hierarchical stages of neuron layers, organized in two-dimensional matrices called cellular plains. For the high performance computation of Face Recognition application using Neocognitron it was used CUDA (Compute Unified Device Architecture) as API (Application Programming Interface) between the CPU and the GPU, from GeForce 8800 GTX of NVIDIA company, with 128 ALU s. As face image databases it was used a face database created at UFSCar, and the CMU-PIE (Carnegie Melon University - Pose, Illumination, and Expression) database. The load balancing through the parallel processing architecture was obtained by means of the distributed processing of the cellular connections as threads organized in blocks, following the CUDA philosophy of development. The results showed the viability of this type of device as a massively parallel data processing tool, and that smaller the granularity of the parallel processing, and the independence of the processing, better is its performance. / Neste trabalho é apresentada a implementação da Rede Neural Neocognitron, usando uma arquitetura de computação de alto desempenho baseada em GPU (Graphics Processing Unit). O Neocognitron é uma rede neural artificial, proposta por Fukushima e colaboradores, constituída de vários estágios de camadas de neurônios, organizados em matrizes bidimensionais denominadas planos celulares. Para o processamento de alto desempenho da aplicação de reconhecimento facial usando neocognitron foi utilizado o CUDA (Compute Unified Device Architecture) como API (Application Programming Interface) entre o CPU e o GPU, da GeForce 8800 GTX da empresa NVIDIA, com 128 ALU s. Como repositórios de imagens faciais foram utilizados imagens faciais desenvolvido na UFSCar e o banco da Universidade de Carnegie Melon, CMU-PIE. O balanceamento de carga na arquitetura de processamento paralelo foi obtido considerando o processamento de uma conexão de neurônio como um thread, e um conjunto de threads, como um bloco, segundo a filosofia de desenvolvimento dentro deste ambiente. Os resultados mostraram a viabilidade do uso deste tipo de dispositivo como ferramenta de processamento de dados maciçamente paralelo e que quanto menor a granularidade da paralelização e a independência dos processamentos, melhor é seu desempenho.
Identifer | oai:union.ndltd.org:IBICT/oai:repositorio.ufscar.br:ufscar/378 |
Date | 30 August 2007 |
Creators | Silva, Gustavo Poli Lameirão da |
Contributors | Saito, José Hiroki |
Publisher | Universidade Federal de São Carlos, Programa de Pós-graduação em Ciência da Computação, UFSCar, BR |
Source Sets | IBICT Brazilian ETDs |
Language | Portuguese |
Detected Language | English |
Type | info:eu-repo/semantics/publishedVersion, info:eu-repo/semantics/masterThesis |
Format | application/pdf |
Source | reponame:Repositório Institucional da UFSCAR, instname:Universidade Federal de São Carlos, instacron:UFSCAR |
Rights | info:eu-repo/semantics/openAccess |
Page generated in 0.0018 seconds