Spelling suggestions: "subject:"reconhecimento dde padrões"" "subject:"reconhecimento dde ladrões""
321 |
Classificação de amostras de imagens geo-referenciadas para correção geométrica de imagens dos satélites CBERSEmiliano Ferreira Castejon 04 July 2011 (has links)
A série de satélites CBERS é o resultado da cooperação entre o Brasil e China. As imagens CBERS são distribuídas gratuitamente mas para que seja possível utilizá-las, é necessário aplicar um método de correção geométrica de forma manual ou assistida. Somente após a correção existe correspondência entre as posições de pontos das imagens e as posições dos respectivos objetos na superfície da Terra. A partir de um método automático de correção, que usa como referência amostras de imagens previamente corrigidas, é proposta uma forma de aperfeiçoamento pela seleção automática das amostras de referência. São usadas técnicas de classificação e diferentes conjuntos de atributos radiométricos extraídos das imagens. Pelo estudo do comportamento de diferentes modelos de classificação foi possível definir qual o modelo que seleciona de forma ótima as melhores amostras. Para demonstrar a eficácia e o ganho de desempenho o método de correção proposto é aplicado em um conjunto de imagens CBERS usando as amostras de imagens selecionadas automaticamente.
|
322 |
Wavelet-based techniques for adaptive feature extraction and pattern recognition.Roberto Kawakami Harrop Galvão 00 December 1999 (has links)
In this work, wavelet-based techniques are studxied for adaptive feature extraction in the time-frequency plane. Emphasis is placed on pattern recognition problems, in particular fault detection in control systems and classification / clustering electrocardiographic signals. In the context of fault detection, a technique for residue generation using wavelet filter banks is introduced. Numerical simulations show that the proposed method exhibits good noise rejection characteristics and robustness to transient inputs, either from commands or unmeasured exogenous disturbances. Results are compared to those obtained by a standard observer-based technique. Classification of electrocardiographic patterns is performed with a wavelet neural network, which employs an adaptive wavelet layer as a pre-processing stage to a perceptron classifier. Basic concepts involved, as well as aspects of training and initialization are discussed. Two modifications to the basic supervised training algorithm are proposed, namely the introduction of a bias component in the wavelets and the adoption of a weight decay policy. Results are interpreted with basis on the concept of superposition wavelets. A competitive wavelet network, inspired in Kohonen lavers, is proposed for means of pattern clustering. It was verified that this paradigm has some advantages over the conventional neural layers when patterns to be analyzed have a low signal to noise ratio. A hierarchical, multiresolutional procedure for performing clustering is also presented. Classification / clustering tests are carried out on signals taken from the MIT-BIH Arrhythmia Database.
|
323 |
RAPID: uma metodologia para a recuperação, armazenamento e reconhecimento de padrões em imagens digitalizadas.Marco Antonio Pizani Domiciano 00 December 2003 (has links)
Este trabalho trata do importante problema relacionado com o armazenamento, a recuperação e o reconhecimento de padrões em imagens digitalizadas no âmbito do Ministério da Defesa, mais especificamente no Comando da Aeronáutica - COMAER. Ele mostra a falta de uma sistemática padronizada no COMAER capaz de propiciar processamento apropriado de imagens digitalizadas tornando os sistemas existentes ineficientes. Uma metodologia foi desenvolvida para melhorar a eficiência dos sistemas existentes, facilitar o trabalho dos fotointérpretes, aumentar a precisão das informações armazenadas e recuperadas e reduzir o desperdício de recursos envolvidos. Esta metodologia pode servir como guia para implementação de um Aplicativo de Banco de Dados que atenda aos requisitos dos usuários e também às Normas e Procedimentos diários. Aplicou-se a metodologia de orientação a objeto para o desenvolvimento do protótipo de validação, utilizou-se da Metodologia OMT adaptada ao padrão UML para uma rápida e precisa modelagem do sistema, utilizando-se de ferramentas CASE e propiciando um desenvolvimento mais rápido. Esta estratégia adotada tornou possível a geração dos diagramas e documentação necessários de forma automática, utilizando-se de Ambientes de Programação que proporcionaram flexibilidade e agilidade no desenvolvimento. Em conseqüência disso pôde-se aproveitar melhor o tempo durante o processo de implementação.
|
324 |
Previsão de séries temporais usando modelos de composição de especialistas locais.Brício de Melo 00 December 2003 (has links)
Este trabalho aborda a técnica de Composição de Especialistas Locais (CEL), que pode ser vista como uma técnica que realiza análise exploratória de dados e modelagem matemática simultaneamente. A técnica CEL pode ser aplicada para resolver problemas de previsão de séries temporais e reconhecimento de padrões. Dado um conjunto de pontos de dados de treinamento formados pelos pares (x, y) (x = entrada, y = saída), a idéia básica é a seguinte: 1) Primeiramente, considerando apenas a parte da entrada do conjunto de treinamento (x), uma rede neural de Kohonen é usada para dividir os dados em agrupamentos não-sobrepostos de pontos, 2) Várias técnicas de modelagens são então usadas para construir modelos concorrentes para cada agrupamento e considerando apenas os pares (x,y) daquele agrupamento, 3) O melhor modelo para cada agrupamento é selecionado e denominado de Modelo de Especialista Local. A Saída de todos os Modelos de Especialistas Locais são linearmente combinados pela Rede Supervisora que considera: 1) A distância dos pontos de dados x ao centro do agrupamento de dados usados para gerar o Modelo de cada Especialista Local, 2) A abrangência da região do espaço de entrada tomado por cada agrupamento de pontos de dados de treinamento. As seguintes técnicas de modelagem são utilizadas neste trabalho: Redes Neurais Artificiais (RNA), Análises de Regressão Múltipla (ARM) e Cópia Carbono (CC). Para comparação, o desempenho destas técnicas de modelagem são também avaliados quando usadas para construir modelos para todo o conjunto de dados de treinamento, isto é, sem usar qualquer técnica de agrupamento. Neste caso, os modelos são denominados de Modelos de Especialistas Globais. A técnica CEL é testada em experimentos computacionais usando as seguintes séries temporais que estão publicamente disponíveis na Internet: 1) A "Laser Data", assim chamada uma série temporal gerada num experimento de laboratório de física e usada em 1991 na Competição e Análises de Predição de Séries Temporais do Instituto Santa Fé, 2) Séries temporais de preços mensais e diários do açúcar (contrato 14) na Câmara de Comércio de Nova York (do inglês, New York Board Trade - NYBOT)
|
325 |
Reconhecimento automático de expressões faciais gramaticais na língua brasileira de sinais / Automatic recognition of Grammatical Facial Expressions from Brazilian Sign Language (Libras)Freitas, Fernando de Almeida 16 March 2015 (has links)
O Reconhecimento das Expressões Faciais tem atraído bastante a atenção dos pesquisadores nas últimas décadas, principalmente devido às suas ponteciais aplicações. Nas Línguas de Sinais, por serem línguas de modalidade visual-espacial e não contarem com o suporte sonoro da entonação, as Expressões Faciais ganham uma importância ainda maior, pois colaboram também para formar a estrutura gramatical da língua. Tais expressões são chamadas Expressões Faciais Gramaticais e estão presentes nos níveis morfológico e sintático das Línguas de Sinais, elas ganham destaque no processo de reconhecimento automático das Línguas de Sinais, pois colaboram para retirada de ambiguidades entre sinais que possuem parâmetros semelhantes, como configuração de mãos e ponto de articulação, além de colaborarem na composição do sentido semântico das sentenças. Assim, este projeto de pesquisa em nível de mestrado tem por objetivo desenvolver um conjunto de modelos de reconhecimento de padrões capazes de resolver o problema de intepretação automática de Expressões Faciais Gramaticais, usadas no contexto da Língua de Sinais Brasileira (Libras), considerando-as em Nível Sintático. / The facial expression recognition has attracted most of the researchers attention over the last years, because of that it can be very useful in many applications. The Sign Language is a spatio-visual language and it does not have the speech intonation support, so Facial Expression gain relative importance to convey grammatical information in a signed sentence and they contributed to morphological and/or syntactic level to a Sign Language. Those expressions are called Grammatical Facial Expression and they cooperate to solve the ambiguity between signs and give meaning to sentences. Thus, this research project aims to develop models that make possible to recognize automatically Grammatical Facial Expressions from Brazilian Sign Language (Libras)
|
326 |
Um sistema híbrido inteligente para previsão de posição de átomos de hidrogênio em proteínas / A hybrid intelligent system for prediction of position of the hydrogen atoms in proteinsMancini, Adauto Luiz 29 April 2008 (has links)
Os métodos existentes para a previsão da posição de átomos de hidrogênio em proteínas são todos baseados na simulação computacional de modelos construídos a partir de características físicas e (ou) químicas das moléculas. A abordagem proposta neste trabalho faz uso de técnicas inteligentes para a predição da posição de átomos de hidrogênio contidos em grupos hidroxilas (OH) pertencentes à cadeias laterais dos aminoácidos serina, treonina e tirosina. Estas técnicas inteligentes são utilizadas em duas fases para a solução do problema proposto: o preprocessamento dos dados e a predição da posição do átomo de hidrogênio. Na fase de preprocessamento, informações sobre os padrões de ligações hidrogênio existentes em moléculas de proteínas são extraídas da base PDB (Protein Data Bank) e reunidas em agrupamentos. A base de dados PDB é a principal base internacional que disponibiliza publicamente a estrutura espacial de biomoléculas, principalmente proteínas e ácidos nucléicos, cujas estruturas espacias foram determinadas através de métodos experimentais. Os padrões de ligações hidrogênio obtidos da base de dados são agrupados por similaridade através de um novo algoritimo proposto, o algoritmo de agrupamento por fusão. Este novo algoritmo de agrupamento foi criado com o propósito de tratar dados com distribuição não uniforme, isolando padrões de entrada muito diferentes da média em agrupamento separados. Após o agrupamento, os padrões de ligações hidrogênio contidos em um grupo têm suas estruturas espaciais superpostas (alinhamento das geometrias dos padrões) através de operações espaciais de translação e rotações, coordenadas pelo uso de um algoritmo genético. Na fase de predição, os padrões já superpostos contidos em cada agrupamento gerado, são utilizados para o treinamento de uma rede neural de arquitetura MLP (multi layer perceptron) para a predição da posição do átomo de hidrogênio contido no padrão. Uma parte dos padrões contidos no agrupamento não são usados para o treinamento da rede e reservados para o teste da capacidade da rede neural inferir a posição do hidrogênio após o treinamento. Para cada agrupamento é treinada uma rede individual, de forma que os parâmetros livres da rede neural sejam calibrados para os dados específicos do agrupamento para o qual a rede neural foi treinada. Após diversas alterações de metodogia ao longo dos experimentos computacionais realizados, a nova abordagem proposta mostrouse eficaz, com um bom índice de acerto na predição da posição do hidrogênio após o treino da rede neural, para padrões de ligações hidrogênio previamente superpostos em agrupamentos / The existing methods for the prediction of the position of hydrogen atoms in proteins are all based on computer simulation models constructed from physical and(or) chemical properties of molecules. The approach proposed in this paper makes use of intelligent techniques for clustering the patterns of hydrogen bonds by similarity, these patterns extracted from the spatial structure of protein molecules, recorded in the files of the PDB (Protein Data Bank). A new algorithm, which allows clustering of data with nonuniform distribution was developed for this purpose. To align spatialy these patterns already grouped in a cluster is used a genetic algorithm that rotates the patterns each other in a way to obtain the aligment of them. The prediction of the position of atoms of hydrogen is done by the training of a MLP (multi layer perceptron) neural network that uses as input the data of the patterns of hydrogen bond contained in a given cluster, previously aligned. The new approach proved to be effective, with a good rate of success in the prediction of the position of hydrogen atoms contained in a cluster after training the neural network
|
327 |
Metodologias para desenvolvimento de mapas auto-organizáveis de Kohonen executados em FPGA. / Methodology for the development of Kohonen\'s self-organizing maps implemented in FPGA.Sousa, Miguel Angelo de Abreu de 21 May 2018 (has links)
Dentro do cenário de projeto de circuitos elétricos orientados para o processamento de redes neurais artificiais, este trabalho se concentra no estudo da implementação de Mapas Auto-organizáveis (SOM, do inglês, Self-Organizing Maps) em chips FPGA. A pesquisa aqui realizada busca, fundamentalmente, responder à seguinte pergunta: como devem ser projetadas as arquiteturas computacionais de cada etapa de processamento do SOM para serem adequadamente executadas em FPGA? De forma mais detalhada, o trabalho investiga as possibilidades que diferentes circuitos de computação do SOM oferecem em relação à velocidade de processamento, ao consumo de recursos do FPGA e à consistência com o formalismo teórico que fundamenta esse modelo de rede neural. Tal objetivo de pesquisa é motivado por possibilitar o desenvolvimento de sistemas de processamento neural que exibam as características positivas típicas de implementações diretas em hardware, como o processamento embarcado e a aceleração computacional. CONTRIBUIÇÕES PRINCIPAIS No decorrer da investigação de tais questões, o presente trabalho gerou contribuições com diferentes graus de impacto. A contribuição mais essencial do ponto de vista de estruturação do restante da pesquisa é a fundamentação teórica das propriedades de computação do SOM em hardware. Tal fundamentação é importante pois permitiu a construção dos alicerces necessários para o estudo das diferentes arquiteturas de circuitos exploradas neste trabalho, de forma que estas permanecessem consistentes com as premissas teóricas que certificam o modelo de computação neural estudado. Outra contribuição avaliada como de grande impacto, e que se consolida como um objeto gerado pela pesquisa, é a proposta de um circuito processador para SOM em FPGA que possui o estado-da-arte em velocidade de computação, medido em CUPS (Connections Updated Per Second). Tal processador permite atingir 52,67 GCUPS, durante a fase de treinamento do SOM, um ganho de aproximadamente 100% em relação aos trabalhos publicados na literatura. A aceleração possibilitada pela exploração de processamentos paralelos em FPGA, desenvolvida neste trabalho, é de três a quatro ordens de grandeza em relação a execuções em software do SOM com a mesma configuração. A última contribuição considerada como de grande impacto é a caracterização da execução do SOM em FPGA. Tal avaliação se faz necessária porque os processos de computação dos modelos neurais em hardware, embora semelhantes, não são necessariamente idênticos aos mesmos processos executados em software. Desta forma, a contribuição deste ponto de pesquisa pode ser entendida como a análise do impacto das mudanças implementadas na computação do SOM em FPGA em relação à execução tradicional do algoritmo, feita pela avaliação dos resultados produzidos pela rede neural por medidas de erros topográficos e de quantização. Este trabalho também gerou contribuições consideradas como de médio impacto, que podem ser divididas em dois grupos: aplicações práticas e aportes teóricos. A primeira contribuição de origem prática é a investigação de trabalhos publicados na literatura envolvendo SOM cujas aplicações podem ser viabilizadas por implementações em hardware. Os trabalhos localizados nesse levantamento foram organizados em diferentes categorias, conforme a área de pesquisa - como, por exemplo, Indústria, Robótica e Medicina - e, em geral, eles utilizam o SOM em aplicações que possuem requisitos de velocidade computacional ou embarque do processamento, portanto, a continuidade de seus desenvolvimentos é beneficiada pela execução direta em hardware. As outras duas contribuições de médio impacto de origem prática são as aplicações que serviram como plataforma de teste dos circuitos desenvolvidos para a implementação do SOM. A primeira aplicação pertence à área de telecomunicações e objetiva a identificação de símbolos transmitidos por 16-QAM ou 64-QAM. Estas duas técnicas de modulação são empregadas em diversas aplicações com requisitos de mobilidade - como telefonia celular, TV digital em dispositivos portáteis e Wi-Fi - e o SOM é utilizado para identificar sinais QAM recepcionados com ruídos e distorções. Esta aplicação gerou a publicação de um artigo na revista da Springer, Neural Computing and Applications: Sousa; Pires e Del-Moral-Hernandez (2017). A segunda aplicação pertence à área de processamento de imagem e visa reconhecer ações humanas capturadas por câmeras de vídeo. O processamento autônomo de imagens executado por chips FPGA junto às câmeras de vídeo pode ser empregado em diferentes utilizações, como, por exemplo, sistemas de vigilância automática ou assistência remota em locais públicos. Esta segunda aplicação também é caracterizada por demandar arquiteturas computacionais de alto desempenho. Todas as contribuições teóricas deste trabalho avaliadas como de médio impacto estão relacionadas ao estudo das características de arquiteturas de hardware para computação do modelo SOM. A primeira destas é a proposta de uma função de vizinhança do SOM baseada em FPGA. O objetivo de tal proposta é desenvolver uma expressão computacional para ser executada no chip que constitua uma alternativa eficiente tanto à função gaussiana, tradicionalmente empregada no processo de treinamento do SOM, quanto à função retangular, utilizada de forma rudimentar nas primeiras pesquisas publicadas sobre a implementação do SOM em FPGA. A segunda destas contribuições é a descrição detalhada dos componentes básicos e dos blocos computacionais utilizados nas diferentes etapas de execução do SOM em FPGA. A apresentação dos detalhes da arquitetura de processamento, incluindo seus circuitos internos e a função computada por cada um de seus blocos, permite que trabalhos futuros utilizem os desenvolvimentos realizados nesta pesquisa. Esta descrição detalhada e funcional foi aceita para publicação no IEEE World Congress on Computational Intelligence (WCCI 2018): Sousa et al. (2018). A terceira contribuição teórica de médio impacto é a elaboração de um modelo distribuído de execução do SOM em FPGA sem o uso de uma unidade central de controle. Tal modelo permite a execução das fases de aprendizado e operação da rede neural em hardware de forma distribuída, a qual alcança um comportamento global de auto-organização dos neurônios apenas pela troca local de dados entre elementos de processamento vizinhos. A descrição do modelo distribuído, em conjunto com sua caracterização, está publicada em um artigo no International Joint Conference on Neural Networks do IEEE (IJCNN 2017): Sousa e Del-Moral-Hernandez (2017a). A última contribuição deste grupo de aporte teórico é a comparação entre diferentes modelos de execução do SOM em FPGA. A comparação tem a função de avaliar e contrastar três diferentes possibilidades de implementação do SOM: o modelo distribuído, o modelo centralizado e o modelo híbrido. Os testes realizados e os resultados obtidos estão publicados em um trabalho no International Symposium on Circuits and Systems do IEEE (ISCAS 2017): Sousa e Del-Moral-Hernandez (2017b). Finalmente, apresentam-se a seguir as contribuições avaliadas como de menor impacto, em comparação com as contribuições já descritas, ou ainda incipientes (e que possibilitam continuidades da pesquisa em trabalhos futuros), sendo relacionadas a seguir como contribuições complementares: * Pesquisa de literatura científica sobre o estado-da-arte da área da Engenharia de Sistemas Neurais Artificiais. * Identificação de grupos internacionais de pesquisa de execução do SOM em hardware, os quais foram reconhecidos por publicarem regularmente seus estudos sobre diferentes tipos de implementações e categorias de circuitos computacionais. * Enumeração das justificativas e motivações mais frequentes na literatura para o processamento de sistemas neurais de computação em hardware. * Comparação e contraste das características de microprocessadores, GPUs, FPGAs e ASICs (tais como, custo médio do componente, paralelismo computacional oferecido e consumo típico de energia) para contextualização do tipo de aplicações que a escolha pela pesquisa com o dispositivo FPGA possibilita. * Levantamento das propriedades de computação do SOM em hardware mais frequentemente utilizadas nas pesquisas publicadas na literatura, tais como, quantidade de bits usados nos cálculos, tipo de representação de dados e arquitetura típica dos circuitos de execução das diferentes etapas de processamento do SOM. * Comparação do consumo de área do FPGA e da velocidade de processamento entre a execução da função de vizinhança tradicional gaussiana e a função de vizinhança proposta neste trabalho (com resultados obtidos de aproximadamente 4 vezes menos área do chip e 5 vezes mais velocidade de operação). * Caracterização do aumento dos recursos consumidos no chip e da velocidade de operação do sistema, em relação à implementação do SOM com diferentes complexidades (quantidade de estágios decrescentes do fator de aprendizado e da abertura da função de vizinhança) e comparação destas propriedades da arquitetura proposta em relação aos valores publicados na literatura. * Proposta de uma nova métrica para caracterização do erro topográfico na configuração final do SOM após o treinamento. / In the context of design electrical circuits for processing artificial neural networks, this work focuses on the study of Self-Organizing Maps (SOM) executed on FPGA chips. The work attempts to answer the following question: how should the computational architecture be designed to efficiently implement in FPGA each one of the SOM processing steps? More specifically, this thesis investigates the distinct possibilities that different SOM computing architectures offer, regarding the processing speed, the consumption of FPGA resources and the consistency to the theory that underlies this neural network model. The motivation of the present work is enabling the development of neural processing systems that exhibit the positive features typically associate to hardware implementations, such as, embedded processing and computational acceleration. MAIN CONTRIBUITIONS In the course of the investigation, the present work generated contributions with different degrees of impact. The most essential contribution from the point of view of structuring the research process is the theoretical basis of the hardware-oriented SOM properties. This is important because it allowed the construction of the foundations for the study of different circuit architectures, so that the developments remained consistent with the theory that underpins the neural computing model. Another major contribution is the proposal of a processor circuit for implementing SOM in FPGA, which is the state-of-the-art in computational speed measured in CUPS (Connections Updated Per Second). This processor allows achieving 52.67 GCUPS, during the training phase of the SOM, which means a gain of 100%, approximately, in relation to other published works. The acceleration enabled by the FPGA parallel processing developed in this work reaches three to four orders of magnitude compared with software implementations of the SOM with the same configuration. The highlights made in the text indicate pieces of writing that synthesize the idea presented. The last main contribution of the work is the characterization of the FPGA-based SOM. This evaluation is important because, although similar, the computing processes of neural models in hardware are not necessarily identical to the same processes implemented in software. Hence, this contribution can be described as the analysis of the impact of the implemented changes, regarding the FPGA-based SOM compared to traditional algorithms. The comparison was performed evaluating the measures of topographic and quantization errors for the outputs produced by both implementations. This work also generated medium impact contributions, which can be divided into two groups: empirical and theoretical. The first empirical contribution is the survey of SOM applications which can be made possible by hardware implementations. The papers presented in this survey are classified according to their research area - such as Industry, Robotics and Medicine - and, in general, they use SOM in applications that require computational speed or embedded processing. Therefore, the continuity of their developments is benefited by direct hardware implementations of the neural network. The other two empirical contributions are the applications employed for testing the circuits developed. The first application is related to the reception of telecommunications signals and aims to identify 16-QAM and 64-QAM symbols. These two modulation techniques are used in a variety of applications with mobility requirements, such as cell phones, digital TV on portable devices and Wi-Fi. The SOM is used to identify QAM distorted signals received with noise. This research work was published in the Springer Journal on Neural Computing and Applications: Sousa; Pires e Del-Moral-Hernandez (2017). The second is an image processing application and it aims to recognize human actions captured by video cameras. Autonomous image processing performed by FPGA chips inside video cameras can be used in different scenarios, such as automatic surveillance systems or remote assistance in public areas. This second application is also characterized by demanding high performance from the computing architectures. All the theoretical contributions with medium impact are related to the study of the properties of hardware circuits for implementing the SOM model. The first of these is the proposal of an FPGA-based neighborhood function. The aim of the proposal is to develop a computational function to be implemented on chip that enables an efficient alternative to both: the Gaussian function (traditionally employed in the SOM training process) and the rectangular function (used rudimentary in the first published works on hardware-based SOMs). The second of those contributions is the detailed description of the basic components and blocks used to compute the different steps of the SOM algorithm in hardware. The description of the processing architecture includes its internal circuits and computed functions, allowing the future works to use the architecture proposed. This detailed and functional description was accepted for publication in the IEEE World Congress on Computational Intelligence (WCCI 2018): Sousa et al. (2018). The development of an FPGA distributed implementation model for the SOM composes the third of those contributions. Such a model allows an execution of the neural network learning and operational phases without the use of a central control unit. The proposal achieves a global self-organizing behavior only by using local data exchanges among the neighboring processing elements. The description and characterization of the distributed model are published in a paper in the IEEE International Joint Conference on Neural Networks (IJCNN 2017): Sousa e Del-Moral-Hernandez (2017a). The last contribution of this group is the comparison between different FPGA architectures for implementing the SOM. This comparison has the function of evaluating and contrasting three different SOM architectures: the distributed model, the centralized model and the hybrid model. The tests performed and the results obtained are published in an article in the IEEE International Symposium on Circuits and Systems (ISCAS 2017): Sousa e Del-Moral-Hernandez (2017b). Finally, the contributions assessed as having a minor impact, compared to contributions already described, or still incipient (and which allow the continuity of the research in possible future works), are presented as complementary contributions: * Research in the scientific literature on the state-of-the-art works in the field of Artificial Neural Systems Engineering. * Identification of the international research groups on hardware-based SOM, which were recognized for regularly publishing their studies on different types of implementations and categories of computational circuits. * Enumeration of the justifications and motivations often mentioned in works on hardware developments of neural computing systems. * Comparison and contrast of the characteristics of microprocessors, GPUs, FPGAs and ASICs (such as, average cost, parallelism and typical power consumption) to contextualize the type of applications enabled by the choice of FPGA as the target device. * Survey of literature for the most commonly hardware properties used for computing the SOM, such as the number of bits used in the calculations, the type of data representation and the typical architectures of the FPGA circuits. * Comparison of the FPGA resources consumption and processing speed between the execution of the traditional Gaussian neighborhood function and the proposed alternative neighborhood function (with obtained results of approximately 4 times less chip area and 5 times more computational speed). * Characterization of the increase in chip resources consumptions and the decrease in system speeds, according to the implementations of the SOM with different complexities (such as, the number of stages in learning factor and the width of the neighborhood function). Comparison of these properties between the proposed architecture and the works published in the literature. * Proposal of a new metric for the characterization of the topographic error in the final configuration of the SOM after the training phase.
|
328 |
Classificação de grupos utilizando informações de geometria e detecção de atividades intragrupoFranciscatto, Roberto 28 February 2008 (has links)
Made available in DSpace on 2015-03-05T13:59:43Z (GMT). No. of bitstreams: 0
Previous issue date: 28 / Hewlett-Packard Brasil Ltda / Este trabalho tem como principal objetivo propor um modelo para classificação automática(ou semi-automática) de grupos de pessoas utilizando informações de geometria e detecção da atividade intragrupo em sequências de vídeo. Para a classificação de grupos de pessoas, utiliza-se um algoritmo de acompanhamento de objetos para rastrear as posições das pessoas ao longo do tempo, e explora-se a relação entre essas pessoas e suas orientações para deteção e classificação de grupos com base em informações sociológicas
(proxemics, distâncias interpessoais, etc.). A geometria do grupo formado, assim como sua evolução ao longo do tempo, também são analisadas. Para a avaliação da atividade
intragrupo, a evolução das áreas dos blobs correspondentes a cada pessoa é avaliada, para detecção de movimentos de gesticulação em grupos estáticos. Como aplicações deste trabalho, pode-se mencionar a detecção e classificação automática de pequenos grupos em um shopping center, para que seja possível extrair padrões de comportament / The main goal of this work is to propose a model for an automatic (our semiautomatic) classification of groups using geometrical properties and for detecting intragroup
activity based on video sequences. For group classification, a tracking algorithm is applied to obtain the position of each person across time, and the relationships among these people and their orientation are used to detect and classify groups based on sociological information (proxemics, interpersonal distance, etc). The geometry of the group, as well as its temporal evolution, are used to provide additional information on the group. To detect intragroup activity, the temporal evolution of blob áreas related to tracked people is explored.
Regarding possible applications of this work, an example could be the detection and automatic classification of small groups in a shopping center, in order to extract behavior pattern according to this study
|
329 |
ESTABELECIMENTO DE UM PERFIL QUÍMICO PARA AMOSTRAS DE MAÇÃ A PARTIR DO SUCOVieira, Renato Giovanetti 29 July 2011 (has links)
Made available in DSpace on 2017-07-21T18:53:17Z (GMT). No. of bitstreams: 1
RenatoGiovanettiVieira.pdf: 2405514 bytes, checksum: 4c0b0fdb3b6fde03a233806b54422c4a (MD5)
Previous issue date: 2011-07-29 / The domestic market is represented by an apple production bivarietal, Fuji and Gala, accounting for more than 90% of the total result of the research to produce high quality fruit with low cost and favorable climate in Brazil. Evaluation of chemometric analysis performed on samples of juice during 20 years of these varieties also identified chemical profile pattern of Gala and Fuji. Other Brazilian commercial varieties were used to validate this pattern, with limits from 0.15 to 0.35 g/100 mL (malic acid), 9.00 to 15.00 g/100 mL (total reducing sugar) and 100 to 600 mg / L (phenolic compounds), which represent the tastes sour, sweet and bitter. But these limits are unsatisfactory to the fermented juice industry and, since the fruits are apples, table and those not categorized for this condition is then called industrial. Existing orchards in Brazil specifically have these varieties, but some apples on the market are similar, being tested to prove it. Among the 24 varieties tested, only five presented a profile similar to that proposed industrial levels of acidity and higher phenolic compounds, the remainder being classified as Brazilian trade. However, some research centers are evaluating the production of selections descendants of wild apples with higher acidity and phenolic compounds compared to the Gala and Fuji apples. With 24 selections descendants of these samples, generated from an experiment with the commercial variety rootstock Baroness and three wild varieties were compared with the limits of the profile of Gala and Fuji apples. In order to highlight the results and exploit them were made of principal components analysis (PCA) and hierarchical clustering (HCA) with Gala and Fuji. To validate these exploratory methods using SIMCA (Soft Independent Modeling of Class Analogy) and KNN (K-Nearest Neighbor) tried to predict which of these new classes were the selections that could fit into only Gala, only Fuji, Gala or Fuji or or Gala or Fuji. With the results obtained, was compared with the results of malic acid versus phenolic compounds versus the ratio (malic acid / total reducing sugar) versus phenolic compounds found in the literature. Among the 24 selections, 21 showed industrial profile. The industrial samples showed levels of phenolic compounds above 600 mg / L, malic acid and above 0.5 g/100 mL and 50% with total reducing sugar content above 14 g/100 mL. The remaining resembles the commercial standard, but with sizes and shapes unsuitable for table apples. With the improvement and creation of new varieties, specific to the industry, the production of noble apple products can add more value with higher returns. Through statistical analysis and chemometric data analysis of despectinized juice sample, it is possible to determine whether the raw material received by the processing industry should be destined for processing or fresh consumption, depending on the field of industry. / O mercado nacional de maçã é representado por uma produção bivarietal, Fuji e Gala, correspondendo por mais de 90% do total, consequência das pesquisas para produção de frutas de alta qualidade, com baixo custo e propícias para o clima brasileiro. A avaliação quimiométrica das análises realizadas em amostras de suco durante 20 anos dessas variedades possibilitou identificar o perfil químico padrão das maçãs Gala e Fuji. Utilizou-se outras variedades comerciais brasileiras para validar este padrão, tendo limites de 0,15 a 0,35 g/100 mL (ácido málico), de 9,00 a 15,00 g/100 mL (açúcar redutor total) e de 100 a 600 mg/L (compostos fenólicos), que representam os sabores ácido, doce e amargo. Porém estes limites são insatisfatórios para a indústria de sucos e fermentados, visto que as frutas são maçãs de mesa, e aquelas não categorizadas para esta condição são então denominadas industriais. Os atuais pomares no Brasil não possuem especificamente estas variedades, mas algumas maçãs disponíveis no mercado são similares, sendo testadas para comprovar isso. Dentre as 24 variedades testadas, somente cinco apresentaram perfil semelhante à proposta industrial com teores de acidez e compostos fenólicos mais elevados, sendo as demais enquadradas como comerciais brasileiras. Porém alguns centros de pesquisas estão avaliando a produção de seleções descendentes de maçãs silvestres com maior teor de acidez e compostos fenólicos comparadas às maçãs Gala e Fuji. Com 24 amostras dessas seleções descendentes, geradas a partir de um experimento com porta enxerto da variedade comercial Baronesa e três variedades silvestres, foram comparadas com os limites do perfil das maçãs Gala e Fuji. Com a finalidade de evidenciar os resultados e explorá-los foram feitas análises de Componentes Principais (PCA) e de Agrupamentos Hierárquicos (HCA) juntamente com Gala e Fuji. Para validar estes métodos exploratórios, utilizando SIMCA (Soft Independent Modeling of Class Analogy) e KNN (K-Nearest Neighbor), tentou predizer quais eram as classes dessas novas seleções que poderiam enquadrar-se em somente Gala, somente Fuji, Gala ou Fuji ou nem Gala nem Fuji. Com os resultados obtidos, foi feita a comparação com gráficos elaborados a partir de resultados de ácido málico versus compostos fenólicos e da razão (ácido málico/açúcar redutor total) versus compostos fenólicos, encontrados na literatura. Dentre as 24 seleções, 21 apresentaram perfil industrial. As amostras industriais apresentaram níveis de compostos fenólicos acima de 600 mg/L e ácido málico acima de 0,5 g/100 mL e 50% com teores de açúcar redutor total acima de 14 g/100 mL. As restantes assemelham-se ao padrão comercial, porém com tamanhos e formatos inadequados para maçãs de mesa. Com o melhoramento e criação de novas variedades, específicas para a indústria, a produção de produtos nobres da maçã pode agregar mais valor com rendimento maior. Por meio de análises estatísticas e quimiométricas de dados das análises de amostras de suco despectinizado, é possível determinar se a matéria-prima recebida pela indústria de processamento deve ser destinada para processamento ou para consumo in natura, dependendo da área de atuação da indústria.
|
330 |
Método para classificação de café em grãos por imagens digitais pelo uso de atributos selecionados de morfologia, cor e textura / Method for coffee beans classification through digital images using selected morphological, colour and textural attributesPedro Ivo de Castro Oyama 31 July 2014 (has links)
A análise da qualidade de grãos é um dos gargalos encontrados na cadeia produtiva do setor cafeeiro, tendo em vista que atualmente é feita de forma manual. Buscando uma solução para o problema, este trabalho apresenta um método baseado em visão computacional e redes neurais artificiais para identificar vinte e uma classes de grãos de café em amostras. No total, 421 atributos de três diferentes naturezas- morfologia, cor e textura- foram reunidos para compor o conjunto de características utilizado pela rede neural. Os atributos morfológicos são: Descritores de Fourier, Descritores Genéricos de Fourier, Momentos de Zernike, elementos do Modelo Autorregressivo e um conjunto de atributos diversos. Após avaliar duas abordagens para os atributos de cor- histogramas de frequências de cor e atributos estatísticos desses histogramas- a segunda foi escolhida e, assim, os atributos de cor adotados foram: média, variância, obliquidade, energia, curtose, entropia e suavidade de histogramas globais de cor, calculados para os espaços de cor RGB, HSV, I1I2I3 e CIELAB. Visando um melhor desempenho, os descritores de Haralick foram modificados para que dois pixels de referência fossem utilizados no cálculo da matriz de coocorrência. A versão modificada dos descritores superou as originais, e assim, seus valores calculados com o espaço de cor I1I2I3 (aquele que apresentou melhor eficácia em testes) foram utilizados como atributos de textura. O conjunto de atributos foi arranjado em cinco subconjuntos, cada um contendo diferentes combinações das distintas naturezas de atributos e sendo associado a uma análise. Para cada subconjunto selecionaram-se os melhores elementos pelas técnicas chi-quadrado, ganho de informação e PCA (Principal Component Analysis). O resultado dessa seleção determinou as entradas para três processos classificatórios, que foram avaliados a fim de se determinar o mais efetivo. Após as avaliações, e sendo determinada a melhor configuração, o processo classificatório escolhido proporcionou a acurácia de 85,08%, superando trabalhos correlatos. / The quality asssessment of beans is one of the bottlenecks found in the production chain of the coffee industry, as nowadays it is done manually. Seeking a solution for the problem, this work presents a method based on computer vision with neural networks to identify twenty-one classes of coffee beans in samples. In total, 421 features of three different types- morphological, colour and textural- were gathered to compose the feature set used by the neural network. The morphological features were Fourier Descriptors, Generic Fourier Descriptors, Zernike Moments, elements from Autoregressive Model and a miscellaneous set. After evaluating two approaches of colour features- colour frequency histograms and statistics from those histograms- the latter was chosen and the colour features comprised the mean, variance, skewness, kurtosis, energy, entropy and smoothness of global histograms calculated for the channels of the RGB, HSV, I1I2I3 and CIELAB colour spaces. Seeking better performance the Haralick features were modified, so two pixels were used as reference in the computation of the Grey Level Co-occurrence Matrix. The modified versions of the features outperformed the original ones and their computations with the I1I2I3 colour space (the one that provided the best results in tests) were used as textural features. The feature set was then rearranged in five intersecting subsets, each one containing different combinations of the feature types and being associated with an analysis. For each subset the best elements were selected using the techniques PCA (Principal Component Analysis), chi-squared and information gain. The resulting selections were used to determine the inputs to three classification processes, which were evaluated in order to select the most effective. After all evaluations, and having determined the best configuration, the selected classification process yielded an overall accuracy of 85.08%, outperforming related works.
|
Page generated in 0.0771 seconds