• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 533
  • 48
  • 40
  • 40
  • 40
  • 25
  • 25
  • 25
  • 25
  • 25
  • 15
  • 6
  • Tagged with
  • 587
  • 587
  • 298
  • 282
  • 209
  • 180
  • 129
  • 120
  • 114
  • 100
  • 87
  • 84
  • 80
  • 80
  • 74
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
341

Padrões de pulsos e computação em redes neurais com dinâmica. / Spike patterns and computation in dynamical neural networks.

Humberto Rodrigo Sandmann 05 March 2012 (has links)
O processamento de sinais feito pelos sistemas neurais biológicos é altamente eficiente e complexo, por isso desperta grande atenção de pesquisa. Basicamente, todo o processamento de sinais funciona com base em redes de neurônios que emitem e recebem pulsos. Portanto, de forma geral, os estímulos recebidos do sistema sensorial por uma rede neural biológica de algum modo são convertidos em trens de pulsos. Aqui, nesta tese, é apresentada uma nova arquitetura composta por duas camadas: a primeira recebe correntes de estímulos de entrada e os mapeia em trens de pulsos; a segunda recebe esses trens de pulsos e os clássica em conjuntos de estímulos. Na primeira camada, a conversão de correntes de estímulos em trens de pulso é feita através de uma rede de neurônios osciladores acoplados por pulso. Esses neurônios possuem uma frequência natural de disparo e quando são agrupados em redes podem se coordenar para apresentar uma dinâmica global a longo prazo. Por sua vez, a dinâmica global também é sensível às correntes de entrada. Na segunda camada, a classificação dos trens de pulsos em conjuntos de estímulos é implementada por um neurônio do tipo integra-e-dispara. O comportamento típico para esse neurônio é de disparar ao menos uma vez para todas as integrações de trens de pulsos de uma determinada classe; caso contrário, ele deve car em silêncio. O processo de aprendizado da segunda camada depende do conhecimento do intervalo de tempo de repetição de um trem de pulsos. Portanto, nesta tese, são apresentadas métricas para definir tal intervalo de tempo, dando, assim, autonomia para a arquitetura. É possível concluir com base nos ensaios realizados que a arquitetura desenvolvida possui uma grande capacidade para mapeamento de correntes de entradas em trens de pulsos sem a necessidade de alterações na estrutura da arquitetura; também que a adição da dimensão tempo pela primeira camada ajuda na classificação realizada pela segunda. Assim, um novo modelo para realizar processos de codificação e decodificação é apresentado, desenvolvido através de séries de ensaios computacionais e caracterizado por medidas de sua dinâmica. / The signal processing done by the neural systems is highly efficient and complex, so that it attracts a large attention for research. Basically, all the signal processing functions are based on networks of neurons that send and receive spikes. Therefore, in general, the stimuli received from the sensory system by a biological neural network somehow are converted into spike trains. Here, in this thesis, we present a new architecture composed of two layers: the first layer receives streams of input stimuli and maps them on spike trains; the second layer receives these spike trains and classifies them in a sets of stimuli. In the first layer, the conversion of currents of stimuli on spike trains is made by a pulse-coupled neural network. Neurons in this context are like oscillators and have a natural frequency to shoot; when they are grouped into networks, they can be coordinated to present a global long-term dynamics. In turn, this global dynamics is also sensible to the input currents. In the second layer, the classification of spike trains in sets of stimuli is implemented by an integrate-and-re neuron. The typical behavior for this neuron is to shoot at least once every time that it receives a known spike train; otherwise, it should be in silence. The learning process of the second layer depends on the knowledge of the time interval of repetition of a spike train. Therefore, in this thesis, metrics are presented to define this time interval, thus giving autonomy to the architecture. It can be concluded on the basis of the tests developed that the architecture has a large capacity for mapping input currents on spike trains without requiring changes in its structure; moreover, the addition of the time dimension done by the first layer helps in the classification performed by the second layer. Thus, a new model to perform the encoding and decoding processes is presented, developed through a series of computational experiments and characterized by measurements of its dynamics.
342

Metodologias para desenvolvimento de mapas auto-organizáveis de Kohonen executados em FPGA. / Methodology for the development of Kohonen\'s self-organizing maps implemented in FPGA.

Miguel Angelo de Abreu de Sousa 21 May 2018 (has links)
Dentro do cenário de projeto de circuitos elétricos orientados para o processamento de redes neurais artificiais, este trabalho se concentra no estudo da implementação de Mapas Auto-organizáveis (SOM, do inglês, Self-Organizing Maps) em chips FPGA. A pesquisa aqui realizada busca, fundamentalmente, responder à seguinte pergunta: como devem ser projetadas as arquiteturas computacionais de cada etapa de processamento do SOM para serem adequadamente executadas em FPGA? De forma mais detalhada, o trabalho investiga as possibilidades que diferentes circuitos de computação do SOM oferecem em relação à velocidade de processamento, ao consumo de recursos do FPGA e à consistência com o formalismo teórico que fundamenta esse modelo de rede neural. Tal objetivo de pesquisa é motivado por possibilitar o desenvolvimento de sistemas de processamento neural que exibam as características positivas típicas de implementações diretas em hardware, como o processamento embarcado e a aceleração computacional. CONTRIBUIÇÕES PRINCIPAIS No decorrer da investigação de tais questões, o presente trabalho gerou contribuições com diferentes graus de impacto. A contribuição mais essencial do ponto de vista de estruturação do restante da pesquisa é a fundamentação teórica das propriedades de computação do SOM em hardware. Tal fundamentação é importante pois permitiu a construção dos alicerces necessários para o estudo das diferentes arquiteturas de circuitos exploradas neste trabalho, de forma que estas permanecessem consistentes com as premissas teóricas que certificam o modelo de computação neural estudado. Outra contribuição avaliada como de grande impacto, e que se consolida como um objeto gerado pela pesquisa, é a proposta de um circuito processador para SOM em FPGA que possui o estado-da-arte em velocidade de computação, medido em CUPS (Connections Updated Per Second). Tal processador permite atingir 52,67 GCUPS, durante a fase de treinamento do SOM, um ganho de aproximadamente 100% em relação aos trabalhos publicados na literatura. A aceleração possibilitada pela exploração de processamentos paralelos em FPGA, desenvolvida neste trabalho, é de três a quatro ordens de grandeza em relação a execuções em software do SOM com a mesma configuração. A última contribuição considerada como de grande impacto é a caracterização da execução do SOM em FPGA. Tal avaliação se faz necessária porque os processos de computação dos modelos neurais em hardware, embora semelhantes, não são necessariamente idênticos aos mesmos processos executados em software. Desta forma, a contribuição deste ponto de pesquisa pode ser entendida como a análise do impacto das mudanças implementadas na computação do SOM em FPGA em relação à execução tradicional do algoritmo, feita pela avaliação dos resultados produzidos pela rede neural por medidas de erros topográficos e de quantização. Este trabalho também gerou contribuições consideradas como de médio impacto, que podem ser divididas em dois grupos: aplicações práticas e aportes teóricos. A primeira contribuição de origem prática é a investigação de trabalhos publicados na literatura envolvendo SOM cujas aplicações podem ser viabilizadas por implementações em hardware. Os trabalhos localizados nesse levantamento foram organizados em diferentes categorias, conforme a área de pesquisa - como, por exemplo, Indústria, Robótica e Medicina - e, em geral, eles utilizam o SOM em aplicações que possuem requisitos de velocidade computacional ou embarque do processamento, portanto, a continuidade de seus desenvolvimentos é beneficiada pela execução direta em hardware. As outras duas contribuições de médio impacto de origem prática são as aplicações que serviram como plataforma de teste dos circuitos desenvolvidos para a implementação do SOM. A primeira aplicação pertence à área de telecomunicações e objetiva a identificação de símbolos transmitidos por 16-QAM ou 64-QAM. Estas duas técnicas de modulação são empregadas em diversas aplicações com requisitos de mobilidade - como telefonia celular, TV digital em dispositivos portáteis e Wi-Fi - e o SOM é utilizado para identificar sinais QAM recepcionados com ruídos e distorções. Esta aplicação gerou a publicação de um artigo na revista da Springer, Neural Computing and Applications: Sousa; Pires e Del-Moral-Hernandez (2017). A segunda aplicação pertence à área de processamento de imagem e visa reconhecer ações humanas capturadas por câmeras de vídeo. O processamento autônomo de imagens executado por chips FPGA junto às câmeras de vídeo pode ser empregado em diferentes utilizações, como, por exemplo, sistemas de vigilância automática ou assistência remota em locais públicos. Esta segunda aplicação também é caracterizada por demandar arquiteturas computacionais de alto desempenho. Todas as contribuições teóricas deste trabalho avaliadas como de médio impacto estão relacionadas ao estudo das características de arquiteturas de hardware para computação do modelo SOM. A primeira destas é a proposta de uma função de vizinhança do SOM baseada em FPGA. O objetivo de tal proposta é desenvolver uma expressão computacional para ser executada no chip que constitua uma alternativa eficiente tanto à função gaussiana, tradicionalmente empregada no processo de treinamento do SOM, quanto à função retangular, utilizada de forma rudimentar nas primeiras pesquisas publicadas sobre a implementação do SOM em FPGA. A segunda destas contribuições é a descrição detalhada dos componentes básicos e dos blocos computacionais utilizados nas diferentes etapas de execução do SOM em FPGA. A apresentação dos detalhes da arquitetura de processamento, incluindo seus circuitos internos e a função computada por cada um de seus blocos, permite que trabalhos futuros utilizem os desenvolvimentos realizados nesta pesquisa. Esta descrição detalhada e funcional foi aceita para publicação no IEEE World Congress on Computational Intelligence (WCCI 2018): Sousa et al. (2018). A terceira contribuição teórica de médio impacto é a elaboração de um modelo distribuído de execução do SOM em FPGA sem o uso de uma unidade central de controle. Tal modelo permite a execução das fases de aprendizado e operação da rede neural em hardware de forma distribuída, a qual alcança um comportamento global de auto-organização dos neurônios apenas pela troca local de dados entre elementos de processamento vizinhos. A descrição do modelo distribuído, em conjunto com sua caracterização, está publicada em um artigo no International Joint Conference on Neural Networks do IEEE (IJCNN 2017): Sousa e Del-Moral-Hernandez (2017a). A última contribuição deste grupo de aporte teórico é a comparação entre diferentes modelos de execução do SOM em FPGA. A comparação tem a função de avaliar e contrastar três diferentes possibilidades de implementação do SOM: o modelo distribuído, o modelo centralizado e o modelo híbrido. Os testes realizados e os resultados obtidos estão publicados em um trabalho no International Symposium on Circuits and Systems do IEEE (ISCAS 2017): Sousa e Del-Moral-Hernandez (2017b). Finalmente, apresentam-se a seguir as contribuições avaliadas como de menor impacto, em comparação com as contribuições já descritas, ou ainda incipientes (e que possibilitam continuidades da pesquisa em trabalhos futuros), sendo relacionadas a seguir como contribuições complementares: * Pesquisa de literatura científica sobre o estado-da-arte da área da Engenharia de Sistemas Neurais Artificiais. * Identificação de grupos internacionais de pesquisa de execução do SOM em hardware, os quais foram reconhecidos por publicarem regularmente seus estudos sobre diferentes tipos de implementações e categorias de circuitos computacionais. * Enumeração das justificativas e motivações mais frequentes na literatura para o processamento de sistemas neurais de computação em hardware. * Comparação e contraste das características de microprocessadores, GPUs, FPGAs e ASICs (tais como, custo médio do componente, paralelismo computacional oferecido e consumo típico de energia) para contextualização do tipo de aplicações que a escolha pela pesquisa com o dispositivo FPGA possibilita. * Levantamento das propriedades de computação do SOM em hardware mais frequentemente utilizadas nas pesquisas publicadas na literatura, tais como, quantidade de bits usados nos cálculos, tipo de representação de dados e arquitetura típica dos circuitos de execução das diferentes etapas de processamento do SOM. * Comparação do consumo de área do FPGA e da velocidade de processamento entre a execução da função de vizinhança tradicional gaussiana e a função de vizinhança proposta neste trabalho (com resultados obtidos de aproximadamente 4 vezes menos área do chip e 5 vezes mais velocidade de operação). * Caracterização do aumento dos recursos consumidos no chip e da velocidade de operação do sistema, em relação à implementação do SOM com diferentes complexidades (quantidade de estágios decrescentes do fator de aprendizado e da abertura da função de vizinhança) e comparação destas propriedades da arquitetura proposta em relação aos valores publicados na literatura. * Proposta de uma nova métrica para caracterização do erro topográfico na configuração final do SOM após o treinamento. / In the context of design electrical circuits for processing artificial neural networks, this work focuses on the study of Self-Organizing Maps (SOM) executed on FPGA chips. The work attempts to answer the following question: how should the computational architecture be designed to efficiently implement in FPGA each one of the SOM processing steps? More specifically, this thesis investigates the distinct possibilities that different SOM computing architectures offer, regarding the processing speed, the consumption of FPGA resources and the consistency to the theory that underlies this neural network model. The motivation of the present work is enabling the development of neural processing systems that exhibit the positive features typically associate to hardware implementations, such as, embedded processing and computational acceleration. MAIN CONTRIBUITIONS In the course of the investigation, the present work generated contributions with different degrees of impact. The most essential contribution from the point of view of structuring the research process is the theoretical basis of the hardware-oriented SOM properties. This is important because it allowed the construction of the foundations for the study of different circuit architectures, so that the developments remained consistent with the theory that underpins the neural computing model. Another major contribution is the proposal of a processor circuit for implementing SOM in FPGA, which is the state-of-the-art in computational speed measured in CUPS (Connections Updated Per Second). This processor allows achieving 52.67 GCUPS, during the training phase of the SOM, which means a gain of 100%, approximately, in relation to other published works. The acceleration enabled by the FPGA parallel processing developed in this work reaches three to four orders of magnitude compared with software implementations of the SOM with the same configuration. The highlights made in the text indicate pieces of writing that synthesize the idea presented. The last main contribution of the work is the characterization of the FPGA-based SOM. This evaluation is important because, although similar, the computing processes of neural models in hardware are not necessarily identical to the same processes implemented in software. Hence, this contribution can be described as the analysis of the impact of the implemented changes, regarding the FPGA-based SOM compared to traditional algorithms. The comparison was performed evaluating the measures of topographic and quantization errors for the outputs produced by both implementations. This work also generated medium impact contributions, which can be divided into two groups: empirical and theoretical. The first empirical contribution is the survey of SOM applications which can be made possible by hardware implementations. The papers presented in this survey are classified according to their research area - such as Industry, Robotics and Medicine - and, in general, they use SOM in applications that require computational speed or embedded processing. Therefore, the continuity of their developments is benefited by direct hardware implementations of the neural network. The other two empirical contributions are the applications employed for testing the circuits developed. The first application is related to the reception of telecommunications signals and aims to identify 16-QAM and 64-QAM symbols. These two modulation techniques are used in a variety of applications with mobility requirements, such as cell phones, digital TV on portable devices and Wi-Fi. The SOM is used to identify QAM distorted signals received with noise. This research work was published in the Springer Journal on Neural Computing and Applications: Sousa; Pires e Del-Moral-Hernandez (2017). The second is an image processing application and it aims to recognize human actions captured by video cameras. Autonomous image processing performed by FPGA chips inside video cameras can be used in different scenarios, such as automatic surveillance systems or remote assistance in public areas. This second application is also characterized by demanding high performance from the computing architectures. All the theoretical contributions with medium impact are related to the study of the properties of hardware circuits for implementing the SOM model. The first of these is the proposal of an FPGA-based neighborhood function. The aim of the proposal is to develop a computational function to be implemented on chip that enables an efficient alternative to both: the Gaussian function (traditionally employed in the SOM training process) and the rectangular function (used rudimentary in the first published works on hardware-based SOMs). The second of those contributions is the detailed description of the basic components and blocks used to compute the different steps of the SOM algorithm in hardware. The description of the processing architecture includes its internal circuits and computed functions, allowing the future works to use the architecture proposed. This detailed and functional description was accepted for publication in the IEEE World Congress on Computational Intelligence (WCCI 2018): Sousa et al. (2018). The development of an FPGA distributed implementation model for the SOM composes the third of those contributions. Such a model allows an execution of the neural network learning and operational phases without the use of a central control unit. The proposal achieves a global self-organizing behavior only by using local data exchanges among the neighboring processing elements. The description and characterization of the distributed model are published in a paper in the IEEE International Joint Conference on Neural Networks (IJCNN 2017): Sousa e Del-Moral-Hernandez (2017a). The last contribution of this group is the comparison between different FPGA architectures for implementing the SOM. This comparison has the function of evaluating and contrasting three different SOM architectures: the distributed model, the centralized model and the hybrid model. The tests performed and the results obtained are published in an article in the IEEE International Symposium on Circuits and Systems (ISCAS 2017): Sousa e Del-Moral-Hernandez (2017b). Finally, the contributions assessed as having a minor impact, compared to contributions already described, or still incipient (and which allow the continuity of the research in possible future works), are presented as complementary contributions: * Research in the scientific literature on the state-of-the-art works in the field of Artificial Neural Systems Engineering. * Identification of the international research groups on hardware-based SOM, which were recognized for regularly publishing their studies on different types of implementations and categories of computational circuits. * Enumeration of the justifications and motivations often mentioned in works on hardware developments of neural computing systems. * Comparison and contrast of the characteristics of microprocessors, GPUs, FPGAs and ASICs (such as, average cost, parallelism and typical power consumption) to contextualize the type of applications enabled by the choice of FPGA as the target device. * Survey of literature for the most commonly hardware properties used for computing the SOM, such as the number of bits used in the calculations, the type of data representation and the typical architectures of the FPGA circuits. * Comparison of the FPGA resources consumption and processing speed between the execution of the traditional Gaussian neighborhood function and the proposed alternative neighborhood function (with obtained results of approximately 4 times less chip area and 5 times more computational speed). * Characterization of the increase in chip resources consumptions and the decrease in system speeds, according to the implementations of the SOM with different complexities (such as, the number of stages in learning factor and the width of the neighborhood function). Comparison of these properties between the proposed architecture and the works published in the literature. * Proposal of a new metric for the characterization of the topographic error in the final configuration of the SOM after the training phase.
343

Classificação de litofácies através da análise automática de perfis elétricos de poços de petróleo da Amazônia

Oliveira Júnior, Joacir Marques de 14 February 2014 (has links)
Submitted by Geyciane Santos (geyciane_thamires@hotmail.com) on 2015-06-18T15:17:30Z No. of bitstreams: 1 Dissertação - Joacir Marques de Oliveira Júnior.pdf: 5665291 bytes, checksum: 5db2b29d425ab1c0844713edba8edb09 (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2015-06-19T20:58:41Z (GMT) No. of bitstreams: 1 Dissertação - Joacir Marques de Oliveira Júnior.pdf: 5665291 bytes, checksum: 5db2b29d425ab1c0844713edba8edb09 (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2015-06-19T20:59:49Z (GMT) No. of bitstreams: 1 Dissertação - Joacir Marques de Oliveira Júnior.pdf: 5665291 bytes, checksum: 5db2b29d425ab1c0844713edba8edb09 (MD5) / Made available in DSpace on 2015-06-19T20:59:49Z (GMT). No. of bitstreams: 1 Dissertação - Joacir Marques de Oliveira Júnior.pdf: 5665291 bytes, checksum: 5db2b29d425ab1c0844713edba8edb09 (MD5) Previous issue date: 2014-02-14 / Among several steps which are necessary for the commercialization of oil, the analysis of well logs plays an important role to estimate the capacity of a well. Traditionally, this analysis is conducted in a semi-automated process which generates graphs of curves used by human experts to analyze and make the reservoir characterization. One goal of this analysis is to classify lithofacies. Lithofacies are lithological units(rocks) that characterize the environment and compositional aspects of the rocks. In order to characterize an oil reservoir, a set of classes of sedimentary rocks occur. This is which is the major reason for the classification of lithofacies. This master thesis investigates the use of automatic classification techniques applied to the problem of classification of lithofacies. The following five classification methods are investigated: Support Vector Machines, k-Nearest Neighbor, Multilayer Perceptron and Logistic Regression. The database investigated consists of samples from three oil wells of the same reservoir in the Amazon State. In addition, the performance of individual classifiers are compared to the combination of the same five classifiers through majority voting. Finally, we will verify whether or not individual classifiers, or ensemble of classifiers, may train using data obtained from one well and accurately classify data from other wells. In order to get these answers, we have run two series of experiments. First, we trained classifiers and test classifiers individually and combined within the same oil well. The obtained results show that Support Vector Machines achieved the best results in two of the three wells, while Multilayer Perceptron ouperformed the other methods in the third well. In the second series of experiments, we trained classifiers with data from a well and them with data from another well, simulating a situation closer to a real application, since we may use a manually classified database to train a classifier, or ensemble of classifiers, in orde to learn the pattern of the reservoir. Then, data from other wells of the same reservoir may be automatically classified. In this test, the ensemble of classifiers outperformed individual classifiers in 4 of the 6 possible combinations. In the two other combinations, the combination by majority vote was the second best. It is also worth saying that in average, ensemble of classifiers was the best option to classify lithofacies. Our results indicate that combining classifiers in a system of majority voting, shows a better performance and better stability of the results. / Dentro das várias etapas que são necessárias até o petróleo ser comercializado, a análise de perfis elétricos representa papel de grande importância para se estimar a capacidade produtiva de um poço. A análise hoje é semi-automatizada e ocorre da seguinte forma: geólogos especialistas analisam gráficos de curvas gerados por um sistema, para então, realizar a caracterização do reservatório com base nas análises. Um dos objetivos dessa análise é a classificação de litofácies. Litofácies são unidades litológicas (rochas) que caracterizam o ambiente de formação e aspectos composicionais das rochas. Para que se forme um reservatório de petróleo, um conjunto de tipos de rochas precisa estar presente, sendo este um dos principais motivos para a classificação de litofácies. Esta dissertação de mestrado investiga o uso de técnicas de classificação automática aplicadas ao problema de classificação de litofácies. Serão investigados os seguintes cinco métodos de classificação: Support Vector Machines, k Vizinhos Mais Próximos, Multilayer Perceptron e Regressão Logistica. A base de dados investigada é composta por amostras de perfis de três poços de uma reserva da Amazônia. Será ainda comparado o desempenho de classificadores individuais frente à combinação do mesmos através do voto majoritário. Por fim, iremos verificar se o treinamento de um poço pode ser aproveitado para outro por meio de classificadores individuais e combinados por voto majoritário. Para obter essas respostas, fizemos dois tipos de testes. No primeiro, treinamos e testamos os classificadores individualmente e combinados dentro do mesmo poço. Os resultados apresentados mostraram que Support Vector Machines foi superior em dois dos três poços, enquanto Multilayer Perceptron, superou os demais métodos no terceiro poço. No segundo tipo de testes, treinamos com dados de um poço e testamos com dados de outro poço, simulando uma situação mais próxima do problema real que seria de calibrar os classificadores de uma reserva com um poço pioneiro e a partir daí replicar nos poços vizinhos. Nestes testes, a combinação de classificadores se mostrou a melhor solução em 4 das 6 combinações possíveis. Nas duas demais combinações, a combinação por voto majoritário alcançou o segundo melhor resultado. Vale dizer ainda que na média simples o sistema de votação majoritário, foi a melhor opção para classificar as litofácies. Nossos resultados indicam que combinar classificadores em um sistema de votação majoritário apresenta desempenho superior ao uso de classificadores individuais, além de apresentar maior estabilidade.
344

Técnicas de seleção de características com aplicações em reconhecimento de faces. / Feature selection techniques with applications to face recognition.

Teófilo Emídio de Campos 25 May 2001 (has links)
O reconhecimento de faces é uma área de pesquisa desafiadora que abre portas para a implementação de aplicações muito promissoras. Embora muitos algoritmos eficientes e robustos já tenham sido propostos, ainda restam vários desafios. Dentre os principais obstáculos a serem uperados, está a obtenção de uma representação robusta e compacta de faces que possibilite distinguir os indivíduos rapidamente. Visando abordar esse problema, foi realizado um estudo de técnicas de reconhecimento estatístico de padrões, principalmente na área de redução de dimensionalidade dos dados, além de uma revisão de métodos de reconhecimento de faces. Foi proposto (em colaboração com a pesquisadora Isabelle Bloch) um método de seleção de características que une um algoritmo de busca eficiente (métodos de busca seqüencial flutuante) com uma medida de distância entre conjuntos nebulosos (distância nebulosa baseada em tolerância). Essa medida de distância possui diversas vantagens, sendo possível considerar as diferentes tipicalidades de cada padrão dos conjuntos de modo a permitir a obtenção de bons resultados mesmo com conjuntos com sobreposição. Os resultados preliminares com dados sintéticos mostraram o caráter promissor dessa abordagem. Com o objetivo de verificar a eficiência de tal técnica com dados reais, foram efetuados testes com reconhecimento de pessoas usando imagens da região dos olhos. Nesse caso, em se tratando de um problema com mais de duas classes, nós propusemos uma nova função critério inspirada na distância supracitada. Além disso foi proposto (juntamente com o estudante de mestrado Rogério S. Feris) um esquema de reconhecimento a partir de seqüências de vídeo. Esse esquema inclui a utilização de um método eficiente de rastreamento de características faciais (Gabor Wavelet Networks) e o método proposto anteriormente para seleção de características. Dentro desse contexto, o trabalho desenvolvido nesta dissertação implementa uma parte dos módulos desse esquema. / Face recognition is an instigating research field that may lead to the development of many promising applications. Although many efficient and robust algorithms have been developed in this area, there are still many challenges to be overcome. In particular, a robust and compact face representation is still to be found, which would allow for quick classification of different individuals. In order to address this problem, we first studied pattern recognition techniques, especially regarding dimensionality reduction, followed by the main face recognition methods. We introduced a new feature selection approach in collaboration with the researcher Isabelle Bloch (TSI-ENST-Paris), that associates an efficient searching algorithm (sequential floating search methods), with a tolerance-based fuzzy distance. This distance measure presents some nice features for dealing with the tipicalities of each pattern in the sets, so that good results can be attained even when the sets are overlapping. Preliminary results with synthetic data have demonstrated that this method is quite promising. In order to verify the efficiency of this technique with real data, we applied it for improving the performance of a person recognition system based on eye images. Since this problem involves more than two classes, we also developed a new criterion function based on the above-mentioned distance. Moreover, we proposed (together with Rogério S. Feris) a system for person recognition based on video sequences. This mechanism includes the development of an efficient method for facial features tracking, in addition to our method for feature selection. In this context, the work presented here constitutes part of the proposed system.
345

Integração de dados na inferência de redes de genes: avaliação de informações biológicas e características topológicas / Data integration in gene networks inference: evaluation of biological and topological features

Fabio Fernandes da Rocha Vicente 02 May 2016 (has links)
Os componentes celulares não atuam sozinhos, mas sim em uma rede de interações. Neste sentido, é fundamental descobrir como os genes se relacionam e compreender a dinâmica do sistema biológico. Este conhecimento pode contribuir para o tratamento de doenças, para o melhoramento genético de plantas e aumento de produção agrícola, por exemplo. Muitas redes gênicas são desconhecidas ou apenas conhecidas parcialmente. Neste contexto, a inferência de Redes Gênicas surgiu como possível solução e tem por objetivo recuperar a rede a partir de dados de expressão gênica utilizando modelos probabilísticos. No entanto, um problema intrínseco da inferência de redes é formalmente descrito como maldição da dimensionalidade (a quantidade de variáveis é muito maior que a quantidade de amostras). No contexto biológico, este problema é ainda agravado pois é necessário lidar com milhares de genes e apenas um ou duas dezenas de amostras de dados de expressão. Assim, os modelos de inferência buscam contornar este problema propondo soluções que minimizem o erro de estimação. Nos modelos de predição ainda há muitos empates, isto é, apenas os dados de expressão não são suficientes para decidir pela interação correta entre os genes. Neste contexto, a proposta de integração de outros dados biológicos além do dado de expressão gênica surge como possível solução. No entanto, estes dados são heterogêneos: referem-se a interações físicas, relacionamentos funcionais, localização, dentre outros. Além disto são representados de diferentes formas: como dado quantitativo, qualitativo, como atributos nominais ou atributos ordinais. Algumas vezes organizados em estrutura hierárquica, em outras como um grafo e ainda como anotação descritiva. Além disto, não está claro como cada tipo de dado pode contribuir com a inferência e redução do erro dos modelos. Portanto, é fundamental buscar compreender a relação entre os dados biológicos disponíveis, bem como investigar como integrá-los na inferência. Assim, neste trabalho desenvolveu-se três metodologias de integração de dados e a contribuição de cada tipo foi analisada. Os resultados mostraram que o uso conjunto de dados de expressão e outros dados biológicos melhora a predição das redes. Também apontaram para diferença no potencial de redução do erro de acordo com o tipo de dado. Além disto, os resultados mostraram que o conhecimento da topologia da rede também reduz o erro além de inferir redes topologicamente coerentes com a topologia esperada / It is widely known that the cellular components do not act in isolation but through a network of interactions. In this sense, it is essential to discover how genes interact with each other and to understand the dynamics of the biological system. This knowledge can contribute for the treatment of diseases, contribute for plant breeding and increased agricultural production. In this context, the inference of Gene Networks (GNs) has emerged as a possible solution, studying how to recover the network from gene expression data through probabilistic models. However, a known problem of network inference is formally described as curse of dimensionality (the number of variables is much larger than the number of samples). In biological problems, it is even worse since there is only few samples and thousands of genes. However, there are still many ties found in the prediction models, that is, only the expression data are frequently not enough to decide the correct interaction between genes. In this context, data integration is proposed as a possible solution. However, the data are heterogeneous, refer to physical interactions and functional location. They are represented in different ways as quantitative or qualitative information, being nominal or ordinal attributes. Sometimes organized in hierarchical structure or as a graph. In addition, it is unclear how each type of data can contribute to the inference and reduction of the error. Therefore, it is very important to understand the relationship between the biological information available. Also, it is important to investigate how to integrate them in the inference algorithm. Thus, this work has developed three data integration methodologies and also, the contribution of biological information was analyzed. The results showed that the combined use of expression data and biological information improves the inference. Moreover, the results shows distinct behaviour of distinct data in error reduction. Also, experiments that include topological features into the models, shows that the knowledge of the network topology can increase the corrctness of the inferred newtorks
346

Reconhecimento automático de expressões faciais gramaticais na língua brasileira de sinais / Automatic recognition of Grammatical Facial Expressions from Brazilian Sign Language (Libras)

Fernando de Almeida Freitas 16 March 2015 (has links)
O Reconhecimento das Expressões Faciais tem atraído bastante a atenção dos pesquisadores nas últimas décadas, principalmente devido às suas ponteciais aplicações. Nas Línguas de Sinais, por serem línguas de modalidade visual-espacial e não contarem com o suporte sonoro da entonação, as Expressões Faciais ganham uma importância ainda maior, pois colaboram também para formar a estrutura gramatical da língua. Tais expressões são chamadas Expressões Faciais Gramaticais e estão presentes nos níveis morfológico e sintático das Línguas de Sinais, elas ganham destaque no processo de reconhecimento automático das Línguas de Sinais, pois colaboram para retirada de ambiguidades entre sinais que possuem parâmetros semelhantes, como configuração de mãos e ponto de articulação, além de colaborarem na composição do sentido semântico das sentenças. Assim, este projeto de pesquisa em nível de mestrado tem por objetivo desenvolver um conjunto de modelos de reconhecimento de padrões capazes de resolver o problema de intepretação automática de Expressões Faciais Gramaticais, usadas no contexto da Língua de Sinais Brasileira (Libras), considerando-as em Nível Sintático. / The facial expression recognition has attracted most of the researchers attention over the last years, because of that it can be very useful in many applications. The Sign Language is a spatio-visual language and it does not have the speech intonation support, so Facial Expression gain relative importance to convey grammatical information in a signed sentence and they contributed to morphological and/or syntactic level to a Sign Language. Those expressions are called Grammatical Facial Expression and they cooperate to solve the ambiguity between signs and give meaning to sentences. Thus, this research project aims to develop models that make possible to recognize automatically Grammatical Facial Expressions from Brazilian Sign Language (Libras)
347

Casamento de padrões em imagens digitais livre de segmentação e invariante sob transformações de similaridade. / Segmentation-free template matching in digital images invariant to similarity transformations.

Sidnei Alves de Araújo 21 October 2009 (has links)
Reconhecimento de padrões em imagens é um problema clássico da área de visão computacional e consiste em detectar um padrão ou objeto de referência (template) em uma imagem digital. A maioria dos métodos para esta finalidade propostos na literatura simplifica as imagens por meio de operações como binarização, segmentação e detecção de bordas ou pontos de contorno, para em seguida extrair um conjunto de atributos descritores. O problema é que esta simplificação pode descartar informações importantes para descrição dos padrões, fazendo diminuir a robustez do processo de detecção. Um método eficiente deve ter a habilidade de identificar um padrão sujeito a algumas transformações geométricas como rotação, escalonamento, translação, cisalhamento e, no caso de métodos para imagens coloridas, deve ainda tratar do problema da constância da cor. Além disso, o conjunto de atributos que descrevem um padrão deve ser pequeno o suficiente para viabilizar o desenvolvimento de aplicações práticas como um sistema de visão robótica ou um sistema de vigilância. Estes são alguns dos motivos que justificam os esforços empreendidos nos inúmeros trabalhos desta natureza encontrados na literatura. Neste trabalho é proposto um método de casamento de padrões em imagens digitais, denominado Ciratefi (Circular, Radial and Template-Matching Filter), livre de segmentação e invariante sob transformações de similaridade, brilho e contraste. O Ciratefi consiste de três etapas de filtragem que sucessivamente descartam pontos na imagem analisada que não correspondem ao padrão procurado. Também foram propostas duas extensões do Ciratefi, uma que utiliza operadores morfológicos na extração dos atributos descritores, denominada Ciratefi Morfológico e outra para imagens coloridas chamada de color Ciratefi. Foram realizados vários experimentos com o intuito de comparar o desempenho do método proposto com dois dos principais métodos encontrados na literatura. Os resultados experimentais mostram que o desempenho do Ciratefi é superior ao desempenho dos métodos empregados na análise comparativa. / Pattern recognition in images is a classical problem in computer vision. It consists in detecting some reference pattern or template in a digital image. Most of the existing pattern recognition techniques usually apply simplifications like binarization, segmentation, interest points or edges detection before extracting features from images. Unfortunately, these simplification operations can discard rich grayscale information used to describe the patterns, decreasing the robustness of the detection process. An efficient method should be able to identify a pattern subject to some geometric transformations such as translation, scale, rotation, shearing and, in the case of color images, should deal with the color constancy problem. In addition, the set of features that describe a pattern should be sufficiently small to make feasible practical applications such as robot vision or surveillance system. These are some of the reasons that justify the effort for development of many works of this nature found in the literature. In this work we propose a segmentation-free template matching method named Ciratefi (Circular, Radial and Template-Matching Filter) that is invariant to rotation, scale, translation, brightness and contrast. Ciratefi consists of three cascaded filters that successively exclude pixels that have no chance of matching the template from further processing. Also we propose two extensions of Ciratefi, one using the mathematical morphology approach to extract the descriptors named Morphological Ciratefi and another to deal with color images named Color Ciratefi. We conducted various experiments aiming to compare the performance of the proposed method with two other methods found in the literature. The experimental results show that Ciratefi outperforms the methods used in the comparison analysis.
348

Integração de dados na inferência de redes de genes: avaliação de informações biológicas e características topológicas / Data integration in gene networks inference: evaluation of biological and topological features

Vicente, Fabio Fernandes da Rocha 02 May 2016 (has links)
Os componentes celulares não atuam sozinhos, mas sim em uma rede de interações. Neste sentido, é fundamental descobrir como os genes se relacionam e compreender a dinâmica do sistema biológico. Este conhecimento pode contribuir para o tratamento de doenças, para o melhoramento genético de plantas e aumento de produção agrícola, por exemplo. Muitas redes gênicas são desconhecidas ou apenas conhecidas parcialmente. Neste contexto, a inferência de Redes Gênicas surgiu como possível solução e tem por objetivo recuperar a rede a partir de dados de expressão gênica utilizando modelos probabilísticos. No entanto, um problema intrínseco da inferência de redes é formalmente descrito como maldição da dimensionalidade (a quantidade de variáveis é muito maior que a quantidade de amostras). No contexto biológico, este problema é ainda agravado pois é necessário lidar com milhares de genes e apenas um ou duas dezenas de amostras de dados de expressão. Assim, os modelos de inferência buscam contornar este problema propondo soluções que minimizem o erro de estimação. Nos modelos de predição ainda há muitos empates, isto é, apenas os dados de expressão não são suficientes para decidir pela interação correta entre os genes. Neste contexto, a proposta de integração de outros dados biológicos além do dado de expressão gênica surge como possível solução. No entanto, estes dados são heterogêneos: referem-se a interações físicas, relacionamentos funcionais, localização, dentre outros. Além disto são representados de diferentes formas: como dado quantitativo, qualitativo, como atributos nominais ou atributos ordinais. Algumas vezes organizados em estrutura hierárquica, em outras como um grafo e ainda como anotação descritiva. Além disto, não está claro como cada tipo de dado pode contribuir com a inferência e redução do erro dos modelos. Portanto, é fundamental buscar compreender a relação entre os dados biológicos disponíveis, bem como investigar como integrá-los na inferência. Assim, neste trabalho desenvolveu-se três metodologias de integração de dados e a contribuição de cada tipo foi analisada. Os resultados mostraram que o uso conjunto de dados de expressão e outros dados biológicos melhora a predição das redes. Também apontaram para diferença no potencial de redução do erro de acordo com o tipo de dado. Além disto, os resultados mostraram que o conhecimento da topologia da rede também reduz o erro além de inferir redes topologicamente coerentes com a topologia esperada / It is widely known that the cellular components do not act in isolation but through a network of interactions. In this sense, it is essential to discover how genes interact with each other and to understand the dynamics of the biological system. This knowledge can contribute for the treatment of diseases, contribute for plant breeding and increased agricultural production. In this context, the inference of Gene Networks (GNs) has emerged as a possible solution, studying how to recover the network from gene expression data through probabilistic models. However, a known problem of network inference is formally described as curse of dimensionality (the number of variables is much larger than the number of samples). In biological problems, it is even worse since there is only few samples and thousands of genes. However, there are still many ties found in the prediction models, that is, only the expression data are frequently not enough to decide the correct interaction between genes. In this context, data integration is proposed as a possible solution. However, the data are heterogeneous, refer to physical interactions and functional location. They are represented in different ways as quantitative or qualitative information, being nominal or ordinal attributes. Sometimes organized in hierarchical structure or as a graph. In addition, it is unclear how each type of data can contribute to the inference and reduction of the error. Therefore, it is very important to understand the relationship between the biological information available. Also, it is important to investigate how to integrate them in the inference algorithm. Thus, this work has developed three data integration methodologies and also, the contribution of biological information was analyzed. The results showed that the combined use of expression data and biological information improves the inference. Moreover, the results shows distinct behaviour of distinct data in error reduction. Also, experiments that include topological features into the models, shows that the knowledge of the network topology can increase the corrctness of the inferred newtorks
349

Método para classificação de café em grãos por imagens digitais pelo uso de atributos selecionados de morfologia, cor e textura / Method for coffee beans classification through digital images using selected morphological, colour and textural attributes

Oyama, Pedro Ivo de Castro 31 July 2014 (has links)
A análise da qualidade de grãos é um dos gargalos encontrados na cadeia produtiva do setor cafeeiro, tendo em vista que atualmente é feita de forma manual. Buscando uma solução para o problema, este trabalho apresenta um método baseado em visão computacional e redes neurais artificiais para identificar vinte e uma classes de grãos de café em amostras. No total, 421 atributos de três diferentes naturezas- morfologia, cor e textura- foram reunidos para compor o conjunto de características utilizado pela rede neural. Os atributos morfológicos são: Descritores de Fourier, Descritores Genéricos de Fourier, Momentos de Zernike, elementos do Modelo Autorregressivo e um conjunto de atributos diversos. Após avaliar duas abordagens para os atributos de cor- histogramas de frequências de cor e atributos estatísticos desses histogramas- a segunda foi escolhida e, assim, os atributos de cor adotados foram: média, variância, obliquidade, energia, curtose, entropia e suavidade de histogramas globais de cor, calculados para os espaços de cor RGB, HSV, I1I2I3 e CIELAB. Visando um melhor desempenho, os descritores de Haralick foram modificados para que dois pixels de referência fossem utilizados no cálculo da matriz de coocorrência. A versão modificada dos descritores superou as originais, e assim, seus valores calculados com o espaço de cor I1I2I3 (aquele que apresentou melhor eficácia em testes) foram utilizados como atributos de textura. O conjunto de atributos foi arranjado em cinco subconjuntos, cada um contendo diferentes combinações das distintas naturezas de atributos e sendo associado a uma análise. Para cada subconjunto selecionaram-se os melhores elementos pelas técnicas chi-quadrado, ganho de informação e PCA (Principal Component Analysis). O resultado dessa seleção determinou as entradas para três processos classificatórios, que foram avaliados a fim de se determinar o mais efetivo. Após as avaliações, e sendo determinada a melhor configuração, o processo classificatório escolhido proporcionou a acurácia de 85,08%, superando trabalhos correlatos. / The quality asssessment of beans is one of the bottlenecks found in the production chain of the coffee industry, as nowadays it is done manually. Seeking a solution for the problem, this work presents a method based on computer vision with neural networks to identify twenty-one classes of coffee beans in samples. In total, 421 features of three different types- morphological, colour and textural- were gathered to compose the feature set used by the neural network. The morphological features were Fourier Descriptors, Generic Fourier Descriptors, Zernike Moments, elements from Autoregressive Model and a miscellaneous set. After evaluating two approaches of colour features- colour frequency histograms and statistics from those histograms- the latter was chosen and the colour features comprised the mean, variance, skewness, kurtosis, energy, entropy and smoothness of global histograms calculated for the channels of the RGB, HSV, I1I2I3 and CIELAB colour spaces. Seeking better performance the Haralick features were modified, so two pixels were used as reference in the computation of the Grey Level Co-occurrence Matrix. The modified versions of the features outperformed the original ones and their computations with the I1I2I3 colour space (the one that provided the best results in tests) were used as textural features. The feature set was then rearranged in five intersecting subsets, each one containing different combinations of the feature types and being associated with an analysis. For each subset the best elements were selected using the techniques PCA (Principal Component Analysis), chi-squared and information gain. The resulting selections were used to determine the inputs to three classification processes, which were evaluated in order to select the most effective. After all evaluations, and having determined the best configuration, the selected classification process yielded an overall accuracy of 85.08%, outperforming related works.
350

Análise de padrões na produção de cana de açúcar utilizando aprendizado de máquina /

Hespanhol, Patrícia Freitas Pelozo January 2019 (has links)
Orientador: Luís Roberto Almeida Gabriel Filho / Coorientador: Luiz Fernando Sommaggio Coletta / Coorientador: Camila Pires Cremasco Gabriel / Resumo: O presente trabalho buscou identificar padrões na produção de cana de por meio da utilização de Inteligência Artificial. Para tanto, foi realizada coleta de informações de fontes secundárias, com dados estatísticos fornecidos por órgãos públicos sobre a área cultivada e a produção de cana de açúcar, índices como pluviométricos e de temperatura e o tipo de solo dos municípios do estado de São Paulo, no ano de 2017, por meio de pesquisa documental. Com a utilização dos métodos Floresta dos Caminhos Ótimos (OPF), K-means e Fuzzy C-means (FCM) buscou-se identificar clusters, ou padrões, que representem essas características produtivas. Além disso, o trabalho testou a utilização do algoritmo OPF como ferramenta de apoio à decisão no setor agroindustrial e fez a comparação do método com os agrupadores de padrões K-means e FCM. Após o processamento dos dados foi possível identificar padrões na produção de cana de açúcar pelos três algoritmos, sendo que o OPF proporcionou resultados muito parecidos com o K-means e FCM, confirmando a eficiência do método. Além disso, foi possível identificar, no ano de 2017, um padrão de produção com municípios com alta produtividade, grandes áreas destinadas a produção de cana de açúcar e produção da cultura, com temperatura média alta e índices pluviométricos baixos. Os municípios que possuem pequenas áreas com plantação de cana de açúcar possuem uma variabilidade muito grande em resultados de produtividade. O padrão de município com baixa produtivi... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: The present work sought to identify patterns in sugarcane production through the use of Artificial Intelligence. For this purpose, information was collected from secondary sources, with statistical data provided by public agencies on cultivated area and sugarcane production, rainfall and temperature indices, and the soil type of the municipalities of the State of São Paulo, in the year 2017, through documentary research. Using Optimum-Path Forest (OPF), K-means and Fuzzy C-means (FCM) methods, the aim was to identify clusters, or patterns, that represent these productive characteristics. In addition, the work tested the use of OPF algorithm as a decision support tool in the agribusiness sector and compared the method with the K-means and FCM standards groupers. After data processing, it was possible to identify patterns in sugarcane production by the three algorithms, and OPF provided results very similar to K-means and FCM, confirming the efficiency of the method. In addition, it was possible to identify, in the year 2017, a production pattern of municipalities with high productivity, large areas destined to the production of sugar cane and crop production, with high average temperature and low rainfall. Municipalities that have small areas with sugar cane plantation have a very large variability in productivity results. The municipal pattern with low productivity is accompanied by very low average temperature, very high rainfall rates and soils of the type Cambisols, Neosols and Spodosols. The soil type pattern that provided the highest productivity for the municipalities was the Oxisol. / Mestre

Page generated in 0.1207 seconds