• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 18
  • Tagged with
  • 18
  • 18
  • 18
  • 18
  • 18
  • 10
  • 10
  • 7
  • 7
  • 6
  • 5
  • 5
  • 5
  • 5
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

[en] QUANTUM-INSPIRED LINEAR GENETIC PROGRAMMING / [pt] PROGRAMAÇÃO GENÉTICA LINEAR COM INSPIRAÇÃO QUÂNTICA

DOUGLAS MOTA DIAS 26 May 2011 (has links)
[pt] A superioridade de desempenho dos algoritmos quânticos, em alguns problemas específicos, reside no uso direto de fenômenos da mecânica quântica para realizar operações com dados em computadores quânticos. Esta característica fez surgir uma nova abordagem, denominada Computação com Inspiração Quântica, cujo objetivo é criar algoritmos clássicos (executados em computadores clássicos) que tirem proveito de princípios da mecânica quântica para melhorar seu desempenho. Neste sentido, alguns algoritmos evolutivos com inspiração quântica tem sido propostos e aplicados com sucesso em problemas de otimização combinatória e numérica, apresentando desempenho superior àquele dos algoritmos evolutivos convencionais, quanto à melhoria da qualidade das soluções e à redução do número de avaliações necessárias para alcançá-las. Até o presente momento, no entanto, este novo paradigma de inspiração quântica ainda não havia sido aplicado à Programação Genética (PG), uma classe de algoritmos evolutivos que visa à síntese automática de programas de computador. Esta tese propõe, desenvolve e testa um novo modelo de algoritmo evolutivo com inspiração quântica, denominado Programação Genética Linear com Inspiração Quântica (PGLIQ), para a evolução de programas em código de máquina. A Programação Genética Linear é assim denominada porque cada um dos seus indivíduos é representado por uma lista de instruções (estruturas lineares), as quais são executadas sequencialmente. As contribuições deste trabalho são o estudo e a formulação inédita do uso do paradigma da inspiração quântica na síntese evolutiva de programas de computador. Uma das motivações para a opção pela evolução de programas em código de máquina é que esta é a abordagem de PG que, por oferecer a maior velocidade de execução, viabiliza experimentos em larga escala. O modelo proposto é inspirado em sistemas quânticos multiníveis e utiliza o qudit como unidade básica de informação quântica, o qual representa a superposição dos estados de um sistema deste tipo. O funcionamento do modelo se baseia em indivíduos quânticos, que representam a superposição de todos os programas do espaço de busca, cuja observação gera indivíduos clássicos e os programas (soluções). Nos testes são utilizados problemas de regressão simbólica e de classificação binária para se avaliar o desempenho da PGLIQ e compará-lo com o do modelo AIMGP (Automatic Induction of Machine Code by Genetic Programming), considerado atualmente o modelo de PG mais eficiente na evolução de código de máquina, conforme citado em inúmeras referências bibliográficas na área. Os resultados mostram que a Programação Genética Linear com Inspiração Quântica (PGLIQ) apresenta desempenho geral superior nestas classes de problemas, ao encontrar melhores soluções (menores erros) a partir de um número menor de avaliações, com a vantagem adicional de utilizar um número menor de parâmetros e operadores que o modelo de referência. Nos testes comparativos, o modelo mostra desempenho médio superior ao do modelo de referência para todos os estudos de caso, obtendo erros de 3 a 31% menores nos problemas de regressão simbólica, e de 36 a 39% nos problemas de classificação binária. Esta pesquisa conclui que o paradigma da inspiração quântica pode ser uma abordagem competitiva para se evoluir programas eficientemente, encorajando o aprimoramento e a extensão do modelo aqui apresentado, assim como a criação de outros modelos de programação genética com inspiração quântica. / [en] The superior performance of quantum algorithms in some specific problems lies in the direct use of quantum mechanics phenomena to perform operations with data on quantum computers. This feature has originated a new approach, named Quantum-Inspired Computing, whose goal is to create classic algorithms (running on classical computers) that take advantage of quantum mechanics principles to improve their performance. In this sense, some quantum-inspired evolutionary algorithms have been proposed and successfully applied in combinatorial and numerical optimization problems, presenting a superior performance to that of conventional evolutionary algorithms, by improving the quality of solutions and reducing the number of evaluations needed to achieve them. To date, however, this new paradigm of quantum inspiration had not yet been applied to Genetic Programming (GP), a class of evolutionary algorithms that aims the automatic synthesis of computer programs. This thesis proposes, develops and tests a novel model of quantum-inspired evolutionary algorithm named Quantum-Inspired Linear Genetic Programming (QILGP) for the evolution of machine code programs. Linear Genetic Programming is so named because each of its individuals is represented by a list of instructions (linear structures), which are sequentially executed. The contributions of this work are the study and formulation of the novel use of quantum inspiration paradigm on evolutionary synthesis of computer programs. One of the motivations for choosing by the evolution of machine code programs is because this is the GP approach that, by offering the highest speed of execution, makes feasible large-scale experiments. The proposed model is inspired on multi-level quantum systems and uses the qudit as the basic unit of quantum information, which represents the superposition of states of such a system. The model’s operation is based on quantum individuals, which represent a superposition of all programs of the search space, whose observation leads to classical individuals and programs (solutions). The tests use symbolic regression and binary classification problems to evaluate the performance of QILGP and compare it with the AIMGP model (Automatic Induction of Machine Code by Genetic Programming), which is currently considered the most efficient GP model to evolve machine code, as cited in numerous references in this field. The results show that Quantum-Inspired Linear Genetic Programming (QILGP) presents superior overall performance in these classes of problems, by achieving better solutions (smallest error) from a smaller number of evaluations, with the additional advantage of using a smaller number of parameters and operators that the reference model. In comparative tests, the model shows average performance higher than that of the reference model for all case studies, achieving errors 3-31% lower in the problems of symbolic regression, and 36-39% in the binary classification problems. This research concludes that the quantum inspiration paradigm can be a competitive approach to efficiently evolve programs, encouraging the improvement and extension of the model presented here, as well as the creation of other models of quantum-inspired genetic programming.
2

[en] SIMULATION AND DESIGN OF GAAS/ALGAAS QUANTUM WELL SOLAR CELLS AIDED BY GENETIC ALGORITHM / [pt] SIMULAÇÃO E PROJETO DE CÉLULAS SOLARES COM POÇOS QUÂNTICOS DE GAAS/ALGAAS AUXILIADO POR ALGORITMOS GENÉTICOS

ANDERSON PIRES SINGULANI 03 March 2010 (has links)
[pt] A energia é assunto estratégico para a grande maioria dos países e indústrias no mundo. O consumo atual energético é de 138,32 TWh por ano e é previsto um aumento de 44% até o ano de 2030 o que demonstra um mercado em expansão. Porém, a sociedade atual exige soluções energéticas que causem o menor impacto ambiental possível, colocando em dúvida o uso das fontes de energia utilizadas atualmente. O uso da energia solar é uma alternativa para auxiliar no atendimento da futura demanda de energia. O seu principal entrave é o custo de produção de energia ser superior as fontes de energia atuais, principalmente o petróleo. Contudo nos últimos 10 anos foi verificado um crescimento exponencial na quantidade de módulos fotovoltaicos instalados em todo mundo. Nesse trabalho é realizado um estudo sobre célula solares com poços quânticos. O uso de poços quânticos já foi apontado como ferramenta para aumentar a eficiência de células fotovoltaicas. O objetivo é descrever uma metodologia baseada em algoritmos genéticos para projeto e análise desse tipo de dispositivo e estabelecer diretivas para se construir uma célula otimizada utilizando esta tecnologia. Os resultados obtidos estão de acordo com dados experimentais, demonstram a capacidade dos poços quânticos em aumentar a eficiência de uma célula e fornecem uma ferramenta tecnológica que espera-se contribuir para o desenvolvimento do país no setor energético. / [en] The energy is a strategical issue for the great majority of the countries and industries in the world. The current world energy consumption is of 138,32 TWh per year and is foreseen an increase of 44% until the year of 2030 which demonstrates a market in expansion. However, the society demands energy solutions that cause as least ambient impact as possible, putting in doubt the use of the current technologies of power plants. The utilization of solar energy is an alternative to assist in the attendance of the future demand of energy. Its main impediment is the superior cost of energy production in comparison with the current power plants, mainly the oil based ones. However in last the 10 years an exponential growth in the amount of installed photovoltaics modules worldwide was verified. In this work a study on solar cell with quantum wells is carried through. The use of quantum wells already was pointed as tool to increase the efficiency of photovoltaics cells. The objective is to describe a methodology based on genetic algorithms for project and analysis of this type of device and to establish directive to construct an optimized cell using this technology. The results are in accordance with experimental data, that demonstrates the capacity of the quantum wells in increasing the efficiency of a cell and supply a technological tool that expects to contribute for the development of the country in the energy sector.
3

[en] GARCH MODELS IDENTIFICATION USING COMPUTATIONAL INTELLIGENCE / [pt] IDENTIFICAÇÃO DE MODELOS GARCH USANDO INTELIGÊNCIA COMPUTACIONAL

ANDRE MACHADO CALDEIRA 08 January 2010 (has links)
[pt] Os modelos ARCH e GARCH vêm sendo bastante explorados tanto tecnicamente quanto em estudos empíricos desde suas respectivas criações em 1982 e 1986. Contudo, o enfoque sempre foi na reprodução dos fatos estilizados das séries financeiras e na previsão de volatilidade, onde o GARCH(1,1) é o mais utilizado. Estudos sobre identificação dos modelos GARCH são muito raros. Diante desse contexto, este trabalho propõe um sistema inteligente para melhorar a identificação da correta especificação dos modelos GARCH, evitando assim o uso indiscriminado dos modelos GARCH(1,1). Para validar a eficácia do sistema proposto, séries simuladas foram utilizadas. Os resultados derivados desse sistema são comparados com os modelos escolhidos pelos critérios de informação AIC e BIC. O desempenho das previsões dos modelos identificados por esses métodos são comparados utilizando-se séries reais. / [en] ARCH and GARCH models have been largely explored technically and empirically since their creation in 1982 and 1986, respectively. However, the focus has always been on stylized facts of financial time series or volatility forecasts, where GARCH(1,1) has commonly been used. Studies on identification of GARCH models have been rare. In this context, this work aims to develop an intelligent system for improving the specification of GARCH models, thus avoiding the indiscriminate use of the GARCH(1,1) model. In order to validate the efficacy of the proposed system, simulated time series are used. Results are compared to chosen models through AIC and BIC criteria. Their performances are then compared by using real data.
4

[en] NONDESTRUCTIVE EVALUATION STEEL STRUCTURES USING A SQUID MAGNETOMETER AND COMPUTATIONAL INTELLIGENCE TECHNIQUES / [pt] ENSAIOS NÃO-DESTRUTIVOS EM ESTRUTURAS METÁLICAS UTILIZANDO O MAGNETÔMETRO SUPERCONDUTOR SQUID E TÉCNICAS DE INTELIGÊNCIA COMPUTACIONAL

CARLOS ROBERTO HALL BARBOSA 07 April 2006 (has links)
[pt] Esta tese associa duas técnicas de fronteira na área de Ensaios Não-Destrutivos magnéticos, que são a utilização do magnetômetro supercondutor SQUID como instrumento de medida e de Redes Neurais como ferramentas de análise dos sinais detectados. Medidas pioneiras com o SQUID foram realizadas em amostras de aço e de alumínio contendo defeitos diversos, e foram idealizados e implementados dois Sistemas Neurais, os quais utilizaram combinações de vários tipos de redes neurais para, a partir do campo magnético medido, obter informações a respeito da geometria dos defeitos, possibilitando assim estimar sua gravidade. / [en] This thesis combines two state-of-the-art techniques in the area if magnetic Nondestructive Evaluation, that is, the application of the superconducting magnetometer SQUID as the magnetic sensor, and the use of Neural Networks as analysis tools for the detected magnetic signals. Pioneering measurements using the SQUID have been made in steel and aluminum samples with various types of flaws, and two Neural Systems have been implemented, based on the combination of several neural networks algorithms. Such systems aim to, based on the measured magnetic field, obtain information about defect geometry, thus allowing the assessment of defect severity.
5

[en] WORD SENSE DESAMBIGUATION IN TEXT MINING / [pt] DESAMBIGUAÇÃO DE SENTIDO DE PALAVRAS DIRIGIDA POR TÉCNICAS DE AGRUPAMENTO SOB O ENFOQUE DA MINERAÇÃO DE TEXTOS

ROBERTO MIRANDA GOMES 10 September 2009 (has links)
[pt] Esta dissertação investigou a aplicação de processos de mineração de textos a partir de técnicas de inteligência computacional e aprendizado de máquina no problema de ambigüidade de sentido de palavras. O trabalho na área de métodos de apoio à decisão teve como objetivo o desenvolvimento de técnicas capazes de automatizar os processos de desambiguação bem como a construção de um protótipo baseado na implementação de algumas dessas técnicas. Desambiguação de sentido de palavra é o processo de atribuição de um significado a uma palavra obtido por meio de informações colhidas no contexto em que ela ocorre, e um de seus objetivos é mitigar os enganos introduzidos por construções textuais ambíguas, auxiliando assim o processo de tomada de decisão. Buscou-se ainda na utilização de conceitos, ferramentas e formas de documentação considerados em trabalhos anteriores de maneira a dar continuidade ao desenvolvimento científico e deixar um legado mais facilmente reutilizável em trabalhos futuros. Atenção especial foi dada ao processo de detecção de ambigüidades e, por esse motivo, uma abordagem diferenciada foi empregada. Diferente da forma mais comum de desambiguação, onde uma máquina é treinada para desambiguar determinado termo, buscou-se no presente trabalho a nãodependência de se conhecer o termo a ser tratado e assim tornar o sistema mais robusto e genérico. Para isso, foram desenvolvidas heurísticas específicas baseadas em técnicas de inteligência computacional. Os critérios semânticos para identificação de termos ambíguos foram extraídos das técnicas de agrupamento empregadas em léxicos construídos após algum processo de normalização de termos. O protótipo, SID - Sistema Inteligente de Desambiguação - foi desenvolvido em .NET, que permite uma grande diversidade de linguagens no desenvolvimento, o que facilita o reuso do código para a continuidade da pesquisa ou a utilização das técnicas implementadas em alguma aplicação de mineração de textos. A linguagem escolhida foi o C#, pela sua robustez, facilidade e semelhança sintática com JAVA e C++, linguagens amplamente conhecidas e utilizadas pela maioria dos desenvolvedores. / [en] This dissertation investigated the application of text mining process from techniques of computing intelligence and machine learning in the problem of word sense ambiguity. The work in the methods of decision support area aimed to develop techniques capable of doing a word meaning disambiguation automatically and also to construct a prototype based on the application of such techniques. Special attention was given to the process of ambiguity detection and, for this reason, a differentiated approach was used. Unlikely the most common type of disambiguation, in which the machine is trained to do it in determined terms, the present work aimed to address the ambiguity problem without the need of knowing the meaning of the term used, and thus, to make the system more robust and generic. In order to achieve that, specific heurists were developed based on computing intelligence techniques. The semantic criteria used to identify the ambiguous terms were extracted from grouping techniques employed in lexis built after some term normalization process.
6

[en] REGISTRATION OF 3D SEISMIC TO WELL DATA / [pt] REGISTRO DE SÍSMICA 3D A DADOS DE POÇOS

RODRIGO COSTA FERNANDES 08 March 2010 (has links)
[pt] A confiabilidade dos dados coletados diretamente ao longo do caminho de poços de petróleo é maior que a confiabilidade de dados sísmicos e, por isto, os primeiros podem ser utilizados para ajustar o volume de aquisição sísmica. Este trabalho propõe um ajuste dos volumes de amplitudes sísmicas através de uma algoritmo de três passos. O primeiro passo é a identificação de feições comuns através de um algoritmo de reconhecimento de padrões. O segundo passo consiste em gerar e otimizar uma malha alinhada às feições de interesse do dado sísmico voluméletrico através de um novo algoritmo baseado em processamento de imagens e inteligência computacional. E o terceiro e último passo é a realização de uma deformação volumétrica pontoa- ponto usando interpolação por funções de base radial para registrar o volume sísmico aos poços. A dissertação apresenta ainda resultados de implementações 2D e 3D dos algoritmos propostos de forma a permitir algumas conclusões e sugestões para trabalhos futuros. / [en] Data acquired directly from borehole are more reliable than seismic data, and then, the first can be used to adjust the second. This work proposes the correction of a volume of seismic amplitudes through a three step algorithm. The first step is the identification of common features in both sets using a pattern recognition algorithm. The second step consists of the generation and the optimization of a mesh aligned with the features in the volumetric data using a new algorithm based on image processing and computational intelligence. The last step is the seismic-to-well registration using a point-to-point volumetric deformation achieved by a radial basis function interpolation. The dissertation also presents some results from 2D and 3D implementations allowing conclusions and suggestions for future work.
7

[en] SYNTHESIS OF FUZZY SYSTEMS THROUGH EVOLUTIONARY COMPUTATION / [pt] SÍNTESE DE SISTEMAS FUZZY POR COMPUTAÇÃO EVOLUCIONÁRIA

JOSE FRANCO MACHADO DO AMARAL 30 May 2003 (has links)
[pt] Síntese de Sistemas Fuzzy por Computação Evolucionária propõe uma metodologia de projeto para o desenvolvimento de sistemas fuzzy fundamentada em técnicas de computação evolucionária. Esta metodologia contempla as etapas de concepção do sistema fuzzy e a implementação em hardware do circuito eletrônico que o representa. A concepção do sistema é realizada num ambiente de projeto no qual sua base de conhecimento - composta da base de regras e demais parâmetros característicos - é evoluída, por intermédio de simulação, através do emprego de um novo algoritmo de três estágios que utiliza Algoritmos Genéticos. Esta estratégia enfatiza a interpretabilidade e torna a criação do sistema fuzzy mais simples e eficiente para o projetista, especialmente quando comparada com o tradicional ajuste por tentativa e erro. A implementação em hardware do circuito é realizada em plataforma de desenvolvimento baseada em Eletrônica Evolucionária. Um conjunto de circuitos, denominados de blocos funcionais, foi desenvolvido e evoluído com sucesso para viabilizar a construção da estrutura final do sistema fuzzy. / [en] Synthesis of Fuzzy Systems through Evolutionary Computation proposes a methodology for the design of fuzzy systems based on evolutionary computation techniques. A three-stage evolutionary algorithm that uses Genetic Algorithms (GAs) evolves the knowledge base of a fuzzy system - rule base and parameters. The evolutionary aspect makes the design simpler and more efficient, especially when compared with traditional trial and error methods. The method emphasizes interpretability so that the resulting strategy is clearly stated. An Evolvable Hardware (EHW) platform for the synthesis of analog electronic circuits is proposed. This platform, which can be used for the implementation of the designed fuzzy system, is based on a Field Programmable Analog Array (FPAA). A set of evolved circuits called functional blocks allows the implementation of the fuzzy system.
8

[en] USE OF ARTIFICIAL NEURAL NETWORKS IN THE RECOGNITION OF BI-DIMENSION IMAGES / [pt] REDES NEURAIS APLICADAS AO RECONHECIMENTO DE IMAGENS BI-DIMENSIONAIS

GUY PERELMUTER 05 July 2006 (has links)
[pt] Esta dissertação investiga a aplicação de Redes Neurais Artificiais no reconhecimento de imagens bi-dimensionais. O trabalho de tese foi dividido em quatro partes principais: um estudo sobre a importância da Visão Computacional e sobre os benefícios da aplicação das técnicas da Inteligência Computacional na área; um estudo da estrutura dos sistemas de reconhecimento de imagens encontrados na literatura; o desenvolvimento de dois sistemas de reconhecimento de imagens baseados em redes neurais; e o estudo de caso e a análise de desempenho dos sistemas desenvolvidos. A Visão Computacional tem se beneficiado das principais técnicas de Inteligência Computacional (redes neurais, algoritmos genéticos e lógica nebulosa) na implementação de sistemas de reconhecimento de imagens. Neste trabalho estudou-se a aplicação de diversos tipos de redes neurais na classificação de imagens Back-Propagation, Competitivas, RBF e Hierárquicas. Além disso, foi realizado um estudo das áreas de aplicação da Visão Computacional. A estrutura básica utilizada por diversos sistemas de Visão Computacional encontrada na literatura foi analisada. Esta estrutura é tipicamente composta por três módulos principais: um pré-processador, um extrator de características e um classificador. Dois sistemas de reconhecimento de imagens, denominados de XVision e SimpleNet, foram desenvolvidos neste trabalho. O sistema XVision segue a estrutura descrita acima, enquanto que o sistema SimpleNet utiliza a informação da imagem bruta para realizar a classificação. O módulo de pré-processamento do sistema XVision executa uma série de transformações na imagem, extraindo suas características intrínsecas para que seja obtida uma representação da imagem invariante a aspectos como rotação, translação e escalonamento. Este Pré- Processador é baseado em um trabalho previamente realizado no campo de Processamento de Sinais. A etapa de extração de características visa detectar as informações mais relevantes contidas na representação da imagem intrínseca obtida na etapa anterior. Foram investigados extratores baseados em técnicas estatísticas (utilizando o discriminante de Fisher) e em técnicas inteligentes (utilizando algoritmos genéticos). Para o módulo de classificação das imagens foram utilizados diversos tipos de redes neurais artificiais: Back-Propagation, Competitivas, RBFs e Hierárquicas. No sistema SimpleNet, o pré-processamento limita-se à redução das dimensões da imagem a ser classificada. Como os próprios pixels da imagem são utilizados para a classificação, não foi implementado um módulo de extração de características. Na etapa de classificação foram empregadas redes neurais Back- Propagation e Competitivas. O sistema XVision apresentou resultados promissores para dois conjuntos distintos de objetos bi-dimensionais: o primeiro composto por peças mecânicas e o segundo por objetos triviais. As amostras utilizadas nos testes apresentavam características diferentes daquelas com as quais as redes neurais foram treinadas - não apenas com rotações, translações e escalonamentos, mas com diferenças estruturais. O classificador conseguiu taxas de acerto superiores a 83% em ambos os conjuntos de objetos. O sistema SimpleNet também mostrou-se eficiente na diferenciação de imagens semelhantes (cartões telefônicos e radiografias de pulmões), obtendo taxas de acerto superiores a 80%. O desenvolvimento destes sistemas demonstrou a viabilidade da aplicação de redes neurais na classificação de objetos bi- dimensionais. Devido ao grande interesse na utilização de sistemas de Visão em aplicações de tempo real, mediu-se o tempo gasto nos processos de reconhecimento. Desta forma foram detectados os garagalos dos sistemas, facilitando assim sua otimização. / [en] This work investigates the use of Artificial Neural Networks in the recognition of bi-dimensional images. The work was divided in four main parts: a survey on the importance of Computational Vision and on the benefits of the application of intelligent techniques in the fiels; a survey on the structure of image recognition systems found in the literature; the development of two image recognition systems based on neural networks; and an analysis of the performance of the developed systems. Computational Vision has benefited from the main Computational Intelligence techniques (neural networks, genetic algoritms and fuzzy logic) to implement image recognition systems. In this work, the usage of different Kinds of neural networks in image classification was studied: Back-Propagation, Competitive, RBF and Hierarchical. Besiades that, a survey on the fields of application of Computational Vision was made. The basic structure is typically composed of three modules: a pre-processor, a characteristics extractor and a classifier. In this work, two image recognition systems, called Xvision and SimpleNet, were developed. The XVision system follows the structure described above, while the SimpleNet system performs the classification using the information present in the raw picture. The pre-processing module of the Xvision system executes a series of transforms over the image, extracting its essential characteristics so that an invariant representation of the image can be obtained. This pre- processor is based on a previous work in the fiels of Signal Processing. The characteristcs extractor aims to detect the most relevant information present in the image representation obtained after the previous step. Two kinds of extractors were investigated: one based on statistical tecniques (applyng the Fisher`s discriminant) and another based on intelligent techniques (applyng genetic algorithms). The classification module was implementede through several Kinds of neural networks: Back-Propagation, Competitive, RBF and Hierarchical. The pre-processing of the SimpleNet system simply reduces the image`s dimensions. Since the image`s pixels are used for the classification process, no characteristics extractor module was implemented. In the classification module, Back-Propagation and Competitive neural networks were employed. The Xvision system yielded promising results for two sets of objects: the first one composed of mechanical parts and the second one composed of trivial objects. The samples used during the tests presented different characteristics from those samples used during the training process - not only rotated, translated and scaled, but also with structural differences. The classifier obtained a hit ratio above 83% with both sets. The SimpleNet system also showed a good performance in the differentiation of similar objects (telephone cards and X-rays of lungs), achieving hit ratios of more than 80%. The development of both systems demonstrated the viability of the use of neural networks in the classification of bi- dimensional objects. Due to the interest of applying Vision systems in real-time, the time spent in the recognition process was measured. This allowed the detection of the systems` bottlenecks, making their optimization easier.
9

[en] DESIGN, OPTIMIZATION, SIMULATION AND PREDICTION OF NANOSTRUCTURES PROPERTIES BY COMPUTATIONAL INTELLIGENCE TECHNIQUES: INTELLIGENT COMPUTATIONAL NANOTECHNOLOGY / [pt] PROJETO, OTIMIZAÇÃO, SIMULAÇÃO E PREDIÇÃO DE PROPRIEDADES DE NANOESTRUTURAS ATRAVÉS DE TÉCNICAS DA INTELIGÊNCIA COMPUTACIONAL: NANOTECNOLOGIA COMPUTACIONAL INTELIGENTE

OMAR PARANAIBA VILELA NETO 12 February 2010 (has links)
[pt] Esta tese investiga a Nanotecnologia Computacional Inteligente, isto é, o apoio de técnicas de Inteligência Computacional (IC) nos desafios enfrentados pela Nanociência e Nanotecnologia. Por exemplo, utilizam-se as Redes Neurais para construir sistemas de inferência capazes de relacionar um conjunto de parâmetros de entrada com as características finais das nanoestruturas, permitindo aos pesquisadores prever o comportamento de outras nanoestruturas ainda não realizadas experimentalmente. A partir dos sistemas de inferência, Algoritmos Genéticos são então empregados com o intuito de encontrar o conjunto ótimo de parâmetros de entrada para a síntese (projeto) de uma nanoestrutura desejada. Numa outra linha de investigação, os Algoritmos Genéticos são usados para a otimização de parâmetros de funções de base para cálculos ab initio. Neste caso, são otimizados os expoentes das funções gaussianas que compõem as funções de base. Em outra abordagem, os Algoritmos Genéticos são aplicados na otimização de agregados atômicos e moleculares, permitindo aos pesquisadores estudar teoricamente os agregados formados experimentalmente. Por fim, o uso destes algoritmos, aliado ao uso de simuladores, é aplicado na síntese automática de OLEDs e circuitos de Autômatos Celulares com Pontos Quânticos (QCA). Esta pesquisa revelou o potencial da IC em aplicações inovadoras. Os sistemas híbridos de otimização e inferência, por exemplo, concebidos para prever a altura, a densidade e o desvio padrão de pontos quânticos auto-organizáveis, apresentam altos níveis de correlação com os resultados experimentais e baixos erros percentuais (inferior a 10%). O módulo de elasticidade de nanocompósitos também é previsto por um sistema semelhante e apresenta erros percentuais ainda menores, entorno de 4%. Os Algoritmos Genéticos, juntamente com o software de modelagem molecular Gaussian03, otimizam os parâmetros de funções que geram expoentes de primitivas gaussianas de funções de base para cálculos hartree-fock, obtendo energias menores do que aquelas apresentadas nas referencias. Em outra aplicação, os Algoritmos Genéticos também se mostram eficientes na busca pelas geometrias de baixa energia dos agregados atômicos de (LiF)nLi+, (LiF)n e (LiF)nF-, obtendo uma série de novos isômeros ainda não propostos na literatura. Uma metodologia semelhante é aplicada em um sistema inédito para entender a formação de agregados moleculares de H2O iônicos, partindo-se de agregados neutros. Os resultados mostram como os agregados podem ser obtidos a partir de diferentes perspectivas, formando estruturas ainda não investigadas na área científica. Este trabalho também apresenta a síntese automática de circuitos de QCA robustos. Os circuitos obtidos apresentam grau de polarização semelhante àqueles propostos pelos especialistas, mas com uma importante redução na quantidade de células. Por fim, um sistema envolvendo Algoritmos Genéticos e um modelo analítico de OLEDs multicamadas otimizam as concentrações de materiais orgânicos em cada camada com o intuito de obter dispositivos mais eficientes. Os resultados revelam um dispositivo 9,7% melhor que a solução encontrada na literatura, sendo estes resultados comprovados experimentalmente. Em resumo, os resultados da pesquisa permitem constatar que a inédita integração das técnicas de Inteligência Computacional com Nanotecnologia Computacional, aqui denominada Nanotecnologia Computacional Inteligente, desponta como uma promissora alternativa para acelerar as pesquisas em Nanociência e o desenvolvimento de aplicações nanotecnológicas. / [en] This thesis investigates the Intelligent Computational Nanotechnology, that is, the support of Computational Intelligence (CI) techniques in the challenges faced by the Nanoscience and Nanotechnology. For example, Neural Networks are used for build Inference systems able to relate a set of input parameters with the final characteristics of the nanostructures, allowing the researchers foresees the behavior of other nanostructures not yet realized experimentally. From the inference systems, Genetic Algorithms are then employees with the intention of find the best set of input parameters for the synthesis (project) of a desired nanostructure. In another line of inquiry, the Genetic Algorithms are used for the base functions optimization used in ab initio calculations. In that case, the exponents of the Gaussian functions that compose the base functions are optimized. In another approach, the Genetic Algorithms are applied in the optimization of molecular and atomic clusters, allowing the researchers to theoretically study the experimentally formed clusters. Finally, the use of these algorithms, use together with simulators, is applied in the automatic synthesis of OLEDs and circuits of Quantum Dots Cellular Automata (QCA). This research revealed the potential of the CI in innovative applications. The hybrid systems of optimization and inference, for example, conceived to foresee the height, the density and the height deviation of self-assembled quantum dots, present high levels of correlation with the experimental results and low percentage errors (lower to 10%). The Young’s module of nanocomposites is also predicted by a similar system and presents percentage errors even smaller, around 4%. The Genetic Algorithms, jointly with the package of molecular modeling Gaussian03, optimize the parameters of functions that generate exponents of primitive Gaussian functions of base sets for hartree-fock calculations, obtaining smaller energies than those presented in the literature. In another application, the Genetic Algorithms are also efficient in the search by the low energy geometries of the atomic clusters of (LiF) nLi +, (LiF) n and (LiF) nF-, obtaining a set of new isomers yet not propose in the literature. A similar methodology is applied in an unpublished system for understand the formation of molecular cluster of ionic H2O from neutral clusters. The results show how the clusters can be obtained from different perspectives, forming structures not yet investigate in the scientific area. This work also presents the automatic synthesis of robust QCA circuits. The circuits obtained present high polarization, similar to those proposed by the specialists, but with an important reduction in the quantity of cells. Finally, a system involving Genetic Algorithms and an analytic model of multilayer OLEDs optimize the concentrations of organic material in each layer in order to obtain more efficient devices. The results reveal a device 9.7% better that the solution found in the literature, being these results verified experimentally. In summary, the results of the proposed research allow observe that the unpublished integration of the techniques of Computational Intelligence with Computational Nanotechnology, here named Intelligent Computational Nanotechnology, emerges as a promising alternative for accelerate the researches in Nanoscince and the development of application in Nanotechnology.
10

[en] MODELING YOUNGS MODULUS OF NANOCOMPOSITES THROUGH COMPUTATIONAL INTELLIGENCE / [pt] MODELAGEM DO MÓDULO DE YOUNG EM NANOCOMPÓSITOS ATRAVÉS DE INTELIGÊNCIA COMPUTACIONAL

LEANDRO FONTOURA CUPERTINO 17 March 2010 (has links)
[pt] Materiais compósitos são a base de muitos produtos, devido à sua capacidade de aperfeiçoar certas propriedades. Recentemente, a utilização de nanocargas na fabricação de compósitos vem sendo amplamente estudada, pois a partir de concentrações baixas de nanocargas, as propriedades começam a melhorar, possibilitando a criação de materiais leves e com uma grande gama de propriedades. Uma das propriedades mecânicas mais estudadas é o módulo de Young, que mensura a rigidez de um material. Alguns dos modelos existentes para essa propriedade em nanocompósitos pecam na precisão ou são limitados em função da fração máxima de nanopartículas admissível no modelo. Outros se adequam apenas a uma determinada combina ção de matriz/carga preestabelecida. O objetivo deste trabalho é utilizar Redes Neurais Artificiais como um aproximador capaz de modelar tal propriedade para diversas matrizes/cargas, levando em consideração suas características, sem perder a precisão. A validação do aproximador é realizada comparando o resultado com outros modelos propostos na literatura. Uma vez validada, utiliza-se Algoritmos Genéticos em conjunto com tal rede para definir qual seria a configuração ideal para três casos de estudo: um que maximize o valor do módulo de Young, outro que maximize o módulo relativo e um terceiro que maximize o módulo relativo e minimize a quantidade de carga utilizada, diminuindo os custos de projeto. As técnicas de Inteligência Computacional empregadas na modelagem e síntese de materiais nanoestruturados se mostraram boas ferramentas, uma vez que geraram uma boa aproximação dos dados utilizados com erros inferiores a 5%, além de possibilitarem a determinação dos parâmetros de síntese de um material com o módulo de Young desejado. / [en] Composite materials became very popular due to its improvements on certain properties achieved from the mixture of two different components. Recently, the use of nanofillers in the manufacture of composites has been widely studied due to the improvement of properties at low concentrations of nanofillers, enabling the creation of lightweight materials. Some of the existing models for the Young modulus of the nanocomposites have low accuracy or are limited in terms of the maximum filler fraction possible. Others are appropriate only for a given combination of matrix and filler. The objective of this work is to use Artificial Neural Networks as a function approximation method capable of modeling such property for various matrix/nanofillers, taking into account their characteristics, without losing accuracy. The validation of this approximator is performed comparing its results with other models proposed in the literature. Once validated, a Genetic Algorithm is used with the Neural Network to define which would be the ideal setting for three case studies: one that maximizes the value of composite’s Young’s modulus, other that maximizes the relative modulus and a third one that maximizes the relative modulus and minimizes the amount of load used, reducing the cost of project. Computational Intelligence techniques employed on the modeling and synthesis of nanostructured materials proved to be adequate tools, since it generated a good approximation of the data with errors lower than 5%, and determined the material’s parameters for synthesis with the desired Young’s modulus.

Page generated in 0.0556 seconds