• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 570
  • 336
  • 39
  • 21
  • 15
  • 12
  • 11
  • 8
  • 8
  • 8
  • 8
  • 4
  • 4
  • 3
  • 3
  • Tagged with
  • 1191
  • 1191
  • 1191
  • 571
  • 556
  • 423
  • 157
  • 134
  • 129
  • 128
  • 120
  • 110
  • 94
  • 93
  • 92
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
551

Aplicação de redes neurais artificiais paraconsistentes como método de auxílio no diagnóstico da doença de Alzheimer / Application of artificial neural networks paraconsistents as a method of aid in the diagnosis of Alzheimer disease

Helder Frederico da Silva Lopes 02 July 2009 (has links)
A análise visual do eletroencefalograma (EEG) tem se mostrado útil na ajuda diagnóstica da doença de Alzheimer (DA), sendo indicado em alguns protocolos clínicos quando o diagnóstico permanece em aberto após a avaliação inicial. Porém, tal análise está sujeita naturalmente à imprecisão inerente de equipamentos, movimentos do paciente, registros elétricos e variação da interpretação da análise visual do médico. A teoria das Redes Neurais Artificiais (RNA) tem-se mostrado muito apropriado para tratar problemas como predição e reconhecimento de padrões de sinais em outras áreas do conhecimento. Neste trabalho utilizou-se uma nova classe de RNA, a Rede Neural Artificial Paraconsistente (RNAP), caracterizada pela manipulação de informações incertas, inconsistentes e paracompletas, destinada a reconhecer padrões predeterminados de EEG e de avaliar sua aplicabilidade como método auxiliar para o diagnóstico da DA. Trinta e três pacientes com DA provável e trinta e quatro pacientes controles foram submetidos ao registro de exames de EEG durante a vigília em repouso. Considerou-se como padrão normal de um paciente, a atividade de base entre 8,0 Hz e 12,0 Hz (com uma frequência média de 10 Hz), permitindo uma variação de 0.5 Hz. A RNAP foi capaz de reconhecer ondas de diferentes bandas de frequência (teta, delta, alfa e beta) aplicadas ao uso clínico do EEG, levando a uma concordância com o diagnóstico clínico de 82% de sensibilidade e 61% de especificidade. Com estes resultados, acredita-se que a RNAP possa vir a ser uma ferramenta promissora para manipular análise de EEG, tendo em mente as seguintes considerações: o interesse crescente de especialistas em análise visual de EEG e a capacidade da RNAP tratar diretamente dados imprecisos, inconsistentes e paracompletos, fornecendo uma interessante análise quantitativa e qualitativa / The visual analysis of EEG has shown useful in helping the diagnosis of Alzheimer disease (AD) when the diagnosis remains uncertain, being used in some clinical protocols. However, such analysis is subject to the inherent equipment imprecision, patient movement, electrical records, and physician interpretation of the visual analysis variation. The Artificial Neural Network (ANN) could be a helpful tool, appropriate to address problems such as prediction and pattern recognition. In this work, it has use a new class of ANN, the Paraconsistent Artificial Neural Network (PANN), which is capable of handling uncertain, inconsistent, and paracomplet information, for recognizing predetermined patterns of EEG and to assess its value as a possible auxiliary method for AD diagnosis. Thirty three patients with Alzheimer\'s disease and thirty four controls patients of EEG records were obtained during relaxed wakefulness. It was considered as normal patient pattern, the background EEG activity between 8.0 Hz and 12.0 Hz (with an average frequency of 10 Hz), allowing a range of 0.5 Hz. The PANN was able to recognize waves that belonging to their respective bands of clinical use (theta, delta, alpha, and beta), leading to an agreement with the clinical diagnosis at 82% of sensitivity and at 61% of specificity. Supported with these results, the PANN could be a promising tool to manipulate EEG analysis, bearing in mind the following considerations: the growing interest of specialists in EEG analysis visual and the ability of the PANN to deal directly imprecise, inconsistent and paracomplet data, providing an interesting quantitative and qualitative analysis
552

Modelagem de variáveis qualitativas por meio de redes neurais artificiais: avaliação do uso de análise de correspondência como técnica de codificação

Gomes, Luciana 15 August 2012 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2017-03-02T18:22:17Z No. of bitstreams: 1 lucianagomes.pdf: 2235724 bytes, checksum: a319cb5c94b9c3b92bbfe46df00c557a (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-03-06T20:01:01Z (GMT) No. of bitstreams: 1 lucianagomes.pdf: 2235724 bytes, checksum: a319cb5c94b9c3b92bbfe46df00c557a (MD5) / Made available in DSpace on 2017-03-06T20:01:01Z (GMT). No. of bitstreams: 1 lucianagomes.pdf: 2235724 bytes, checksum: a319cb5c94b9c3b92bbfe46df00c557a (MD5) Previous issue date: 2012-08-15 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Em muitos problemas é necessária a descrição qualitativa dos dados (por exemplo, usando variáveis tais como sexo ou idade de um paciente). Para uso em redes neurais artificiais, contudo, estas variáveis têm que ser recodificadas quantitativamente. Neste trabalho, foram feitas simulações com seis técnicas bastante conhecidas de recodificação de variáveis qualitativas: Dummy 1-de-c, Dummy 1-de-(c-1), Termômetro, Numérica, Gray e Binária. O desempenho das seis técnicas foi comparado com o desempenho obtido utilizandose os fatores de Análise de Correspondência (AC) ao invés das variáveis qualitativas originais. O uso destes fatores de AC como forma de codificar variáveis de entrada de uma rede neural ainda não foi relatado na literatura. As simulações forem feitas com três bases de dados. Duas delas envolvem problemas de classificação de padrões em duas classes (o desempenho foi medido por meio da proporção de classificações corretas); a terceira base envolve um problema de aproximação de funções (o desempenho foi medido por meio dos erros MAPE e MSE). Nas bases de dados Seguros e Consumo, os resultados obtidos para AC são equivalentes aos das demais técnicas aplicadas e na base Córneas, não foi satisfatório, não demonstrando, assim, vantagens sobre as demais técnicas. / In many problems, a qualitative description of the data is needed (using for example variables such as age or sex of a patient). For use on artificial neural networks, however, these variables must be recoded quantitatively. In this study, simulations were made with six wellknown techniques for recoding qualitative variables: Dummy 1-of-c, Dummy 1-of-(c-1), Thermometer, Numerical, Gray, and Binary. The performance of these techniques was compared to the performance obtained using the factors of Correspondence Analysis (CA) instead of the original qualitative variables. The use of these factors as inputs to the neural network has not been reported in the literature. Simulations were made with three dataset. Two of them involve classification problems, with two classes (performance was measured by the percentage of correct classifications); the third dataset involves a problem of function approximation (performance was measured by MAPE and MSE). For two of the datasets, the results for CA are equivalent to those of the other techniques applied; for the third, the performance was not satisfactory, do not showing any advantages over other techniques.
553

Estudo dos algoritmos de classificação de elétrons no experimento atlas / Study of electrons classification algorithms in atlas experiment

Meneghin, Cândida Aparecida Delgado 28 February 2014 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2017-04-24T20:07:58Z No. of bitstreams: 1 candidaaparecidadelgadomeneghin.pdf: 3164631 bytes, checksum: 758ae4d7947524f75f92f7c77ad74c82 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-04-25T12:13:40Z (GMT) No. of bitstreams: 1 candidaaparecidadelgadomeneghin.pdf: 3164631 bytes, checksum: 758ae4d7947524f75f92f7c77ad74c82 (MD5) / Made available in DSpace on 2017-04-25T12:13:40Z (GMT). No. of bitstreams: 1 candidaaparecidadelgadomeneghin.pdf: 3164631 bytes, checksum: 758ae4d7947524f75f92f7c77ad74c82 (MD5) Previous issue date: 2014-02-28 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O Modelo Padrão reúne tudo o que é atualmente conhecido sobre os mais fundamentais constituintes da matéria e suas interações. Embora o Modelo Padrão descreva com precisão os fenômenos dentro do seu domínio, ele ainda está incompleto. Desta forma, novas informações a partir de experimentos no Grande Colisor de Hádrons (LHC) e do detector ATLAS (A Toroidal LHC Apparatus) irão ajudar na busca de novas partículas. O processo de colisões de prótons que geram decaimentos com estado final leptônico é utilizado na busca de várias físicas de interesse, como por exemplo, a partícula Z’ e seu decaimento em elétron e pósitron. Neste trabalho foram feitas diversas análises com o intuito de verificar o comportamento do algoritmo HTL_Ringer e do Algoritmo e/γ Padrão em relação à eficiência de classificação de elétrons/pósitrons e rejeição de jatos através da análise de dois parâmetros. O primeiro diz respeito ao comportamento dos classificadores em relação ao reconhecimento dessas partículas numa larga faixa de momento. O segundo parâmetro utilizado para análises foi a coordenada η do detector ATLAS, com o objetivo não só de verificar o comportamento dos dados em relação a posição de choque com o detector, mas principalmente como os dois algoritmos se comportam em relação à essa coordenada e como esta informação pode influenciar na classificação das partículas de interesse. Os resultados mostram que as eficiências de classificação podem ser influenciados por estes dois parâmetros. / The Standard Model collects everything that is currently known about the most fundamental elements of matter and their interactions. The Standard Model accurately describes the phenomena within its domain, but it is still incomplete. So, new information from experiments in the Large Hadron Collider (LHC) and the ATLAS (A Toroidal LHC Apparatus) detector will help quest for new particles. The process of protons collisions generate decays with lepton final state, which is used in several physical researches, in particular the Z’ particle and its decay in electron and positron. In this work several analyzes in order to verify the behavior of the HTL_Ringer and the e/γ Standard algorithms regarding efficiency rating of electrons/positrons and jets rejection by two parameters were made. The first one investigates the performance of these classifiers on classifying these particles in a wide range of momentum. The second parameter used for analysis was the η coordinate from ATLAS detector, aiming not only to verify the behavior of the data in relation to the detector hitting position, but mostly how the two algorithms behave to this coordinate and how this information can influence the classification of the particles of interest. The results show that the efficiency of classification can be affected by these two parameters.
554

Previsão de insolvência de empresas brasileiras usando análise discriminante, regressão logística e redes neurais / Bankruptcy prediction in brazilian companies with discriminant analysis, logistic regression and artificial neural networks

Francisco Henrique Figueiredo de Castro Junior 16 September 2003 (has links)
Estudos com o objetivo de prever insolvência de empresas e que fazem uso de técnicas estatísticas modernas são conduzidos desde a década de 1960. Esta linha de pesquisa, que inicialmente usou técnicas univariadas, e em seguida incorporou as análises multivariadas, hoje emprega largamente técnicas que fazem uso de inteligência artificial e que necessitam uma grande capacidade de processamento computacional. Esta evolução trouxe melhorias contínuas aos resultados alcançados e hoje é possível afirmar que os demonstrativos financeiros de empresas quando analisados adequadamente são uma fonte importante de informação para a previsão de insolvência. Esta pesquisa teve como principal objetivo desenvolver e comparar modelos estatísticos usando as técnicas de Análise Discriminante Linear, Regressão Logística e Redes Neurais Artificiais a fim de investigar qual delas oferece os melhores resultados. A amostra foi composta por 40 empresas, divididas em dois grupos: o primeiro com empresas formalmente insolventes segundo os critérios da legislação brasileira, e o segundo com empresas sem tais problemas. Foram usadas inicialmente 16 variáveis para predição e empregou-se um critério de seleção de variáveis baseado nos melhores subconjuntos possíveis ao invés do stepwise. Foi tomado especial cuidado com os pré-requisitos das técnicas, sobretudo da Análise Discriminante, como normalidade e ausência de multicolinearidade das variáveis independentes. Os resultados das previsões obtidas com os modelos foram coerentes com o esperado, ou seja, a Análise Discriminante teve um desempenho inferior à Regressão Logística que também foi superada pelas Redes Neurais Artificiais. / Researches in bankruptcy prediction of companies that make use of modern statistics techniques are being held since the 1960’s. This branch of study, which initially employed univariate techniques, and then assimilated the multivariate techniques today uses artificial intelligence, a techniques that needs a great computational processing capability. This evolution brought continuing improvements to the results achieved and today is possible to say that financial statements when properly analyzed are a good source of information to the prediction of financial distress. This research aimed mainly the development of prediction models using Discriminant Analysis, Logistic Regression and Artificial Neural Networks so that they could be compared in terms of predictive capabilities. The sample consisted of 40 firms divided in 2 groups (bankrupt and non bankrupt companies) according to the Brazilian bankruptcy law. The 16 initial predictors were selected to enter the model according to the best subsets procedure in order than the stepwise procedure. Special attention was taken to accomplish the pre-requisites of the techniques, above all the Discriminant Analysis, like normality and lack of multicollinearity of the independent variables. The findings of the predictions were reasonable and according to what was expected: the Discriminant Analysis was outperformed by the Logistic Regression that was also outperformed by the Artificial Neural Networks.
555

Sistema de sensoriamento a fibra óptica para determinação da concentração de sacarose e etanol aplicado a amostras de usinas sucroalcooleiras / Determination of sucrose and ethanol concentrations by optical fiber sensor applied to samples of sugarcane bioethanol industry

Fujiwara, Eric, 1985- 20 August 2018 (has links)
Orientador: Carlos Kenichi Suzuki / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecânica / Made available in DSpace on 2018-08-20T17:12:05Z (GMT). No. of bitstreams: 1 Fujiwara_Eric_D.pdf: 5349924 bytes, checksum: 5d22c78339d16b6b47642d55e95139cb (MD5) Previous issue date: 2012 / Resumo: O monitoramento eficiente dos diversos estágios de uma usina sucroalcooleira é uma característica essencial para aprimoramento do processo, minimizando as perdas e garantindo a qualidade dos produtos. Nesta pesquisa, foi desenvolvido um sensor a fibra óptica baseado em refletometria para determinação da concentração de etanol e sacarose, aplicado ao monitoramento de produtos, co-produtos e efluentes da usina. Os sinais coletados pelo sistema de sensoriamento foram processados por redes neurais artificiais, viabilizando o cálculo do teor de sacarose e etanol em soluções binárias com erro médio de 0,2 wt% e 1,5 vol%, respectivamente. No caso da medição de amostras de usina, a concentração de sacarose foi obtida com erros menores do que 3 wt%, enquanto que o teor de etanol foi calculado com erros menores a 4 vol%. Adicionalmente, o sistema de sensoriamento foi aplicado no monitoramento em tempo real da etapa de fermentação alcoólica, demonstrando que a tecnologia permite identificar o término da conversão de açúcares em etanol, evitando o tempo ocioso do processo. A metodologia foi também utilizada em medida colaborativa com um sensor capacitivo por eletrodos interdigitados, proporcionando uma redução significativa no erro de medição a valores de até 0,03 vol% no teor de etanol. Finalmente, foi proposta uma técnica inovadora para análise de líquidos baseada na análise em freqüência de sinais ópticos por correlação de hologramas gerados por ruído modal, viabilizando a detecção da massa da amostra com erro médio de 0,48 g, assim como a aferição da viscosidade dinâmica com erro de 0,08 mPa, sendo que estas informações podem ser utilizadas para estimar a concentração da amostra por meio do cálculo da densidade ou da própria viscosidade. Com o desenvolvimento deste projeto de pesquisa, espera-se contribuir com as áreas de tecnologia de instrumentação, automação, e dispositivos fotônicos, proporcionando melhorias significativas para o monitoramento de processos de fabricação de açúcar e álcool em usinas sucroalcooleiras, através de uma técnica minimamente invasiva com boa sensibilidade, resposta em tempo real, possibilidades para automação e relativo baixo custo de implementação / Abstract: The monitoring of the several stages of sugarcane-based ethanol industry is essential for the plant optimization, by reducing the losses and preserving the quality of the products. In this research, a reflectometry-based optical fiber sensor for the determination of ethanol and sucrose concentrations in products, process streams and effluents of bioethanol industry was developed. The signals obtained by the sensing system were processed by artificial neural network algorithms, yielding the prediction of sugar and alcohol contents in binary solutions with average errors of 0.2 wt% and 1.5 vol%, respectively. In case of the samples of bioethanol industry, the measurement errors were lower than 4 vol% and 3 wt% for the sucrose and ethanol contents, respectively. Furthermore, the fiber sensor was applied on the real-time monitoring of the fermentation process, allowing the identification of the end of the conversion of sugars to ethanol. The methodology was also utilized on the collaborative measurement with the interdigitated capacitive sensor, resulting in the detection of ethanol concentration with errors lower than 0.03 vol%. Finally, an innovative technique for the determination of properties of liquids based on the frequency analysis of speckle holograms generated due to modal noise was proposed, yielding the prediction of mass and viscosity of the hydroalcoholic samples with errors lower than 0.48 g and 0.08 mPa, respectively. The results of this research will contribute to the areas of instrumentation, automation, and photonic devices, generating enhancements for the monitoring of the ethanol and sugar production plants, by providing a minimally invasive and sensitive technique, with real-time response, and relative low cost / Doutorado / Materiais e Processos de Fabricação / Doutor em Engenharia Mecânica
556

AN INFORMATION SYSTEM ARCHITECTURE TO SUPPORT AND TO PARTLY AUTOMATE PROCESS MODELLING : RETHINKING THE IDEA OF ARTIFICIAL NEURAL NETWORKS

Haselbauer, Sarah January 2011 (has links)
Process modelling is one of the extensively time consuming tasks within the fieldof process management. This thesis represents an alternative approach minimizing the effort for process modelling based on an intelligent, self-learning system.The current situation of process management in practise is the starting point forthe definition of the requirements which an appropriate information system architecture has to fulfil to solve the issues of contemporary process modelling. The current situation is described by a combination of theoretical considerations aboutcontemporary process management and a survey estimating the efforts needed tomodel and update process descriptions and diagrams out of several, very different documents. The identified requirements represent the groundwork for the derivation of manda-tory features and the architectural composition of the basic components of an intelligent software system and its integration in a process manager’s work. Moreover the effects of the integration of the defined intelligent software system on the social-technical interactions within organizations are sketched. Because text analysis and the transformation of texts into process diagrams crucially influences efficiency and effectivity in process management appropriate, established technologies are comparatively evaluated and discussed regarding theirability to reduce these efforts. According to the identified advantages and limitations of artificial neural networks within the qualitative comparison of the dif-ferent technologies a new concept was developed to fit the needs more holisticthan the existing concepts. The new concept consists of aspects of different established technologies, biological findings and philosophical thoughts about the impossibility of a physical representation of human mind. It results in a conceptof three-dimensional, spatiotemporal flexible, artificial neural networks, which change themselves permanently. A final qualitative comparison figures out thedifferences between the characteristics of existing concepts of artificial neural networks and determines the improvements and benefits the new concept of neural networks achieves.
557

Application of FPGA to real-time machine learning: hardware reservoir computers and software image processing

Antonik, Piotr 09 September 2017 (has links)
Reservoir computing est un ensemble de techniques permettant de simplifierl’utilisation des réseaux de neurones artificiels. Les réalisations expérimentales,notamment optiques, de ce concept ont montré des performances proches de l’étatde l’art ces dernières années. La vitesse élevée des expériences optiques ne permetpas d’y intervenir en temps réel avec un ordinateur standard. Dans ce travail, nousutilisons une carte de logique programmable (Field-Programmable Gate Array, ouFPGA) très rapide afin d’interagir avec l’expérience en temps réel, ce qui permetde développer de nouvelles fonctionnalités.Quatre expériences ont été réalisées dans ce cadre. La première visait à implé-menter un algorithme de online training, permettant d’optimiser les paramètresdu réseau de neurones en temps réel. Nous avons montré qu’un tel système étaitcapable d’accomplir des tâches réalistes dont les consignes variaient au cours dutemps.Le but de la deuxième expérience était de créer un reservoir computer optiquepermettant l’optimisation de ses poids d’entrée suivant l’algorithme de backpropaga-tion through time. L’expérience a montré que cette idée était tout à fait réalisable,malgré les quelques difficultés techniques rencontrées. Nous avons testé le systèmeobtenu sur des tâches complexes (au-delà des capacités de reservoir computers clas-siques) et avons obtenu des résultats proches de l’état de l’art.Dans la troisième expérience nous avons rebouclé notre reservoir computer op-tique sur lui-même afin de pouvoir générer des séries temporelles de façon autonome.Le système a été testé avec succès sur des séries périodiques et des attracteurs chao-tiques. L’expérience nous a également permis de mettre en évidence les effets debruit expérimental dans les systèmes rebouclés.La quatrième expérience, bien que numérique, visait le développement d’unecouche de sortie analogique. Nous avons pu vérifier que la méthode de onlinetraining, développée précédemment, était robuste contre tous les problèmes expéri-mentaux étudiés. Par conséquent, nous avons toutes les informations pour réalisercette idée expérimentalement.Finalement, durant les derniers mois de ma thèse, j’ai effectué un stage dont lebut était d’appliquer mes connaissance en programmation de FPGA et réseaux deneurones artificiels à un problème concret en imagerie cardiovasculaire. Nous avonsdéveloppé un programme capable d’analyser les images en temps réel, convenablepour des applications cliniques. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
558

Hluboké neuronové sítě a jejich využití při zpracování ekonomických dat / Deep neural networks and their application for economic data processing

Witzany, Tomáš January 2017 (has links)
Title: Deep neural networks and their application for economic data processing Author: Bc. Tomáš Witzany Department: Department of Theoretical Computer Science and Mathematical Logic Supervisor: Doc. RNDr. Iveta Mrázová, CSc., Department of Theoretical Com- puter Science and Mathematical Logic Abstract: Analysis of macroeconomic time-series is key for the informed decisions of national policy makers. Economic analysis has a rich history, however when considering modeling non-linear dependencies there are many unresolved issues in this field. One of the possible tools for time-series analysis are machine learn- ing methods. Of these methods, neural networks are one of the commonly used methods to model non-linear dependencies. This work studies different types of deep neural networks and their applicability for different analysis tasks, including GDP prediction and country classification. The studied models include multi- layered neural networks, LSTM networks, convolutional networks and Kohonen maps. Historical data of the macroeconomic development across over 190 differ- ent countries over the past fifty years is presented and analysed. This data is then used to train various models using the mentioned machine learning methods. To run the experiments we used the services of the computer center MetaCentrum....
559

Lane Change Intent Analysis for Preceding Vehicles : a Study Using Various Machine Learning Techniques / Analys av framförvarande fordons filbytesintentioner : En studie utnyttjande koncept från maskininlärning

Fredrik, Ljungberg January 2017 (has links)
In recent years, the level of technology in heavy duty vehicles has increased significantly. Progress has been made towards autonomous driving, with increaseddriver comfort and safety, partly by use of advanced driver assistance systems (ADAS). In this thesis the possibilities to detect and predict lane changes for the preceding vehicle are studied. This important information will help to improve the decision-making for safety systems. Some suitable approaches to solving the problem are presented, along with an evaluation of their related accuracies. The modelling of human perceptions and actions is a challenging task. Several thousand kilometers of driving data was available, and a reasonable course of action was to let the system learn from this off-line. For the thesis it was therefore decided to review the possibility to utilize a branch within the area of artificial intelligence, called supervised learning. The study of driving intentions was formulatedas a binary classification problem. To distinguish between lane-change and lane-keep actions, four machine learning-techniques were evaluated, namely naive Bayes, artificial neural networks, support vector machines and Gaussian processes. As input to the classifiers, fused sensor signals from today commercially accessible systems in Scania vehicles were used. The project was carried out within the boundaries of a Master’s Thesis projectin collaboration between Linköping University and Scania CV AB. Scania CV AB is a leading manufacturer of heavy trucks, buses and coaches, alongside industrialand marine engines.
560

[en] DESIGN, OPTIMIZATION, SIMULATION AND PREDICTION OF NANOSTRUCTURES PROPERTIES BY COMPUTATIONAL INTELLIGENCE TECHNIQUES: INTELLIGENT COMPUTATIONAL NANOTECHNOLOGY / [pt] PROJETO, OTIMIZAÇÃO, SIMULAÇÃO E PREDIÇÃO DE PROPRIEDADES DE NANOESTRUTURAS ATRAVÉS DE TÉCNICAS DA INTELIGÊNCIA COMPUTACIONAL: NANOTECNOLOGIA COMPUTACIONAL INTELIGENTE

OMAR PARANAIBA VILELA NETO 12 February 2010 (has links)
[pt] Esta tese investiga a Nanotecnologia Computacional Inteligente, isto é, o apoio de técnicas de Inteligência Computacional (IC) nos desafios enfrentados pela Nanociência e Nanotecnologia. Por exemplo, utilizam-se as Redes Neurais para construir sistemas de inferência capazes de relacionar um conjunto de parâmetros de entrada com as características finais das nanoestruturas, permitindo aos pesquisadores prever o comportamento de outras nanoestruturas ainda não realizadas experimentalmente. A partir dos sistemas de inferência, Algoritmos Genéticos são então empregados com o intuito de encontrar o conjunto ótimo de parâmetros de entrada para a síntese (projeto) de uma nanoestrutura desejada. Numa outra linha de investigação, os Algoritmos Genéticos são usados para a otimização de parâmetros de funções de base para cálculos ab initio. Neste caso, são otimizados os expoentes das funções gaussianas que compõem as funções de base. Em outra abordagem, os Algoritmos Genéticos são aplicados na otimização de agregados atômicos e moleculares, permitindo aos pesquisadores estudar teoricamente os agregados formados experimentalmente. Por fim, o uso destes algoritmos, aliado ao uso de simuladores, é aplicado na síntese automática de OLEDs e circuitos de Autômatos Celulares com Pontos Quânticos (QCA). Esta pesquisa revelou o potencial da IC em aplicações inovadoras. Os sistemas híbridos de otimização e inferência, por exemplo, concebidos para prever a altura, a densidade e o desvio padrão de pontos quânticos auto-organizáveis, apresentam altos níveis de correlação com os resultados experimentais e baixos erros percentuais (inferior a 10%). O módulo de elasticidade de nanocompósitos também é previsto por um sistema semelhante e apresenta erros percentuais ainda menores, entorno de 4%. Os Algoritmos Genéticos, juntamente com o software de modelagem molecular Gaussian03, otimizam os parâmetros de funções que geram expoentes de primitivas gaussianas de funções de base para cálculos hartree-fock, obtendo energias menores do que aquelas apresentadas nas referencias. Em outra aplicação, os Algoritmos Genéticos também se mostram eficientes na busca pelas geometrias de baixa energia dos agregados atômicos de (LiF)nLi+, (LiF)n e (LiF)nF-, obtendo uma série de novos isômeros ainda não propostos na literatura. Uma metodologia semelhante é aplicada em um sistema inédito para entender a formação de agregados moleculares de H2O iônicos, partindo-se de agregados neutros. Os resultados mostram como os agregados podem ser obtidos a partir de diferentes perspectivas, formando estruturas ainda não investigadas na área científica. Este trabalho também apresenta a síntese automática de circuitos de QCA robustos. Os circuitos obtidos apresentam grau de polarização semelhante àqueles propostos pelos especialistas, mas com uma importante redução na quantidade de células. Por fim, um sistema envolvendo Algoritmos Genéticos e um modelo analítico de OLEDs multicamadas otimizam as concentrações de materiais orgânicos em cada camada com o intuito de obter dispositivos mais eficientes. Os resultados revelam um dispositivo 9,7% melhor que a solução encontrada na literatura, sendo estes resultados comprovados experimentalmente. Em resumo, os resultados da pesquisa permitem constatar que a inédita integração das técnicas de Inteligência Computacional com Nanotecnologia Computacional, aqui denominada Nanotecnologia Computacional Inteligente, desponta como uma promissora alternativa para acelerar as pesquisas em Nanociência e o desenvolvimento de aplicações nanotecnológicas. / [en] This thesis investigates the Intelligent Computational Nanotechnology, that is, the support of Computational Intelligence (CI) techniques in the challenges faced by the Nanoscience and Nanotechnology. For example, Neural Networks are used for build Inference systems able to relate a set of input parameters with the final characteristics of the nanostructures, allowing the researchers foresees the behavior of other nanostructures not yet realized experimentally. From the inference systems, Genetic Algorithms are then employees with the intention of find the best set of input parameters for the synthesis (project) of a desired nanostructure. In another line of inquiry, the Genetic Algorithms are used for the base functions optimization used in ab initio calculations. In that case, the exponents of the Gaussian functions that compose the base functions are optimized. In another approach, the Genetic Algorithms are applied in the optimization of molecular and atomic clusters, allowing the researchers to theoretically study the experimentally formed clusters. Finally, the use of these algorithms, use together with simulators, is applied in the automatic synthesis of OLEDs and circuits of Quantum Dots Cellular Automata (QCA). This research revealed the potential of the CI in innovative applications. The hybrid systems of optimization and inference, for example, conceived to foresee the height, the density and the height deviation of self-assembled quantum dots, present high levels of correlation with the experimental results and low percentage errors (lower to 10%). The Young’s module of nanocomposites is also predicted by a similar system and presents percentage errors even smaller, around 4%. The Genetic Algorithms, jointly with the package of molecular modeling Gaussian03, optimize the parameters of functions that generate exponents of primitive Gaussian functions of base sets for hartree-fock calculations, obtaining smaller energies than those presented in the literature. In another application, the Genetic Algorithms are also efficient in the search by the low energy geometries of the atomic clusters of (LiF) nLi +, (LiF) n and (LiF) nF-, obtaining a set of new isomers yet not propose in the literature. A similar methodology is applied in an unpublished system for understand the formation of molecular cluster of ionic H2O from neutral clusters. The results show how the clusters can be obtained from different perspectives, forming structures not yet investigate in the scientific area. This work also presents the automatic synthesis of robust QCA circuits. The circuits obtained present high polarization, similar to those proposed by the specialists, but with an important reduction in the quantity of cells. Finally, a system involving Genetic Algorithms and an analytic model of multilayer OLEDs optimize the concentrations of organic material in each layer in order to obtain more efficient devices. The results reveal a device 9.7% better that the solution found in the literature, being these results verified experimentally. In summary, the results of the proposed research allow observe that the unpublished integration of the techniques of Computational Intelligence with Computational Nanotechnology, here named Intelligent Computational Nanotechnology, emerges as a promising alternative for accelerate the researches in Nanoscince and the development of application in Nanotechnology.

Page generated in 0.1245 seconds