• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 22
  • 10
  • Tagged with
  • 32
  • 32
  • 18
  • 18
  • 18
  • 11
  • 11
  • 10
  • 8
  • 7
  • 7
  • 6
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

[en] USE OF ARTIFICIAL NEURAL NETWORKS IN THE RECOGNITION OF BI-DIMENSION IMAGES / [pt] REDES NEURAIS APLICADAS AO RECONHECIMENTO DE IMAGENS BI-DIMENSIONAIS

GUY PERELMUTER 05 July 2006 (has links)
[pt] Esta dissertação investiga a aplicação de Redes Neurais Artificiais no reconhecimento de imagens bi-dimensionais. O trabalho de tese foi dividido em quatro partes principais: um estudo sobre a importância da Visão Computacional e sobre os benefícios da aplicação das técnicas da Inteligência Computacional na área; um estudo da estrutura dos sistemas de reconhecimento de imagens encontrados na literatura; o desenvolvimento de dois sistemas de reconhecimento de imagens baseados em redes neurais; e o estudo de caso e a análise de desempenho dos sistemas desenvolvidos. A Visão Computacional tem se beneficiado das principais técnicas de Inteligência Computacional (redes neurais, algoritmos genéticos e lógica nebulosa) na implementação de sistemas de reconhecimento de imagens. Neste trabalho estudou-se a aplicação de diversos tipos de redes neurais na classificação de imagens Back-Propagation, Competitivas, RBF e Hierárquicas. Além disso, foi realizado um estudo das áreas de aplicação da Visão Computacional. A estrutura básica utilizada por diversos sistemas de Visão Computacional encontrada na literatura foi analisada. Esta estrutura é tipicamente composta por três módulos principais: um pré-processador, um extrator de características e um classificador. Dois sistemas de reconhecimento de imagens, denominados de XVision e SimpleNet, foram desenvolvidos neste trabalho. O sistema XVision segue a estrutura descrita acima, enquanto que o sistema SimpleNet utiliza a informação da imagem bruta para realizar a classificação. O módulo de pré-processamento do sistema XVision executa uma série de transformações na imagem, extraindo suas características intrínsecas para que seja obtida uma representação da imagem invariante a aspectos como rotação, translação e escalonamento. Este Pré- Processador é baseado em um trabalho previamente realizado no campo de Processamento de Sinais. A etapa de extração de características visa detectar as informações mais relevantes contidas na representação da imagem intrínseca obtida na etapa anterior. Foram investigados extratores baseados em técnicas estatísticas (utilizando o discriminante de Fisher) e em técnicas inteligentes (utilizando algoritmos genéticos). Para o módulo de classificação das imagens foram utilizados diversos tipos de redes neurais artificiais: Back-Propagation, Competitivas, RBFs e Hierárquicas. No sistema SimpleNet, o pré-processamento limita-se à redução das dimensões da imagem a ser classificada. Como os próprios pixels da imagem são utilizados para a classificação, não foi implementado um módulo de extração de características. Na etapa de classificação foram empregadas redes neurais Back- Propagation e Competitivas. O sistema XVision apresentou resultados promissores para dois conjuntos distintos de objetos bi-dimensionais: o primeiro composto por peças mecânicas e o segundo por objetos triviais. As amostras utilizadas nos testes apresentavam características diferentes daquelas com as quais as redes neurais foram treinadas - não apenas com rotações, translações e escalonamentos, mas com diferenças estruturais. O classificador conseguiu taxas de acerto superiores a 83% em ambos os conjuntos de objetos. O sistema SimpleNet também mostrou-se eficiente na diferenciação de imagens semelhantes (cartões telefônicos e radiografias de pulmões), obtendo taxas de acerto superiores a 80%. O desenvolvimento destes sistemas demonstrou a viabilidade da aplicação de redes neurais na classificação de objetos bi- dimensionais. Devido ao grande interesse na utilização de sistemas de Visão em aplicações de tempo real, mediu-se o tempo gasto nos processos de reconhecimento. Desta forma foram detectados os garagalos dos sistemas, facilitando assim sua otimização. / [en] This work investigates the use of Artificial Neural Networks in the recognition of bi-dimensional images. The work was divided in four main parts: a survey on the importance of Computational Vision and on the benefits of the application of intelligent techniques in the fiels; a survey on the structure of image recognition systems found in the literature; the development of two image recognition systems based on neural networks; and an analysis of the performance of the developed systems. Computational Vision has benefited from the main Computational Intelligence techniques (neural networks, genetic algoritms and fuzzy logic) to implement image recognition systems. In this work, the usage of different Kinds of neural networks in image classification was studied: Back-Propagation, Competitive, RBF and Hierarchical. Besiades that, a survey on the fields of application of Computational Vision was made. The basic structure is typically composed of three modules: a pre-processor, a characteristics extractor and a classifier. In this work, two image recognition systems, called Xvision and SimpleNet, were developed. The XVision system follows the structure described above, while the SimpleNet system performs the classification using the information present in the raw picture. The pre-processing module of the Xvision system executes a series of transforms over the image, extracting its essential characteristics so that an invariant representation of the image can be obtained. This pre- processor is based on a previous work in the fiels of Signal Processing. The characteristcs extractor aims to detect the most relevant information present in the image representation obtained after the previous step. Two kinds of extractors were investigated: one based on statistical tecniques (applyng the Fisher`s discriminant) and another based on intelligent techniques (applyng genetic algorithms). The classification module was implementede through several Kinds of neural networks: Back-Propagation, Competitive, RBF and Hierarchical. The pre-processing of the SimpleNet system simply reduces the image`s dimensions. Since the image`s pixels are used for the classification process, no characteristics extractor module was implemented. In the classification module, Back-Propagation and Competitive neural networks were employed. The Xvision system yielded promising results for two sets of objects: the first one composed of mechanical parts and the second one composed of trivial objects. The samples used during the tests presented different characteristics from those samples used during the training process - not only rotated, translated and scaled, but also with structural differences. The classifier obtained a hit ratio above 83% with both sets. The SimpleNet system also showed a good performance in the differentiation of similar objects (telephone cards and X-rays of lungs), achieving hit ratios of more than 80%. The development of both systems demonstrated the viability of the use of neural networks in the classification of bi- dimensional objects. Due to the interest of applying Vision systems in real-time, the time spent in the recognition process was measured. This allowed the detection of the systems` bottlenecks, making their optimization easier.
22

[en] DESIGN, OPTIMIZATION, SIMULATION AND PREDICTION OF NANOSTRUCTURES PROPERTIES BY COMPUTATIONAL INTELLIGENCE TECHNIQUES: INTELLIGENT COMPUTATIONAL NANOTECHNOLOGY / [pt] PROJETO, OTIMIZAÇÃO, SIMULAÇÃO E PREDIÇÃO DE PROPRIEDADES DE NANOESTRUTURAS ATRAVÉS DE TÉCNICAS DA INTELIGÊNCIA COMPUTACIONAL: NANOTECNOLOGIA COMPUTACIONAL INTELIGENTE

OMAR PARANAIBA VILELA NETO 12 February 2010 (has links)
[pt] Esta tese investiga a Nanotecnologia Computacional Inteligente, isto é, o apoio de técnicas de Inteligência Computacional (IC) nos desafios enfrentados pela Nanociência e Nanotecnologia. Por exemplo, utilizam-se as Redes Neurais para construir sistemas de inferência capazes de relacionar um conjunto de parâmetros de entrada com as características finais das nanoestruturas, permitindo aos pesquisadores prever o comportamento de outras nanoestruturas ainda não realizadas experimentalmente. A partir dos sistemas de inferência, Algoritmos Genéticos são então empregados com o intuito de encontrar o conjunto ótimo de parâmetros de entrada para a síntese (projeto) de uma nanoestrutura desejada. Numa outra linha de investigação, os Algoritmos Genéticos são usados para a otimização de parâmetros de funções de base para cálculos ab initio. Neste caso, são otimizados os expoentes das funções gaussianas que compõem as funções de base. Em outra abordagem, os Algoritmos Genéticos são aplicados na otimização de agregados atômicos e moleculares, permitindo aos pesquisadores estudar teoricamente os agregados formados experimentalmente. Por fim, o uso destes algoritmos, aliado ao uso de simuladores, é aplicado na síntese automática de OLEDs e circuitos de Autômatos Celulares com Pontos Quânticos (QCA). Esta pesquisa revelou o potencial da IC em aplicações inovadoras. Os sistemas híbridos de otimização e inferência, por exemplo, concebidos para prever a altura, a densidade e o desvio padrão de pontos quânticos auto-organizáveis, apresentam altos níveis de correlação com os resultados experimentais e baixos erros percentuais (inferior a 10%). O módulo de elasticidade de nanocompósitos também é previsto por um sistema semelhante e apresenta erros percentuais ainda menores, entorno de 4%. Os Algoritmos Genéticos, juntamente com o software de modelagem molecular Gaussian03, otimizam os parâmetros de funções que geram expoentes de primitivas gaussianas de funções de base para cálculos hartree-fock, obtendo energias menores do que aquelas apresentadas nas referencias. Em outra aplicação, os Algoritmos Genéticos também se mostram eficientes na busca pelas geometrias de baixa energia dos agregados atômicos de (LiF)nLi+, (LiF)n e (LiF)nF-, obtendo uma série de novos isômeros ainda não propostos na literatura. Uma metodologia semelhante é aplicada em um sistema inédito para entender a formação de agregados moleculares de H2O iônicos, partindo-se de agregados neutros. Os resultados mostram como os agregados podem ser obtidos a partir de diferentes perspectivas, formando estruturas ainda não investigadas na área científica. Este trabalho também apresenta a síntese automática de circuitos de QCA robustos. Os circuitos obtidos apresentam grau de polarização semelhante àqueles propostos pelos especialistas, mas com uma importante redução na quantidade de células. Por fim, um sistema envolvendo Algoritmos Genéticos e um modelo analítico de OLEDs multicamadas otimizam as concentrações de materiais orgânicos em cada camada com o intuito de obter dispositivos mais eficientes. Os resultados revelam um dispositivo 9,7% melhor que a solução encontrada na literatura, sendo estes resultados comprovados experimentalmente. Em resumo, os resultados da pesquisa permitem constatar que a inédita integração das técnicas de Inteligência Computacional com Nanotecnologia Computacional, aqui denominada Nanotecnologia Computacional Inteligente, desponta como uma promissora alternativa para acelerar as pesquisas em Nanociência e o desenvolvimento de aplicações nanotecnológicas. / [en] This thesis investigates the Intelligent Computational Nanotechnology, that is, the support of Computational Intelligence (CI) techniques in the challenges faced by the Nanoscience and Nanotechnology. For example, Neural Networks are used for build Inference systems able to relate a set of input parameters with the final characteristics of the nanostructures, allowing the researchers foresees the behavior of other nanostructures not yet realized experimentally. From the inference systems, Genetic Algorithms are then employees with the intention of find the best set of input parameters for the synthesis (project) of a desired nanostructure. In another line of inquiry, the Genetic Algorithms are used for the base functions optimization used in ab initio calculations. In that case, the exponents of the Gaussian functions that compose the base functions are optimized. In another approach, the Genetic Algorithms are applied in the optimization of molecular and atomic clusters, allowing the researchers to theoretically study the experimentally formed clusters. Finally, the use of these algorithms, use together with simulators, is applied in the automatic synthesis of OLEDs and circuits of Quantum Dots Cellular Automata (QCA). This research revealed the potential of the CI in innovative applications. The hybrid systems of optimization and inference, for example, conceived to foresee the height, the density and the height deviation of self-assembled quantum dots, present high levels of correlation with the experimental results and low percentage errors (lower to 10%). The Young’s module of nanocomposites is also predicted by a similar system and presents percentage errors even smaller, around 4%. The Genetic Algorithms, jointly with the package of molecular modeling Gaussian03, optimize the parameters of functions that generate exponents of primitive Gaussian functions of base sets for hartree-fock calculations, obtaining smaller energies than those presented in the literature. In another application, the Genetic Algorithms are also efficient in the search by the low energy geometries of the atomic clusters of (LiF) nLi +, (LiF) n and (LiF) nF-, obtaining a set of new isomers yet not propose in the literature. A similar methodology is applied in an unpublished system for understand the formation of molecular cluster of ionic H2O from neutral clusters. The results show how the clusters can be obtained from different perspectives, forming structures not yet investigate in the scientific area. This work also presents the automatic synthesis of robust QCA circuits. The circuits obtained present high polarization, similar to those proposed by the specialists, but with an important reduction in the quantity of cells. Finally, a system involving Genetic Algorithms and an analytic model of multilayer OLEDs optimize the concentrations of organic material in each layer in order to obtain more efficient devices. The results reveal a device 9.7% better that the solution found in the literature, being these results verified experimentally. In summary, the results of the proposed research allow observe that the unpublished integration of the techniques of Computational Intelligence with Computational Nanotechnology, here named Intelligent Computational Nanotechnology, emerges as a promising alternative for accelerate the researches in Nanoscince and the development of application in Nanotechnology.
23

[en] MODELING YOUNGS MODULUS OF NANOCOMPOSITES THROUGH COMPUTATIONAL INTELLIGENCE / [pt] MODELAGEM DO MÓDULO DE YOUNG EM NANOCOMPÓSITOS ATRAVÉS DE INTELIGÊNCIA COMPUTACIONAL

LEANDRO FONTOURA CUPERTINO 17 March 2010 (has links)
[pt] Materiais compósitos são a base de muitos produtos, devido à sua capacidade de aperfeiçoar certas propriedades. Recentemente, a utilização de nanocargas na fabricação de compósitos vem sendo amplamente estudada, pois a partir de concentrações baixas de nanocargas, as propriedades começam a melhorar, possibilitando a criação de materiais leves e com uma grande gama de propriedades. Uma das propriedades mecânicas mais estudadas é o módulo de Young, que mensura a rigidez de um material. Alguns dos modelos existentes para essa propriedade em nanocompósitos pecam na precisão ou são limitados em função da fração máxima de nanopartículas admissível no modelo. Outros se adequam apenas a uma determinada combina ção de matriz/carga preestabelecida. O objetivo deste trabalho é utilizar Redes Neurais Artificiais como um aproximador capaz de modelar tal propriedade para diversas matrizes/cargas, levando em consideração suas características, sem perder a precisão. A validação do aproximador é realizada comparando o resultado com outros modelos propostos na literatura. Uma vez validada, utiliza-se Algoritmos Genéticos em conjunto com tal rede para definir qual seria a configuração ideal para três casos de estudo: um que maximize o valor do módulo de Young, outro que maximize o módulo relativo e um terceiro que maximize o módulo relativo e minimize a quantidade de carga utilizada, diminuindo os custos de projeto. As técnicas de Inteligência Computacional empregadas na modelagem e síntese de materiais nanoestruturados se mostraram boas ferramentas, uma vez que geraram uma boa aproximação dos dados utilizados com erros inferiores a 5%, além de possibilitarem a determinação dos parâmetros de síntese de um material com o módulo de Young desejado. / [en] Composite materials became very popular due to its improvements on certain properties achieved from the mixture of two different components. Recently, the use of nanofillers in the manufacture of composites has been widely studied due to the improvement of properties at low concentrations of nanofillers, enabling the creation of lightweight materials. Some of the existing models for the Young modulus of the nanocomposites have low accuracy or are limited in terms of the maximum filler fraction possible. Others are appropriate only for a given combination of matrix and filler. The objective of this work is to use Artificial Neural Networks as a function approximation method capable of modeling such property for various matrix/nanofillers, taking into account their characteristics, without losing accuracy. The validation of this approximator is performed comparing its results with other models proposed in the literature. Once validated, a Genetic Algorithm is used with the Neural Network to define which would be the ideal setting for three case studies: one that maximizes the value of composite’s Young’s modulus, other that maximizes the relative modulus and a third one that maximizes the relative modulus and minimizes the amount of load used, reducing the cost of project. Computational Intelligence techniques employed on the modeling and synthesis of nanostructured materials proved to be adequate tools, since it generated a good approximation of the data with errors lower than 5%, and determined the material’s parameters for synthesis with the desired Young’s modulus.
24

[en] ARTIFICIAL IMMUNE SYSTEMS APPLIED TO FAULT DETECTION / [pt] SISTEMAS IMUNOLÓGICOS ARTIFICIAIS APLICADOS À DETECÇÃO DE FALHAS

JORGE LUIS M DO AMARAL 03 May 2006 (has links)
[pt] Este trabalho investiga métodos de detecção de falhas baseados em sistemas imunológicos artificiais, especificamente aqueles baseados no algoritmo de seleção negativa (NSA) e em outras técnicas de reconhecimento próprio/nãopróprio. Inicialmente, foi proposto um esquema de representação baseado em hiperesferas com centros e raios variáveis e três modelos capazes de gerar detectores, com esta representação, de forma eficiente. O primeiro modelo utiliza algoritmos genéticos onde cada gene do cromossomo contém um índice para um ponto de uma distribuição quasi-aleatória que servirá como centro do detector e uma função decodificadora responsável por determinar os raios apropriados. A aptidão do cromossomo é dada por uma estimativa do volume coberto através uma integral de Monte Carlo. O segundo modelo utiliza o particionamento Quadtree para gerar o posicionamento dos detectores e o valor dos raios. Este modelo pode realizar o particionamento a partir de uma função de detecção ou através de divisões recursivas de um detector inicial que ocupa todo o espaço. O terceiro modelo é inspirado nas redes imunológicas. Neste modelo, as células B representam os detectores e a rede formada por eles dá a posição e o raio de cada detector. Experimentos com dados sintéticos e reais demonstram a capacidade dos algoritmos propostos e que eles apresentam melhorias nos aspectos de escalabilidade e desempenho na detecção de falhas. / [en] This work investigates fault detection methods based on Artificial Immune Systems, specifically the negative selection algorithm (NSA) and other self/nonself recognition techniques. First, there was proposed a representation scheme based on hyperspheres with variable center and radius, and three models, which are very capable to generate detectors, based on that representation scheme, in an effective way. The first model employs Genetic Algorithms where each chromosome gene represents an index to a point in a quasi- random distribution, that will serve as a detector center, a decoder function will be responsible to determine the appropriate radius. The chromosome fitness is given by a valuation of the covered volume, which is calculated through a Monte Carlo integral. The second model uses the Quadtree space partition technique to generate the detectors positions and their radius. The space partition could be done by using a detection function or by recursive divisions of an initial detector that occupies the whole space. In third model, inspired on immune networks, the B cells represent the detectors and the network that is established by them gives the location and radius of each detector. Experiments with syntetic and real data show that the proposed algorithms improve scalability and perform better in fault detection.
25

[en] ARTIFICIAL NEURAL NETWORKS APPLIED TO INTRUSION DETECTION ON TCP/IP NETWORKS / [pt] REDES NEURAIS ARTIFICIAIS APLICADAS À DETECÇÃO DE INTRUSÃO EM REDES TCP/IP

RENATO MAIA SILVA 25 October 2005 (has links)
[pt] Ataques e intrusões são uma ameaça constante para empresas e organizações interconectadas através de redes de pacotes e da Internet. Ferramentas tradicionais de detecção de ataques e intrusões dependem de conhecimento prévio sobre as técnicas de ataque não sendo capazes de detectar novas técnicas de ataques. Este trabalho investiga a aplicação de redes neurais artificiais no auxílio à detecção de intrusão em redes de pacotes TCP/IP. Utilizando a capacidade de generalização das redes neurais, espera-se que o sistema detecte novos ataques mantendo uma alta taxa de acertos. É empregado também técnica de comitê de redes neurais especialistas para obtenção de maior precisão e menor taxa alarmes falsos. / [en] Computer attacks and intrusions poses significant threats to companies and organizations interconnected through packet networks and the Internet. Most current approaches to intrusion detection rely on previous knowledge of attack patterns and are not capable of detecting new intrusion techniques. This work presents the application of artificial neural networks as a component of an intrusion detection system. Exploring neural networks generalization capabilities the system should be able to detect new attack patterns and sustain a high detection rate. Neural networks ensembles are also used in order to achieve higher accuracy and lower false-positive rates.
26

[en] INFERENCE OF THE QUALITY OF DESTILLATION PRODUCTS USING ARTIFICIAL NEURAL NETS AND FILTER OF EXTENDED KALMAN / [pt] INFERÊNCIA DA QUALIDADE DE PRODUTOS DE DESTILAÇÃO UTILIZANDO REDES NEURAIS ARTIFICIAIS E FILTRO DE KALMAN ESTENDIDO

LEONARDO GUILHERME CAETANO CORREA 19 December 2005 (has links)
[pt] Atualmente cresce o interesse científico e industrial na elaboração de métodos de controle não lineares. Porém, estes modelos costumam ter difícil implementação e um custo elevado até que se obtenha uma ferramenta de controle confiável. Desta forma, estudos na área de métodos de apoio à decisão procuram desenvolver aplicações inteligentes com custos reduzidos, capazes de executar controles industriais avançados com excelentes resultados, como no caso da indústria petroquímica. Na destilação de derivados de petróleo, por exemplo, é comum fazer uso de análises laboratoriais de amostras para identificar se uma substância está com suas características físico-químicas dentro das normas internacionais de produção. Além disso, o laudo pericial desta análise permite regular os instrumentos da planta de produção para que se consiga um controle mais acurado do processo e, conseqüentemente, um produto final com maior qualidade. Entretanto, apesar da análise laboratorial ter maior acurácia nos resultados que avaliam a qualidade do produto final, exige, às vezes, muitas horas de análise, o que retarda o ajuste dos equipamentos de produção, reduzindo a eficiência do processo e aumentando o tempo de produção de certos produtos, que precisam ter sua composição, posteriormente, corrigida com outros reagentes. Outra desvantagem está relacionada aos custos de manutenção e calibração dos instrumentos localizados na área de produção, pois, como estes equipamentos estão instalados em ambientes hostis, normalmente sofrem uma degradação acelerada, o que pode gerar leituras de campo erradas, dificultando a ação dos operadores. Em contrapartida, dentre os métodos inteligentes mais aplicados em processos industriais químicos, destacam-se as redes neurais artificiais. Esta estrutura se inspira nos neurônios biológicos e no processamento paralelo do cérebro humano, tendo assim a capacidade de armazenar e utilizar o conhecimento experimental que for a ela apresentado. Apesar do bom resultado que a estrutura de redes neurais gera, existe uma desvantagem relacionada à necessidade de re-treinamento da rede quando o processo muda seu ponto de operação, ou seja, quando a matériaprima sofre algum tipo de mudança em suas características físico-químicas. Como solução para este problema, foi elaborado um método híbrido que busca reunir as vantagens de uma estrutura de redes neurais com a habilidade de um filtro estocástico, conhecido por filtro de Kalman estendido. Em termos práticos, o filtro atua em cima dos pesos sinápticos da rede neural, atualizando os mesmos em tempo real e permitindo assim que o sistema se adapte constantemente às variações de mudança de processo. O sistema também faz uso de pré-processamentos específicos para eliminar ruídos dos instrumentos de leitura, erros de escalas e incompatibilidade entre os sinais de entrada e saída do sistema, que foram armazenados em freqüências distintas; o primeiro em minutos e o segundo em horas. Além disso, foram aplicadas técnicas de seleção de variáveis para melhorar o desempenho da rede neural no que diz respeito ao erro de inferência e ao tempo de processamento. O desempenho do método foi avaliado em cada etapa elaborada através de diferentes grupos de testes utilizados para verificar o que cada uma delas agregou ao resultado final. O teste mais importante, executado para avaliar a resposta da metodologia proposta em relação a uma rede neural simples, foi o de mudança de processo. Para isso, a rede foi submetida a um grupo de teste com amostras dos sinais de saída somados a um sinal tipo rampa. Os experimentos mostraram que o sistema, utilizando redes neurais simples, apresentou um resultado com erros MAPE em torno de 1,66%. Por outro lado, ao utilizar redes neurais associadas ao filtro de Kalman estendido, o erro cai à metade, ficando em torno de 0,8%. Isto comprova que, além do filtro de Kalman não destruir a qualidade da rede neural original, ele consegue adaptá-la a mudanças de processo, permitindo, assim, que a variável de saída seja inferida adequadamente sem a necessidade de retreinamento da rede. / [en] Nowadays, scientific and industrial interest on the development of nonlinear control systems increases day after day. However, before these models become reliable, they must pass through a hard and expensive implementation process. In this way, studies involving decision support methods try to develop low cost intelligent applications to build up advanced industrial control systems with excellent results, as in the petrochemical industry. In the distillation of oil derivatives, for example, it is very common the use of laboratorial sample analysis to identify if a substance has its physical- chemistry characteristics in accordance to international production rules. Besides, the analyses results allow the adjustment of production plant instruments, so that the process reaches a thorough control, and, consequently, a final product with higher quality. However, although laboratory analyses are more accurate to evaluate final product quality, sometimes it demands many hours of analysis, delaying the adjustments in the production equipment. In this manner, the process efficiency is reduced and some products have its production period increased because they should have its composition corrected with other reagents. Another disadvantage is the equipments´ maintenance costs and calibration, since these instruments are installed in hostile environments that may cause unaccurate field measurements, affecting also operator´s action. On the other hand, among the most applied intelligent systems in chemical industry process are the artificial neural networks. Their structure is based on biological neurons and in the parallel processing of the human brain. Thus, they are capable of storing and employing experimental knowledge presented to it earlier. Despite good results presented by neural network structures, there is a disadvantage related to the need for retraining whenever the process changes its operational point, for example, when the raw material suffers any change on its physical-chemistry characteristics. The proposed solution for this problem is a hybrid method that joins the advantages of a neural network structure with the ability of a stochastic filter, known as extended Kalman filter. This filter acts in the synaptic weights, updating them online and allowing the system to constantly adapt itself to process changes. It also uses specific pre-processing methods to eliminate scale mistakes, noises in instruments readings and incompatibilities between system input and output, which are measured with different acquisition frequencies; the first one in minutes and the second one in hours. Besides, variable selection techniques were used to enhance neural network performance in terms of inference error and processing time. The method´s performance was evaluated in each process step through different test groups used to verify what each step contributes to the final result. The most important test, executed to analyse the system answer in relation to a simple neural network, was the one which simulated process changes. For that end, the network was submitted to a test group with output samples added to a ramp signal. Experiments demonstrated that a system using simple neural networks presented results with MAPE error of about 1,66%. On the other hand, when using neural networks associated to an extended Kalman filter, the error decreases to 0,8%. In this way, it´s confirmed that Kalman filter does not destroy the original neural network quality and also adapts it to process changes, allowing the output inference without the necessity of network retraining.
27

[en] DESIGN OF ORGANIC LIGHT-EMITTING DIODES SUPPORTED BY COMPUTACIONAL INTELLIGENCE TECHNIQUES / [pt] PROJETO DE DIODOS ORGÂNICOS EMISSORES DE LUZ COM O AUXÍLIO DE TÉCNICAS DA INTELIGÊNCIA COMPUTACIONAL

CARLOS AUGUSTO FEDERICO DE FARIA ROCHA COSTA 10 September 2018 (has links)
[pt] Esta dissertação trata da investigação, simulação e otimização da estrutura de Diodos Orgânicos Emissores de Luz Multicamadas (ML-OLEDs) através da utilização de técnicas da Inteligência Computacional. Além disso, um desses métodos, chamado Otimização por Colônia de Formigas (ACO), foi implementado com base em um modelo proposto na literatura e aplicado pela primeira vez na otimização de diodos orgânicos. OLEDs são dispositivos optoeletrônicos nanométricos fabricados a partir de materiais semicondutores orgânicos. Ao contrário das tecnologias tradicionais, eles conjugam elevada luminescência e baixo consumo energético. Na fabricação de um OLED, o número configurações possíveis é quase ilimitado, em função da quantidade de parâmetros que se pode variar. Isso faz com que determinação da arquitetura ótima torne-se uma tarefa não trivial. Para simular os OLEDs foram empregados dois modelos distintos de simulação. Assim, as Redes Neurais Artificiais (RNA) foram empregadas com o objetivo de emular um dos simuladores e acelerar o cálculo da densidade de corrente. Os Algoritmos Genéticos (AG) foram aplicados na determinação dos valores ótimos de espessura das camadas, mobilidades dos portadores de carga e concentração dos materiais orgânicos em OLEDs com duas camadas, enquanto o ACO foi aplicado para encontrar os valores de concentração em OLEDs com duas e cinco camadas, constituindo assim três estudos de caso. Os resultados encontrados foram promissores, sobretudo no caso das espessuras, onde houve uma confirmação experimental do dispositivo com duas camadas. / [en] This dissertation deals with the research, simulation and optimization of the structure of Multilayer Organic Light Emitting Diodes (ML-OLEDs) by using Computational Intelligence techniques. In addition, one of these methods, called Ant Colony Optimization (ACO), was implemented based on a model proposed in the literature and applied for the first time in the optimization of organic diodes. OLEDs are nanometric optoelectronic devices fabricated from organic semiconducting materials. Unlike traditional technologies, they combine high luminance and low power consumption. In the manufacturing of an OLED, the number of possible configurations is almost unlimited due to the number of parameters that can modified. Because of this the determination of the optimal architecture becomes a non-trivial task. Two different simulation models were used to simulate the OLEDs. Thus, the Artificial Neural Networks (ANN) were employed in order to work as the proxy of the commercial simulator and to accelerate the calculation of the current density. The Genetic Algorithms (GA) were applied to determine the optimal values of thickness of the layers, the charge carrier mobility and the concentration of the organic materials in OLEDs with two layers, while the ACO was applied to find the values of concentration in OLEDs with two and five layers, thus establishing three case studies. The employed strategy has proved to be promising, since it has show good results for two case studies, especially for the optimization of the thickness, where there was an experimental confirmation of the bilayer device.
28

[en] PATCH LOAD RESISTANCE USING COMPUTATIONAL INTELLIGENCE TECHNIQUES / [pt] COMPORTAMENTO DE VIGAS DE AÇO SUJEITAS A CARGAS CONCENTRADAS ATRAVÉS DE TÉCNICAS DE INTELIGÊNCIA COMPUTACIONAL

ELAINE TOSCANO FONSECA FALCAO DA SILVA 15 January 2004 (has links)
[pt] As cargas concentradas em vigas de aço são freqüentemente encontradas na prática. Nas situações onde o local de aplicação da carga é fixo, enrijecedores transversais de alma podem ser usados para aumentar a sua resistência, mas devem ser evitados por razões econômicas. Para cargas móveis, é fundamental conhecer a resistência última das almas não enrijecidas. Diversas teorias foram desenvolvidas para este problema, mas ainda assim, o erro das fórmulas de previsão é superior a 40%. Duas são as causas desta dificuldade de se encontrar uma equação mais precisa: o grande número de parâmetros que influenciam o comportamento de uma viga sujeita a cargas concentradas, e o número insuficiente de dados experimentais presentes na literatura. Por outro lado, o colapso da estrutura pode ocorrer por: plastificação, flambagem global da alma, enrugamento (crippling) ou uma combinação destes estados limites. Apesar disto, nenhum estudo foi desenvolvido para avaliar a participação total ou parcial de cada comportamento no colapso. As redes neurais são modelos computacionais inspirados na estrutura do cérebro, que apresentam características humanas como o aprendizado por experiência e a generalização do conhecimento a partir dos exemplos apresentados. Estas características permitiram, em estudos preliminares, a utilização das redes neurais na previsão da carga última de vigas de aço sujeitas a cargas concentradas. A Lógica Nebulosa tem como objetivo modelar o modo aproximado de raciocínio, tentando imitar a habilidade humana de tomar decisões racionais em um ambiente de incerteza e imprecisão. Deste modo, a Lógica Nebulosa é uma técnica inteligente que fornece um mecanismo para manipular informações imprecisas, como conceitos de esbeltez, compacidade, flexibilidade e rigidez, além de estabelecer limites mais graduais entre os fenômenos físicos do problema. Os Algoritmos Genéticos foram inspirados no princípio Darwiniano da evolução das espécies (sobrevivência dos mais aptos e mutações) e na genética. São algoritmos probabilísticos, que fornecem um mecanismo de busca paralela e adaptativa, e têm sido empregados em diversos problemas de otimização. Este trabalho é a continuação do estudo desenvolvido na dissertação de mestrado (Fonseca, 1999) e tem o objetivo de propor um sistema de avaliação do comportamento estrutural de cargas concentradas, através de uma identificação da influência dos diversos parâmetros na carga e nos tipos de comportamento resultantes (plastificação, enrugamento e flambagem global), estabelecendo limites mais flexíveis entre cada um destes. Esta análise será executada empregando um sistema neuro- fuzzy (híbrido de redes neurais e de lógica nebulosa). Para viabilizar esta análise, torna-se necessária a apresentação de dados de treinamento onde o comportamento estrutural é conhecido. Este trabalho também apresenta um estudo de otimização das fórmulas de projeto existentes empregando algoritmos genéticos. Os resultados obtidos neste trabalho contribuem para, no futuro, o desenvolvimento de uma fórmula de projeto mais precisa. De posse desta nova fórmula, uma sugestão para sua incorporação em normas de projeto de estruturas de aço poderá ser feita, garantindo, desta forma, um dimensionamento mais seguro e econômico. / [en] Concentrated loads on steel beams are frequently found in engineering practice. In situations where the load application point is fixed, transversal web stiffeners can be used to provide an adequate resistance, but for economic reasons should be avoided whenever possible. For moving loads, the knowledge of the unstiffened web resistance becomes imperative. Many theories were developed for a better understanding of the problem, however, a 40% error is still present in the current design formulas. A more accurate design formula for this structural problem is very difficult to be obtained, due to the influence of several interdependent parameters and to the insufficient number of experiments found in literature. On the other hand, the structural collapse can be associated to: web yielding, web buckling, web crippling or by their combined influence. Despite this fact, no investigations were found in literature to access their partial of global influence on the beam patch load resistance Neural networks were inspired in the brain structure in order to present human characteristics such as: learning from experience; and generalization of new data from a current set of standards. Preliminary studies used the neural networks potential to forecast the ultimate load of steel beams subjected to concentrated loads. The main aim of Fuzzy Logic is to model the complex approximated way of inference, trying to represent the human ability of making sensible decisions when facing uncertainties. Thus, fuzzy logic is an artificial intelligence technique capable of generating a mechanism for treating inaccurate and incomplete information such as: slenderness, flexibility and stiffness, still being capable of establishing gradual boundaries among the physical phenomena involved. Genetic algorithms are inspired on the Darwins principle of the species evolution and genetics. They are probabilistic algorithms that generate a mechanism of parallel and adaptive best fit survival principle and their reproduction and have been long used in several optimisation problems. This work extends the research developed in a previous MSc. program (Fonseca, 1999) and intends to evaluate and investigate the structural behaviour of steel beams subjected to concentrated loads, identifying the influence of several related parameters. This will be achieved by the use of a neuro-fuzzy system, able to model the intrinsic relationships between the related parameters. The proposed system aim is to relate the physical and geometrical variables that govern the ultimate load with its associated physical behaviour (web yielding, web crippling and web buckling), being capable of establishing gradual boundaries among the physical phenomena involved. This investigation was focused on the development of a neuro fuzzy system. The proposed neuro fuzzy system was trained with data where the collapse mechanism were properly identified validating its results. This investigation also presents a study of patch load design formulae optimization based on genetic algorithm principles. The obtained results may help the future development of a more accurate design formula, that could be incorporated in steel structures design codes, allowing a safer and economical design.
29

Implementación en hardware de sistemas de alta fiabilidad basados en metodologías estocásticas

Canals Guinand, Vicente José 27 July 2012 (has links)
La sociedad actual demanda cada vez más aplicaciones computacionalmente exigentes y que se implementen de forma energéticamente eficiente. Esto obliga a la industria del semiconductor a mantener una continua progresión de la tecnología CMOS. No obstante, los expertos vaticinan que el fin de la era de la progresión de la tecnología CMOS se acerca, puesto que se prevé que alrededor del 2020 la tecnología CMOS llegue a su límite. Cuando ésta llegue al punto conocido como “Red Brick Wall”, las limitaciones físicas, tecnológicas y económicas no harán viable el proseguir por esta senda. Todo ello ha motivado que a lo largo de la última década tanto instituciones públicas como privadas apostasen por el desarrollo de soluciones tecnológicas alternativas como es el caso de la nanotecnología (nanotubos, nanohilos, tecnologías basadas en el grafeno, etc.). En esta tesis planteamos una solución alternativa para poder afrontar algunos de los problemas computacionalmente exigentes. Esta solución hace uso de la tecnología CMOS actual sustituyendo la forma de computación clásica desarrollada por Von Neumann por formas de computación no convencionales. Éste es el caso de las computaciones basadas en lógicas pulsantes y en especial la conocida como computación estocástica, la cual proporciona un aumento de la fiabilidad y del paralelismo en los sistemas digitales. En esta tesis se presenta el desarrollo y evaluación de todo un conjunto de bloques computacionales estocásticos implementados mediante elementos digitales clásicos. A partir de estos bloques se proponen diversas metodologías computacionalmente eficientes que mediante su uso permiten afrontar algunos problemas de computación masiva de forma mucho más eficiente. En especial se ha centrado el estudio en los problemas relacionados con el campo del reconocimiento de patrones. / Today's society demands the use of applications with a high computational complexity that must be executed in an energy-efficient way. Therefore the semiconductor industry is forced to maintain the CMOS technology progression. However, experts predict that the end of the age of CMOS technology progression is approaching. It is expected that at 2020 CMOS technology would reach the point known as "Red Brick Wall" at which the physical, technological and economic limitations of CMOS technology will be unavoidable. All of this has caused that over the last decade public and private institutions has bet by the development of alternative technological solutions as is the case of nanotechnology (nanotubes, nanowires, graphene, etc.). In this thesis we propose an alternative solution to address some of the computationally exigent problems by using the current CMOS technology but replacing the classical computing way developed by Von Neumann by other forms of unconventional computing. This is the case of computing based on pulsed logic and especially the stochastic computing that provide a significant increase of the parallelism and the reliability of the systems. This thesis presents the development and evaluation of different stochastic computing methodologies implemented by digital gates. The different methods proposed are able to face some massive computing problems more efficiently than classical digital electronics. This is the case of those fields related to pattern recognition, which is the field we have focused the main part of the research work developed in this thesis.
30

[en] HIERARCHICAL FUZZY INFERENCE SYSTEMS APPLIED TO HUMAN RELIABILITY ASSESSMENT / [pt] SISTEMAS DE INFERÊNCIA FUZZY HIERÁRQUICOS APLICADOS À CARACTERIZAÇÃO DA CONFIABILIDADE HUMANA

NICHOLAS PINHO RIBEIRO 09 June 2015 (has links)
[pt] A maioria dos estudos existentes em controle de qualidade de processos focam no desempenho de máquinas e ferramentas. Assim, estes já contam com bons métodos para serem controlados. Contudo, erros humanos em potencial estão presentes em todos os processos industriais que contenham a relação homem-máquina, fazendo com que a necessidade de se avaliar a qualidade do desempenho humano seja de igual importância. A abordagem para se avaliar quão suscetível à falha humana estão tais processos baseiam-se em probabilidades de erro, supondo que o desempenho humano funciona da mesma maneira que o desempenho de máquinas, ou em PSFs (Performance Shaping Factors), variáveis representativas de características de desempenho humano. Embora esta última abordagem seja mais eficiente, ainda existem críticas a sua falta de contextualização: tais características são avaliadas separadamente uma das outras, e independentemente da tarefa que o operador esteja realizando. Sistemas de Inferência Fuzzy (SIFs) permitem que variáveis lingüísticas sejam avaliadas em conjunto, isto é, passa a ser possível criar um modelo que assimile as nuances da variação do comportamento de um PSF concomitantemente com a alteração de outro PSF. Dessa forma, a caracterização da confiabilidade humana, considerando que diversos PSFs afetam no desempenho dos demais, pode ser satisfeita ao se fazer uso de SIFs interligados seqüencialmente - SIFs hierárquicos. Para se contextualizar a caracterização da confiabilidade humana por tarefa realizada, necessita-se que os PSFs pertinentes a cada determinada tarefa sejam medidos novamente e realimentados ao sistema (desenvolvido nesta dissertação). O SIF geral (composto por nove camadas de SIFs hierárquicos) foi testado com dados hipotéticos e dados reais de operadores e tarefas de uma empresa do setor elétrico brasileiro. Os resultados encontrados foram satisfatórios e evidenciaram que a Lógica Fuzzy, na forma de SIFs hierárquicos, pode ser utilizada para caracterizar a confiabilidade humana, com a vantagem de fazê-lo enquanto seu contexto é considerado. / [en] Most of existing studies in quality control focus on machinery performance. There are effective and advanced control methods to deal with that. However, potential human errors are present in every industrial process operated by humans. Therefore, evaluating the quality of human performance becomes as important as evaluate machinery s. The approach to evaluate how much processes are susceptible to human error are based on error probabilities, by assuming that human performance is similar to machinery performance, or on PSFs (Performance Shaping Factors) – variables representing human features. Although this based approach is more efficient, there are still criticisms about its lack of context awareness: those features are evaluated separately from one another, and regardless of which task the employee is performing. Fuzzy Inference Systems (FISs) allow linguistic variables to be evaluated simultaneously, thus making it possible to develop a method that gathers the nuances of behavioral changes of a PSF whilst another PSF varies. With this method, and considering that different PSFs affect the performance of others, human reliability can be assessed through the use of sequentially interconnected FISs – Hierarchical Fuzzy Inference Systems. In order to contextualize this assessment by tasks, each of the PSFs that affects each task will have to be measured and fed into the system (as developed within this dissertation) once per task and per employee. The main FIS (which contains nine layers of hierarchical FISs) was tested by using both hypothetical and real data from operators and tasks of a Brazilian electricity company. Results were satisfactory and attested that Fuzzy Logic, in the form of hierarchical FISs, can be used to assess human reliability, with the advantage of also taking the context into account.

Page generated in 0.1797 seconds