• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 52
  • 3
  • Tagged with
  • 55
  • 55
  • 55
  • 48
  • 48
  • 12
  • 12
  • 12
  • 10
  • 7
  • 7
  • 6
  • 6
  • 6
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

[en] INVERSION OF PARAMETERS IN SEISMIC DATA BY GENETIC ALGORITHMS / [pt] INVERSÃO DE PARÂMETROS EM DADOS SÍSMICOS POR ALGORITMOS GENÉTICOS

SHELLY CRISTIANE DAVILA MEDEIROS 05 July 2006 (has links)
[pt] Esta dissertação investiga o uso de Algoritmos Genéticos aplicados em dados sísmicos com o objetivo de obter parâmetros físicos e atributos sísmicos que auxiliem na caracterização das rochas de um subsolo terrestre. Os dados sísmicos têm sido extensamente empregados no setor de exploração de petróleo. As aplicações envolvendo sísmica não se restringem na busca por novas reservas de petróleo, mas também são usadas para projetar novos poços e melhorar a produção dos reservatórios de petróleo. O levantamento de dados sísmicos permite analisar extensas áreas da subsuperfície com custo praticável em relação a outras técnicas. Entretanto, a interpretação desses dados com o objetivo de obter informações relevantes e acuradas não é uma tarefa simples. Para isto, várias técnicas de inversão sísmica vêm sendo desenvolvidas. Este trabalho consistiu em avaliar uma alternativa que emprega Algoritmos Genéticos para inverter parâmetros a partir de dados sísmicos. Existem 3 etapas principais neste trabalho. Primeiramente, foram estudados o tema da exploração sísmica e a técnica de Algoritmos Genéticos. Na segunda etapa foi definido um modelo, usando Algoritmos Genéticos, que busca, neste caso, minimizar uma medida de erro, para obtenção dos parâmetros objetivos. Finalmente, foi implementado um sistema a partir do modelo proposto e realizados os estudos de casos com dados sísmicos sintéticos para avaliar o seu desempenho. O modelo baseado em Algoritmos Genéticos foi avaliado submetendo-se seus resultados a um especialista e comparando-os com os da busca aleatória. Os resultados obtidos se mostraram consistentemente satisfatórios e sempre superiores aos da busca exaustiva. / [en] This dissertation investigates the use of Genetic Algorithms applied to seismic data with the objective of obtaining physical parameters and seismic attributes that would facilitate the characterization of rocks in terrestrial subsoil. The seismic data has been extensively utilized in the field of petroleum exploration. The applications involving seismic are not restrained to the search for new petroleum reserves, but are also used to project new wells and to improve the production of existing petroleum reservoirs. The survey of seismic data allows the analysis of extended areas of the subsurface at an affordable price relative to other techniques. However, the interpretation of the data with the objective of obtaining relevant and accurate information is not an easy task. For that, several seismic inversion techniques are being developed. This work consists in evaluating an alternative that uses Genetic Algorithms to invert parameters from seismic data. There are 3 main stages in this work. Initially, the theme of seismic exploration and the technique of Genetic Algorithms have been studied. On the second stage a model has been defined, using Genetic Algorithms, which aims, in this case, to minimize an error measurement, obtaining objective parameters. Finally, a system from the proposed model has been implanted and the study of cases with synthetic seismic data has been executed to evaluate its performance. The process of optimizing has been compared to the process of random search and the results obtained by the model have always been superior.
42

[en] A FUZZY MODEL FOR MULTITEMPORAL IMAGE CLASSIFICATION / [pt] UM MODELO NEBULOSO PARA CLASSIFICAÇÃO MULTITEMPORAL DE IMAGENS

MARIA CLARA DE OLIVEIRA COSTA 04 September 2006 (has links)
[pt] O presente trabalho apresenta a modelagem de conhecimento multitemporal para a classificação automática de cobertura do solo para imagens de satélite. O procedimento de classificação agrega os conhecimentos espectral e multitemporal utilizando conjuntos nebulosos e suas pertinências de classe como informação prévia. O método se baseia no conceito de Redes de Markov Nebulosas, um sistema com um conjunto de estados que a cada instante de tempo troca o estado corrente de acordo com possibilidades associadas a cada um. No caso deste trabalho cada estado representa uma classe, e as possibilidades são estimadas automaticamente a partir de dados históricos de uma mesma região geográfica, empregando algoritmos genéticos. A avaliação experimental utilizou um conjunto de imagens Landsat-5 da cidade do Rio de Janeiro, obtidas em cinco datas separadas por aproximadamente quatro anos. Os resultados indicaram que o uso do conhecimento multitemporal, conforme modelado pelo método proposto traz um significante aumento da eficiência de classificação em comparação à classificação puramente espectral, além de flexibilizar o procedimento de classificação no que diz respeito aos dados necessários para o treinamento do modelo. / [en] This work presents a multitemporal knowledge model for automatic classification of remotely sensed images. The model combines multitemporal and spectral knowledge within a fuzzy framework. This method is based on Fuzzy Markov Chains, a system having a set of states that, at each time, change the current state according to the fuzzy possibilities associated to each one. In this work each state represents one class, and the possibilities are automatically estimated based on historical data by using genetic algorithms. The experimental evaluation was carried through for a set of Landsat-5 TM images of the Rio de Janeiro State, Brazil, acquired at five dates separated by approximately four years. Results indicate that the use of multitemporal knowledge as modeled by the proposed method brings an expressive improvement in efficiency to the classification, when compared to the pure spectral classifier. Besides it, adds flexibility to the classification procedure, concerning to necessary data used for model training.
43

[en] DETERMINATION OF BRAZILIAN ELECTRICITY MARKET PRICE AND VALUE OF ENERGY DERIVATIVES WITH MONTE CARLO SIMULATION APPROACH FOR GENETIC ALGORITHM / [pt] DETERMINAÇÃO DO PREÇO NO MERCADO DE ENERGIA ELÉTRICA BRASILEIRO E VALORAÇÃO DE UM DERIVATIVO DE ENERGIA POR SIMULAÇÃO MONTE CARLO COM APROXIMAÇÃO POR ALGORITMO GENÉTICO

MARCELA JACOB ALVES RIBEIRO 22 December 2011 (has links)
[pt] No Brasil, o comportamento dos preços da energia elétrica no mercado de curto prazo é especialmente incerto, pois não segue um padrão definido e é obtido a partir de um modelo computacional e não pelo equilíbrio de mercado entre oferta e demanda. Diante disto o mercado de opções e derivativos ao mesmo tempo em que promissor, tendo em vista as experiências de outros países, é insipiente, pois os agentes não conseguem utilizar metodologias tradicionais para a precificação destes produtos e acabam formatando os valores por experiências empíricas e segundo aceitação do mercado. Muitos trabalhos já foram desenvolvidos propondo novas soluções para a previsão de preços modificando profundamente a estrutura atual, por outro lado o objetivo deste trabalho em sua primeira parte não busca modificar o modelo atual de previsão de preços que serve de alicerce para os contratos atuais, e por isso não pode ser desprezada. Este trabalho em sua primeira parte visa desenvolver um modelo para representar o comportamento dos preços no mercado de energia brasileiro e melhorar a previsão de preços que atualmente é fornecido pelo Newave, mas sem deslocar-se dos resultados gerados por ele. Em um segundo momento busca uma metodologia computacionalmente viável para determinar o valor de opções que podem ser oferecidas em contratos de opção de longo prazo. Para desenvolver a solução, foi proposto um processo estocástico que pudesse modelar a previsão dos preços no mercado de curto prazo reduzindo a volatilidade, mas sem se distanciar do atual modelo de previsão. Num segundo momento para permitir a precificação destes contratos este estudo aprofundou-se na teoria das opções que permite considerar as flexibilidades gerenciais, tendo por objetivo maximizar o retorno de uma determinada opção contratual. Assim, com o emprego de ferramentas como o Algoritmo Genético e Simulação Monte Carlo para aproximar a curva de exercício ótimo e o novo processo estocástico de formação de preço, foi possível determinar o valor das opções estudadas. A principal contribuição deste trabalho é criar uma metodologia coerente de precificação de opções contratuais, atualmente inexistente no mercado e que possa ser testada e avaliada pelos operadores, contribuindo para o aumento e desenvolvimento do mercado de derivativos no setor elétrico brasileiro. / [en] In Brazil, the behavior of electricity prices in the short term market is especially uncertain, because it follows a pattern set and is obtained from a computer model rather than the market equilibrium between supply and demand. In view of this the market for options and derivatives at the same time as promising, given the experiences of other countries, know not, because the agents can not use traditional methods for the pricing of these products end up formatting the values and experiences and the second empirical market acceptance. Many works have been developed proposing new solutions for forecasting prices profoundly modifying the current structure, otherwise the objective of this work in the first part does not seek to modify the current model of forecasting prices that serves as the foundation for current contracts, and so it can not be neglected. This work in its first part aims to develop a model to represent the behavior of prices in the Brazilian energy market and improve the forecasting of prices that is currently provided by Newave, but without moving the results generated by it. In a second step a search computationally feasible method to determine the value of options that can be offered on contracts for the long term. To develop the solution, we proposed a stochastic model that could forecast the market price of reducing short-term volatility, but not away from the current forecasting model. In a second time to allow the pricing of these contracts this study deepened the theory of options that allows to consider the managerial flexibility, aiming to maximize the return on a particular option contract. Thus, with the use of tools such as Genetic Algorithms and Monte Carlo simulation to approximate the optimal exercise curve and the new stochastic process of price formation, it was possible to determine the value of the options studied. The main contribution of this work is to create a consistent methodology for pricing options contract, currently non-existent in the market and that can be tested and evaluated by the operators, contributing to the growth and development of the derivatives market in the Brazilian electric sector.
44

[en] DETERMINATION OF THE VALUE OF REAL OPTIONS FOR MONTE CARLO SIMULATION WHIT APPROACH FOR FUZZY NUMBERS AND GENETIC ALGORITHMS / [pt] DETERMINAÇÃO DO VALOR DE OPÇÕES REAIS POR SIMULAÇÃO MONTE CARLO COM APROXIMAÇÃO POR NÚMEROS FUZZY E ALGORITMOS GENÉTICOS

JUAN GUILLERMO LAZO LAZO 25 October 2004 (has links)
[pt] As decisões econômicas de investimento, assim como as avaliações econômicas de projetos, são afetadas por incertezas econômicas, incertezas técnicas e por flexibilidades gerenciais embutidas em projetos. Flexibilidades gerenciais dão liberdade ao gerente para tomar decisões, tais como investir, expandir, parar temporariamente ou abandonar um determinado projeto. Tais flexibilidades possuem valor e só a teoria de opções reais consegue avaliá-las. As opções reais permitem considerar, além das incertezas, a flexibilidade gerencial, tendo por objetivo maximizar o valor da oportunidade de investimento. Para se determinar o valor de uma opção real, normalmente são utilizados modelos de árvores binomiais, diferenças finitas ou técnicas de simulação Monte Carlo. Entretanto, os métodos tradicionais de árvores binomiais e diferenças finitas são impraticáveis na avaliação de opções com mais de três fatores de incerteza, enquanto que a simulação Monte Carlo tem um custo computacional muito elevado devido ao processo iterativo da simulação estocástica na amostragem de cada variável. O objetivo deste trabalho é pesquisar uma metodologia computacionalmente viável para determinar o valor de opções reais sob diversas incertezas técnicas e de mercado. Neste contexto, é feita uma investigação multidisciplinar (lógica fuzzy, computação evolucionária, processos estocásticos e opções reais) em busca de métodos alternativos que possam reduzir o tempo computacional e assim facilitar as tomadas de decisão conseqüentes da simulação. Para isto, é proposta a união de várias técnicas: Números Fuzzy para representar determinados tipos de incertezas das quais se desconhece o processo estocástico que as modela, processos estocásticos para representar as demais incertezas e a simulação Monte Carlo para obter uma boa aproximação do valor da opção real. Além disso, aplicase um algoritmo genético em conjunto com a simulação Monte Carlo para aproximar uma regra de decisão ótima e determinar o valor da opção real no caso de se ter várias opções de investimento em um projeto. A regra ajuda na decisão entre o investimento imediato em uma das opções ou a espera por melhores condições, as quais dependem do estado das incertezas consideradas. O modelo proposto foi avaliado em problemas de opção de expansão e de opção de investimento em informação, aplicados na área de exploração e produção de petróleo, obtendo os mesmos resultados que as técnicas convencionais com uma redução expressiva do custo computacional. A principal contribuição deste trabalho é a concepção de uma nova metodologia para a determinação do valor de opções reais na presença de incertezas técnicas e de mercado, que oferece vantagens em relação aos métodos convencionais. Os resultados obtidos comprovam que o uso de números fuzzy para representar incertezas das quais se desconhece o processo estocástico que as modela, reduz significativamente o tempo computacional. Além disso, a metodologia demonstra que a técnica de algoritmos genéticos é adequada para obter uma regra de decisão ótima, com uma boa aproximação do valor da opção real, quando são consideradas várias opções de investimento. / [en] The economic decision on investment and evaluation of projects are affected by economic and technical uncertainties and by management flexibilities inserted on projects. These management flexibilities give the manager freedom to take decisions, such as to invest, to expand, to temporarily stop or to abandon a Project. These flexibilities have value and only can be evaluated thhrogh real option theory. The use of real options considers uncertainties and management flexibilities with the objective of maximizing the value of the investment opportunity. To determine the value of the real option, models of binomials tree, finite differences or Monte Carlo simulation techniques are normally used. However, the traditional methods of binomials tree and finite differences are impracticable in the evaluation of options with more than three uncertainties, while the Monte Carlo simulation presents a high computational cost due to the iterative process of the stochastic simulation in sampling each variable. The objective of this work is to investigate a computational methodology that can be used to determine the value of real option under diverse uncertainties, both of technical and market types. Therefore, this work investigates methods that can reduce computational time and thus create means for taking decisions. For this purpose, the union of several techniques is proposed: fuzzy numbers to represent some types of uncertainties of which an adequate stochastic process is unknown, stochastic process to represent other uncertainties and the Monte Carlo simulation to obtain a good approximation of the value of real options. Moreover, a genetic algorithm, together with Monte Carlo simulation, is used to approximate an optimum decision rule and to determine the value the real option when several investment options are available in a project. The rule helps decide whether to make an immediate investment in an option or to wait for better conditions; this is dependent on the state of the uncertainties considerated. The proposed model was evaluated in problems of options of expansion and of investment in information, applied in the area of oil exploration and production. Results obtained were similar to those achieved by conventional techniques, with a substantial reduction in computational time. The main contribution of this work is the conception of a new methodology for the determination of the value of real options with technical and market uncertainties. This methodology has shown to be advantages in relation to conventional methods. Results show that the use of fuzzy numbers to represent uncertainties of which the stochastic process that shapes them is unknown reduces the computational time significantly. Moreover, the methodology demonstrates that the genetic algorithm is an adequate technique for approximating a decision rule when many investment options are considered.
45

[pt] O PROBLEMA DE ALOCAÇÃO DO RSI: MÉTODOS EXATOS E HEURÍSTICOS / [en] THE RSI ALLOCATION PROBLEM: EXACT AND HEURISTIC METHODS

MARIANA ALVES LONDE 06 July 2021 (has links)
[pt] Desde sua introdução, a comunicação móvel sem fio cresceu e se modificou severamente. Seu crescimento acentuado significa que a alocação de diferentes parâmetros para rádios ou estações-base ganhou diversos graus de complexidade. Um parâmetro é o Root Sequence Index (RSI), relacionado com os preâmbulos do Random Access Channel (PRACH), usado para alocar canais de upload entre o equipamento do usuário e a estação rádio-base. A alocação de RSIs próximos a radios ou antenas vizinhas pode causar colisões, que são responsáveis por falhas no estabelecimento do serviço de comunicação e, portanto, degradação no desempenho da rede. Em geral, tais problemas de alocação são modelados como um Problema de Coloração de Grafos, incluindo diversas restrições. Contudo, não há estudos que foquem na alocação de RSI e colisões. O objetivo deste estudo é explorar e comparar modelos exatos e heurísticos para esse problema. Para isso, diversos modelos matemáticos foram elaborados, além de um algoritmo genético de chaves aleatórias viciadas. Os resultados apontam que a utilização de uma estratégia baseada nas relações de vizinhança é eficaz para a obtenção de boas soluções. / [en] Since its introduction, mobile wireless communication has grown and changed substantially. This massive growth leads to different levels of complexity, mainly concerned with the assignment of different parameters to radio or base stations. One parameter is the Root Sequence Index (RSI), related to the Physical Random Access Channel (PRACH) preambles, used to allocate uplink channels between the user equipment and the base station. The assignment of RSIs close-in-range to neighbor antennas may cause collisions, which are responsible for failures on service establishment, and therefore, performance degradation. Such allocation problems can be modeled as Graph Coloring Problems, including several additional constraints. However, few studies focus on RSI allocation and collisions from the optimization perspective. The objective of this study is to develop methods for allocating the RSI, trying to lessen the risk of collision, and obeying other constraints. In this study, both exact and heuristics methods are explored and compared. For this, several mathematical models were made, alongside a biased random key genetic algorithm. The results show that the utilization of an allocation strategy based on neighbor relations is efficient for finding good solutions.
46

[pt] ESTRATÉGIAS PARA O CONTROLE DE PARÂMETROS NO ALGORITMO GENÉTICO COM CHAVES ALEATÓRIAS ENVIESADAS / [en] STRATEGIES FOR PARAMETER CONTROL IN THE BIASED RANDOM-KEY GENETIC ALGORITHM

LUISA ZAMBELLI ARTMANN R VILELA 08 November 2022 (has links)
[pt] O Algoritmo Genético de Chaves Aleatórias Enviesadas (BRKGA) é uma metaheurística populacional utilizada na obtenção de soluções ótimas ou quase ótimas para problemas de otimização combinatória. A parametrização do algoritmo é crucial para garantir seu bom desempenho. Os valores dos parâmetros têm uma grande influência em determinar se uma boa solução será encontrada pelo algoritmo e se o processo de busca será eficiente. Uma maneira de resolver esse problema de configuração de parâmetros é por meio da abordagem de parametrização online (ou controle de parâmetros). A parametrização online permite que o algoritmo adapte os valores dos parâmetros de acordo com os diferentes estágios do processo de busca e acumule informações sobre o espaço de soluções nesse processo para usar as informações obtidas em estágios posteriores. Ele também libera o usuário da tarefa de definir as configurações dos parâmetros, resolvendo implicitamente o problema de configuração. Neste trabalho, avaliamos duas estratégias para implementar o controle de parâmetros no BRKGA. Nossa primeira abordagem foi adotar valores de parâmetros aleatórios para cada geração do BRKGA. A segunda abordagem foi incorporar os princípios adotados pelo irace, um método de parametrização do estado da arte, ao BRKGA. Ambas as estratégias foram avaliadas em três problemas clássicos de otimização (Problema de Permutação Flowshop, Problema de Cobertura de Conjuntos e Problema do Caixeiro Viajante) e levaram a resultados competitivos quando comparados ao algoritmo tunado. / [en] The Biased Random-Key Genetic Algorithm (BRKGA) is a populationbased metaheuristic applied to obtain optimal or near-optimal solutions to combinatorial problems. To ensure the good performance of this algorithm (and other metaheuristics in general), defining parameter settings is a crucial step. Parameter values have a great influence on determining whether a good solution will be found by the algorithm and whether the search process will be efficient. One way of tackling the parameter setting problem is through the parameter control (or online tuning) approach. Parameter control allows the algorithm to adapt parameter values according to different stages of the search process and to accumulate information on the fitness landscape during the search to use this information in later stages. It also releases the user from the task of defining parameter settings, implicitly solving the tuning problem. In this work, we evaluate two strategies to implement parameter control in BRKGA. Our first approach was adopting random parameter values for each of BRKGA s generations. The second approach was to introduce the principles adopted by Iterated Race, a state-of-the-art tuning method, to BRKGA. Both strategies were evaluated in three classical optimization problems (Flowshop Permutation Problem, Set Covering Problem, and the Traveling Salesman Problem) and led to competitive results when compared to the tuned algorithm.
47

[pt] MODELAGEM USANDO INTELIGÊNCIA ARTIFICIAL PARA ESTUDAR O PRÉ-TRATAMENTO DE BIOMASSA LIGNOCELULÓSICA / [en] MODELLING USING ARTIFICIAL INTELLIGENCE TO STUDY THE PRETREATMENT OF LIGNOCELLULOSIC BIOMASS

JULIANA LIMA GUERHARD FIDALGO 09 June 2020 (has links)
[pt] Os polissacarídeos constituintes da biomassa lignocelulósica podem ser beneficiados através de processos industriais. Entretanto, para manipulá-los é necessário que a biomassa seja submetida ao processo de pré-tratamento. Esta é uma das etapas mais caras e relevantes para a disposição e aplicação das frações lignocelulósicas. O presente estudo consiste em uma investigação detalhada do processo de pré-tratamento da biomassa lignocelulósica com H2O2, a qual foi realizada através de tecnologias inteligentes que viabilizaram a otimização deste processo. Ferramentas de inteligência artificial revelam-se vantajosas na solução dos gargalos associados aos avanços tecnológicos. Possibilitam a modelagem matemática de um processo com máxima eficiência, otimizando sua produtividade, transformando dados experimentais em informações úteis e demonstrando as infinitas possibilidades das relações das variáveis envolvidas. As variáveis independentes estudadas foram a temperatura (25 – 45 graus Celsius) e a concentração de peróxido de hidrogênio (1.5 – 7.5 porcento m/v). Técnicas analíticas qualitativas (Raman e FTIR) e quantitativa (Método de Klason) foram aplicadas para produzir um banco de dados referente a extração da lignina com H2O2, o qual foi utilizado no desenvolvimento de modelos neurais aplicando Redes Neurais Artificiais (ANN, do inglês Artificial Neural Networks) e Sistema de Inferência Adaptativa Neuro-Difusa (ANFIS, do inglês Adaptive neuro fuzzy inference system). E modelos polinomiais, os quais tiveram seus parâmetros estimados por Algoritmos Genéticos (GA, do inglês Genetic Algorithms). Os modelos desenvolvidos conseguiram predizer: o Teor de Lignina Extraída (porcento) por Espectroscopia Raman, o Teor de Lignina Oxidada (porcento) por FTIR, o Teor de Lignina Residual (porcento) pelo Método de Klason, e por último, dois modelos para a comparação da resposta analítica qualitativa com a resposta analítica quantitativa. Os modelos polinomiais, que tiveram seus parâmetros estimados por GA foram avaliados estatisticamente através da ANOVA e pelo coeficiente de correlação (R2). E os modelos neurais desenvolvidos foram avaliados pelo coeficiente de correlação (R2), número de parâmetros e índices de erro (SSE, MSE e RMSE). Para cada modelo polinomial e neural proposto, quando coerente, superfícies de resposta e curvas de contorno foram plotadas permitindo a identificação da região operacional mais indicada para a realização do pré-tratamento com H2O2. Dentre as estratégias inteligentes propostas, os modelos desenvolvidos com ANN mostraram-se mais eficientes para as predições relacionadas à extração da lignina. / [en] Industrial processes benefit the polysaccharides constituting the lignocellulosic biomass. However to manipulate them it is necessary that the biomass is submitted to the pre-treatment process. This is one of the most expensive and relevant steps for the arrangement and application of lignocellulosic fractions. The present study consists of a detailed investigation of the pretreatment process of lignocellulosic biomass with H2O2, applying intelligent technologies that enabled the optimization of this process. Artificial intelligence tools prove to be advantageous in solving the bottlenecks associated with technological advances. They enable the mathematical modeling of a process with maximum efficiency, optimizing its productivity, transforming experimental data into useful information and demonstrating the infinite possibilities of the relationships of the variables involved. The independent variables studied were the temperature (25-45 Celsius degrees) and the concentration of hydrogen peroxide (1.5 - 7.5 percent m / v). Qualitative analytical techniques (Raman and FTIR) and quantitative (Klason method) were applied to produce a database for the extraction of lignin with H2O2, which was used in the development of neural models applying Artificial Neural Networks (ANN) and Adaptive Neuro-Fuzzy Inference System (ANFIS). And polynomial models, which had their parameters estimated by Genetic Algorithms (GA). The models developed were able to predict: the Extracted Lignin Content (percent) by Raman Spectroscopy, the Oxidized Lignin Content (percent) by FTIR, the Residual Lignin Content (percent) by the Klason Method, and lastly, two models for the comparison of the qualitative analytical response with the quantitative analytical response. The polynomial models, which had their parameters estimated by GA, were statistically evaluated using ANOVA and correlation coefficient (R2) evaluated the polynomial models developed by GA statistically. And the neural models developed were evaluated by the coefficient of correlation (R2), number of parameters and error indexes (SSE, MSE and RMSE). For each proposed polynomial and neural model, when coherent, response surfaces and contour curves were plotted allowing the identification of the most suitable operational region for the pretreatment with H2O2. Among the proposed intelligent strategies, the models developed with ANN proved to be more efficient for the predictions related to lignin extraction.
48

[en] EXPLORATION AND VISUAL MAPPING ALGORITHMS DEVELOPMENT FOR LOW COST MOBILE ROBOTS / [pt] DESENVOLVIMENTO DE ALGORITMOS DE EXPLORAÇÃO E MAPEAMENTO VISUAL PARA ROBÔS MÓVEIS DE BAIXO CUSTO

FELIPE AUGUSTO WEILEMANN BELO 16 October 2006 (has links)
[pt] Ao mesmo tempo em que a autonomia de robôs pessoais e domésticos aumenta, cresce a necessidade de interação dos mesmos com o ambiente. A interação mais básica de um robô com o ambiente é feita pela percepção deste e sua navegação. Para uma série de aplicações não é prático prover modelos geométricos válidos do ambiente a um robô antes de seu uso. O robô necessita, então, criar estes modelos enquanto se movimenta e percebe o meio em que está inserido através de sensores. Ao mesmo tempo é necessário minimizar a complexidade requerida quanto a hardware e sensores utilizados. No presente trabalho, um algoritmo iterativo baseado em entropia é proposto para planejar uma estratégia de exploração visual, permitindo a construção eficaz de um modelo em grafo do ambiente. O algoritmo se baseia na determinação da informação presente em sub-regiões de uma imagem panorâmica 2-D da localização atual do robô obtida com uma câmera fixa sobre o mesmo. Utilizando a métrica de entropia baseada na Teoria da Informação de Shannon, o algoritmo determina nós potenciais para os quais deve se prosseguir a exploração. Através de procedimento de Visual Tracking, em conjunto com a técnica SIFT (Scale Invariant Feature Transform), o algoritmo auxilia a navegação do robô para cada nó novo, onde o processo é repetido. Um procedimento baseado em transformações invariáveis a determinadas variações espaciais (desenvolvidas a partir de Fourier e Mellin) é utilizado para auxiliar o processo de guiar o robô para nós já conhecidos. Também é proposto um método baseado na técnica SIFT. Os processos relativos à obtenção de imagens, avaliação, criação do grafo, e prosseguimento dos passos citados continua até que o robô tenha mapeado o ambiente com nível pré-especificado de detalhes. O conjunto de nós e imagens obtidos são combinados de modo a se criar um modelo em grafo do ambiente. Seguindo os caminhos, nó a nó, um robô pode navegar pelo ambiente já explorado. O método é particularmente adequado para ambientes planos. As componentes do algoritmo proposto foram desenvolvidas e testadas no presente trabalho. Resultados experimentais mostrando a eficácia dos métodos propostos são apresentados. / [en] As the autonomy of personal service robotic systems increases so has their need to interact with their environment. The most basic interaction a robotic agent may have with its environment is to sense and navigate through it. For many applications it is not usually practical to provide robots in advance with valid geometric models of their environment. The robot will need to create these models by moving around and sensing the environment, while minimizing the complexity of the required sensing hardware. This work proposes an entropy-based iterative algorithm to plan the robot´s visual exploration strategy, enabling it to most efficiently build a graph model of its environment. The algorithm is based on determining the information present in sub-regions of a 2- D panoramic image of the environment from the robot´s current location using a single camera fixed on the mobile robot. Using a metric based on Shannon s information theory, the algorithm determines potential locations of nodes from which to further image the environment. Using a Visual Tracking process based on SIFT (Scale Invariant Feature Transform), the algorithm helps navigate the robot to each new node, where the imaging process is repeated. An invariant transform (based on Fourier and Mellin) and tracking process is used to guide the robot back to a previous node. Also, an SIFT based method is proposed to accomplish such task. This imaging, evaluation, branching and retracing its steps continues until the robot has mapped the environment to a pre-specified level of detail. The set of nodes and the images taken at each node are combined into a graph to model the environment. By tracing its path from node to node, a service robot can navigate around its environment. This method is particularly well suited for flat-floored environments. The components of the proposed algorithm were developed and tested. Experimental results show the effectiveness of the proposed methods.
49

[en] PATCH LOAD RESISTANCE USING COMPUTATIONAL INTELLIGENCE TECHNIQUES / [pt] COMPORTAMENTO DE VIGAS DE AÇO SUJEITAS A CARGAS CONCENTRADAS ATRAVÉS DE TÉCNICAS DE INTELIGÊNCIA COMPUTACIONAL

ELAINE TOSCANO FONSECA FALCAO DA SILVA 15 January 2004 (has links)
[pt] As cargas concentradas em vigas de aço são freqüentemente encontradas na prática. Nas situações onde o local de aplicação da carga é fixo, enrijecedores transversais de alma podem ser usados para aumentar a sua resistência, mas devem ser evitados por razões econômicas. Para cargas móveis, é fundamental conhecer a resistência última das almas não enrijecidas. Diversas teorias foram desenvolvidas para este problema, mas ainda assim, o erro das fórmulas de previsão é superior a 40%. Duas são as causas desta dificuldade de se encontrar uma equação mais precisa: o grande número de parâmetros que influenciam o comportamento de uma viga sujeita a cargas concentradas, e o número insuficiente de dados experimentais presentes na literatura. Por outro lado, o colapso da estrutura pode ocorrer por: plastificação, flambagem global da alma, enrugamento (crippling) ou uma combinação destes estados limites. Apesar disto, nenhum estudo foi desenvolvido para avaliar a participação total ou parcial de cada comportamento no colapso. As redes neurais são modelos computacionais inspirados na estrutura do cérebro, que apresentam características humanas como o aprendizado por experiência e a generalização do conhecimento a partir dos exemplos apresentados. Estas características permitiram, em estudos preliminares, a utilização das redes neurais na previsão da carga última de vigas de aço sujeitas a cargas concentradas. A Lógica Nebulosa tem como objetivo modelar o modo aproximado de raciocínio, tentando imitar a habilidade humana de tomar decisões racionais em um ambiente de incerteza e imprecisão. Deste modo, a Lógica Nebulosa é uma técnica inteligente que fornece um mecanismo para manipular informações imprecisas, como conceitos de esbeltez, compacidade, flexibilidade e rigidez, além de estabelecer limites mais graduais entre os fenômenos físicos do problema. Os Algoritmos Genéticos foram inspirados no princípio Darwiniano da evolução das espécies (sobrevivência dos mais aptos e mutações) e na genética. São algoritmos probabilísticos, que fornecem um mecanismo de busca paralela e adaptativa, e têm sido empregados em diversos problemas de otimização. Este trabalho é a continuação do estudo desenvolvido na dissertação de mestrado (Fonseca, 1999) e tem o objetivo de propor um sistema de avaliação do comportamento estrutural de cargas concentradas, através de uma identificação da influência dos diversos parâmetros na carga e nos tipos de comportamento resultantes (plastificação, enrugamento e flambagem global), estabelecendo limites mais flexíveis entre cada um destes. Esta análise será executada empregando um sistema neuro- fuzzy (híbrido de redes neurais e de lógica nebulosa). Para viabilizar esta análise, torna-se necessária a apresentação de dados de treinamento onde o comportamento estrutural é conhecido. Este trabalho também apresenta um estudo de otimização das fórmulas de projeto existentes empregando algoritmos genéticos. Os resultados obtidos neste trabalho contribuem para, no futuro, o desenvolvimento de uma fórmula de projeto mais precisa. De posse desta nova fórmula, uma sugestão para sua incorporação em normas de projeto de estruturas de aço poderá ser feita, garantindo, desta forma, um dimensionamento mais seguro e econômico. / [en] Concentrated loads on steel beams are frequently found in engineering practice. In situations where the load application point is fixed, transversal web stiffeners can be used to provide an adequate resistance, but for economic reasons should be avoided whenever possible. For moving loads, the knowledge of the unstiffened web resistance becomes imperative. Many theories were developed for a better understanding of the problem, however, a 40% error is still present in the current design formulas. A more accurate design formula for this structural problem is very difficult to be obtained, due to the influence of several interdependent parameters and to the insufficient number of experiments found in literature. On the other hand, the structural collapse can be associated to: web yielding, web buckling, web crippling or by their combined influence. Despite this fact, no investigations were found in literature to access their partial of global influence on the beam patch load resistance Neural networks were inspired in the brain structure in order to present human characteristics such as: learning from experience; and generalization of new data from a current set of standards. Preliminary studies used the neural networks potential to forecast the ultimate load of steel beams subjected to concentrated loads. The main aim of Fuzzy Logic is to model the complex approximated way of inference, trying to represent the human ability of making sensible decisions when facing uncertainties. Thus, fuzzy logic is an artificial intelligence technique capable of generating a mechanism for treating inaccurate and incomplete information such as: slenderness, flexibility and stiffness, still being capable of establishing gradual boundaries among the physical phenomena involved. Genetic algorithms are inspired on the Darwins principle of the species evolution and genetics. They are probabilistic algorithms that generate a mechanism of parallel and adaptive best fit survival principle and their reproduction and have been long used in several optimisation problems. This work extends the research developed in a previous MSc. program (Fonseca, 1999) and intends to evaluate and investigate the structural behaviour of steel beams subjected to concentrated loads, identifying the influence of several related parameters. This will be achieved by the use of a neuro-fuzzy system, able to model the intrinsic relationships between the related parameters. The proposed system aim is to relate the physical and geometrical variables that govern the ultimate load with its associated physical behaviour (web yielding, web crippling and web buckling), being capable of establishing gradual boundaries among the physical phenomena involved. This investigation was focused on the development of a neuro fuzzy system. The proposed neuro fuzzy system was trained with data where the collapse mechanism were properly identified validating its results. This investigation also presents a study of patch load design formulae optimization based on genetic algorithm principles. The obtained results may help the future development of a more accurate design formula, that could be incorporated in steel structures design codes, allowing a safer and economical design.
50

[en] METHODS BASED ON COMPUTATIONAL INTELLIGENCE TECHNIQUES FOR LOCALIZATION OF FIREARMS PROJECTILES INSERTED INTO THE HUMAN BODY, BY HIGH SENSITIVITY MAGNETIC MEASUREMENTS / [pt] MÉTODOS BASEADOS EM TÉCNICAS DE INTELIGÊNCIA COMPUTACIONAL PARA LOCALIZAÇÃO DE PROJÉTEIS DE ARMAS DE FOGO INSERIDOS NO CORPO HUMANO, POR MEIO DE MEDIÇÕES MAGNÉTICAS DE ALTA SENSIBILIDADE

JUAN DARIO TIMARAN JIMENEZ 16 November 2017 (has links)
[pt] Um dos casos clínicos mais frequentes na sociedade moderna envolve a localização e extração de projéteis de armas de fogo, que normalmente são feitos de chumbo, um material não ferromagnético. O desenvolvimento de uma técnica que possibilite a localização precisa destes auxiliará o procedimento de remoção cirúrgica, tendo vasta relevância e impactando diretamente no aumento da taxa de sobrevivência de pessoas feridas. Dessa forma, esta dissertação apresenta e discute duas novas abordagens baseadas em técnicas de inteligência computacional, objetivando a localização de projéteis de armas de fogo inseridos no corpo humano, a partir do processamento da informação contida em mapas de campo magnético. Em ambas as abordagens analisadas modela-se o projétil como uma esfera de raio a, localizado em um espaço de busca contido em um plano xy, o qual está situado a uma distância h do sensor no eixo z. As técnicas de localização requerem a geração de um campo magnético primário alternado por meio de um solenoide, o qual incide sobre o espaço de busca. Caso exista um projétil de arma de fogo nesta região, serão induzidas correntes parasitas no projétil, as quais, por sua vez, produzirão um campo magnético secundário, que pode ser medido por um sensor de alta sensibilidade localizado na extremidade do solenoide. Na primeira abordagem analisada, as posições x e y do projétil são determinadas por um algoritmo de janelamento que considera valores máximos e médios pertencentes aos mapas de campo magnético secundário. A determinação da distância h entre a esfera e o sensor foi obtida por meio de uma rede neural, e o raio da esfera a é estimado por um algoritmo genético. Na segunda abordagem, as quatro variáveis de interesse (x, y, h e a) são inferidas diretamente por um algoritmo genético. Os resultados obtidos são avaliados e comparados. / [en] In modern society, one of the most frequent clinical cases involves location and extraction of firearms projectiles, usually made of lead, a non-ferromagnetic material. The development of a technique that allows the precise location of these projectiles will aid their surgical removal, which has a great relevance because it contributes directly to the increase of the survival rate of wounded patients. Thus, this dissertation presents and discusses two new approaches based on computational intelligence techniques, aiming at locating firearm projectiles inserted into the human body, by processing the information contained in magnetic field maps. On both approaches, the projectile is modeled by a sphere with radius a, located on a search space contained in a xy plane that is situated at a distance h from the sensor, along the z axis. The proposed location techniques require the generation of a primary alternating magnetic field by means of a solenoid, which aims at inducing eddy currents in a firearm projectile contained in the search space. In turn, these currents will produce a secondary magnetic field, which can be measured by a high-sensitivity sensor located at the bottom of the solenoid. In the first developed technique, the x and y positions of the projectile were estimated by a windowing algorithm that takes into account maximum and mean values contained on the secondary magnetic field maps. In turn, the distance h between the sphere and the sensor is inferred by a neural network, and the radius of the sphere a is estimated by a genetic algorithm. In the second technique, the four variables of interest (x, y, h and a) are inferred directly by a genetic algorithm. The results obtained are evaluated and compared.

Page generated in 0.0314 seconds