• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 503
  • 358
  • 96
  • 59
  • 43
  • 25
  • 17
  • 11
  • 10
  • 7
  • 6
  • 6
  • 4
  • 3
  • 2
  • Tagged with
  • 1370
  • 1370
  • 440
  • 234
  • 192
  • 177
  • 135
  • 134
  • 127
  • 113
  • 110
  • 109
  • 108
  • 106
  • 104
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
251

Otimização de amostragem espacial / Optimization of sampling space

Guedes, Luciana Pagliosa Carvalho 10 April 2008 (has links)
O objetivo desse trabalho foi estabelecer planos de amostragem com redução no tamanho amostral, a partir de conjuntos de dados com dependência espacial, que fossem eficientes na predição de localizações não amostradas e que gerassem estimativas eficientes de características relacionadas na predição espacial. Esses planos amostrais reduzidos foram obtidos por processos de otimização denominados recozimento simulado e algoritmo genético híbrido, considerando a média da variância da predição espacial, obtida pelo método de interpolação chamado krigagem, como função objetivo minimizada. Para isso, utilizaram-se conjuntos de dados simulados, com diferentes valores de alcance e efeito pepita, cujo intuito foi identificar a influência que esses parâmetros exercem na escolha da configuração amostral otimizada. Para cada conjunto de dados simulados, foram obtidas amostras pelos processos de otimização e seus resultados foram comparados aos esquemas de amostragem: aleatório, sistemático, sistemático centrado adicionado de delineamentos menores e sistemático centrado adicionado de pontos próximos. Os resultados mostraram que os planos de amostragem otimizados, principalmente os planos obtidos pelo algoritmo genético híbrido, produziram menores estimativas para a média da variância da krigagem e melhores estimativas para a porcentagem e soma de valores preditos acima do terceiro quartil e do percentil 90, que s~ao características relacionadas na predição espacial. Observou-se, também, que o aumento do tamanho amostral produziu melhores estimativas para todos os resultados analisados e, independente do valor de alcance e efeito pepita, a amostragem otimizada pelo algoritmo genético híbrido produziu melhores resultados. Além disso, obtiveram-se conjuntos amostrais reduzidos de 128 parcelas pelo algoritmo genético híbrido, pelo processo de recozimento simulado e pelas amostragens aleatória e sistemática, para a propriedade química teor de potássio pertencente ao conjunto de dados, com 256 parcelas, de um experimento de agricultura de precisão em uma área experimental. Por intermédio dos dados resultantes dessas amostragens, realizou-se uma analise geoestatística para identificar o comportamento de dependência espacial da variável potássio na área e foram feitas predições espaciais do potássio em localizações n~ao amostradas nessa mesma área. Em todos os esquemas de amostragem utilizados, os valores preditos foram classificados segundo o critério de adubação do potássio no Paraná em culturas de soja (EMATER - Empresa Paranaense de Assistência Técnica e Extensão Rural, 1998). Esses resultados foram comparados com a analise realizada no conjunto de dados inicial e observou-se uma maior similaridade desses resultados com os obtidos pela analise realizada através dos dados da amostragem obtida pelo algoritmo genético híbrido. Assim, tiveram-se evidências de que a redução em 50% do tamanho amostral do conjunto de dados da variável potássio, utilizando nessa redução uma amostragem obtida pelo algoritmo genético híbrido, produziu resultados eficientes para a classificação de adubação de potássio na área em estudo, reduzindo em 50% os custos 8 com analise química do solo, sem grande perda de eficiência nas conclusões obtidas pela predição espacial. / The aim of this work was to establish plans for sampling with reduced in the sample size, from sets of dependent spatial data, and they are eficients in terms of prediction of the nonsampled observations and prediction of linear targets. These plans were obtained by sampling reduced processes optimization of the algorithm called simulated annealing and hybrid genetic algorithm, considering the average kriging variance as objective function to be minimised. Therefore, it was used simulated data sets, With diferent values of range and nugget efect, whose aim was to identify the in uence that these exercise parameters in choosing the sample configuration foptimized. For each set of data simulated samples were obtained through the optimization process and its results were compared to sampling schemes: random, systematic, lattice plus in ll and lattice plus close pairs. The results show that the sampling plans optimized, especially the plans obtained by hybrid genetic algorithm, produced lower estimates for the average kriging variance and best estimates for the percentage and amount of predicted values above the third quartile and the 90 percentile, which are characteristics related to spatial prediction. It was also observed that the increase of sample size produces best estimate for all results analyzed and independent of the value range and nugget efect, sampling optimized by the hybrid genetic algorithm produced better results. In addition, sets up sampling reduced of 128 samples by sampling schemes: hybrid genetic algorithm, simulated annealing, random and systematic, for the property belonging to the chemical potassium set data, with 256 samples, an experiment of precision agriculture, in an experimental area. Through these sampling data, an analysis was carried out geostatistics to identify the behavior of spatial dependence of the variable potassium in the area under study and predictions were made of potassium space in locations not sampled that same area. In all sampling schemes used, the predicted values were classified at the discretion of the potassium fertilization in the cultivation of soybeans in Parana (EMATER-PARANA, 1998). These results were compared with the analysis in the initial set of data and there was a greater similarity of these results with those obtained by the analysis performed by data obtained by the sampling hybrid genetic algorithm. So there has been evidence that the reduction by 50% of the sample size of the data set of variable potassium, using this reduction a sample obtained by the hybrid genetic algorithm, produced efective results for classification of potassium fertilizer in the area under study, reducing by 50% the costs with chemical analysis of soil, without much loss of eficiency in the conclusions obtained by predicting space.
252

Operadores de recombinação por decomposição para otimização pseudo-booleana / Operators of recombination by decomposition for pseudo-Boolean optimization

Oliveira Filho, Diogenes Laertius Silva de 24 January 2019 (has links)
Utiliza-se recombinação de soluções em diversas estratégias de otimização, principalmente aquelas relacionadas a meta-heurísticas populacionais. Operadores de recombinação por decomposição particionam as variáveis de decisão do problema de modo a permitir a decomposição da função de avaliação. Assim, encontra-se, com custo computacional proporcional ao custo de se avaliar uma solução do problema, a melhor solução entre um número de soluções descendentes que cresce exponencialmente com o número de partições encontradas. Recombinação por decomposição foi até aqui utilizada apenas em problemas em que as informações sobre o relacionamento entre as variáveis de decisão são conhecidas a priori. O objetivo principal desta pesquisa de mestrado foi o desenvolvimento de um novo operador de recombinação por decomposição para todos os problemas de otimização pseudo-Booleana. Para isso, foi necessário estimar as ligações entre as variáveis de decisão por meio de procedimentos utilizados em algoritmos de estimação de distribuição e avaliar as partições encontradas pelo novo operador de recombinação. Os resultados encontrados demonstram que o novo operador desenvolvido obteve resultados relevantes para os problemas abordados em relação a geração de novas soluções candidatas por recombinação, em comparação aos demais operadores de recombinação utilizados / The recombination of solutions is important for most of the population meta- heuristics. Recombination by decomposition partitions the decision variables of the problem in order to allow the decomposition of the evaluation function. In this way, it allows to find, with computational cost proportional to the cost of evaluating one solution of the problem, the best solution among a number of offspring solutions that grows exponentially with the number of partitions found by the recombination operator. Recombination by decomposition has been so far used only in problems where the information about the linkage between the decision variables is known. The main objective of this project was the development of new operators of recombination by decomposition for all pseudo-Boolean optimization problems. For this purpose, was necessary to estimate the linkage between the decision variables by using procedures generally employed in estimation of distribution algorithms. Our results show that the new recombination operator obtained significant results for the problems chosen relate to the generation of new solutions by recombination, in comparison to the other recombination operators used
253

Ordonnancements coopératifs pour les chaînes logistiques / Cooperative scheduling for supply chains

Mouloua, Zerouk 21 November 2007 (has links)
Nous proposons de développer des outils d’aide à la décision pour l’ordonnancement de chaînes logistiques. Nous privilégions la coopération entre les différents acteurs de la chaîne notamment la négociation avec les fournisseurs sur les dates d’arrivée des composants, et avec les clients sur les dates de livraisons des produits finis. Nous considérons une chaîne logistique qui consiste en un réseau d’entreprises avec des centres de décisions indépendants. Les produits finis ou semi finis des entreprises d’assemblage sont fabriqués en utilisant des composants ou produits semi finis fournis par les autres entreprises du réseau ou par des fournisseurs externes. On est au niveau opérationnel, chaque entreprise construit son ordonnancement par rapport à ses propres centres de production. Comme la production de produits finis dépend des composants, des négociations sont entamées entre les entreprises concernant les dates d’arrivées des composants (les fenêtres de temps). Une solution globale est obtenue par une approche itérative par décomposition incluant des négociations bilatérales entre les centres de production et de décisions pour définir l’ordonnancement juste à temps minimisant la somme des pénalités. Pour résoudre l’ordonnancement juste à temps local de chaque centre de production nous proposons une méthode approchée basée sur les algorithmes génétiques. Chaque solution est évaluée grâce à un algorithme polynomial basé sur le PERT coût. Un contrôle semi décentralisé est envisagé pour assurer la convergence des négociations. Par ailleurs, nous étudions un ensemble de problèmes concernant l’optimisation des transports dans les chaînes logistiques / We propose new decision methods for coordinating supply chain scheduling. We focus on the cooperation between supply chain partners by means of negotiations about suppliers’ raw materials arrival dates, and customers’ delivery dates of finished. We consider a supply chain, which consists in a network of independant enterprises. The finished products (or sub products) of the assembly enterprise are produced using components and/or sub products supplied by other enterprises or by external suppliers. We are at the scheduling level and each enterprise builds its own schedules associated with its production centers. As an operation can be performed only when the production center has received the necessary components, the schedules are dependent. This induces negotiations between decision centers which is expressed by penalty functions associated with soft and hard release dates and due dates. A global solution is searched by an iterative decomposition approach including alternatively bilateral negotiations between the production decision centers and just in time scheduling, minimizing the local total sum of penalties. To solve each local just-in-time scheduling problem, we propose an approximation approach based on meta-heuristics, which explores the set of solutions, in which a solution is described by the job order on each machine and is evaluated using a “pert cost” algorithm.. A semi-decentralized control is suggested to assume the negotiation convergence. Furthermore, we study some transportation optimization problems in supply chains
254

G2: um gráfico de controle por atributos no monitoramento da variabilidade de processos. / Gs2: an attribute control chart to monitor process variability.

Érica Leandro Bezerra 01 August 2017 (has links)
Quando há interesse em monitorar a variância de uma característica da qualidade de interesse através de gráfico de controle por variáveis, o gráfico S2 é a alternativa mais usual. Entretanto, há situações onde mensurar a característica da qualidade é caro, consome mais tempo por unidade de inspeção, requer maior esforço dos operadores quanto à obtenção dos dados ou envolve ensaios destrutivos. Nestes casos, a classificação da variável contínua em categorias através de um dispositivo torna-se uma alternativa interessante. A avaliação pode ser mais rápida, a análise e o equipamento utilizado podem ser mais simples, de modo que o custo final da inspeção seja menor. O objetivo do trabalho é propor um gráfico de controle por atributos para monitoramento da variabilidade. Para tanto a estatística GS2 é calculada e gráfico sinaliza se GS2 > LC, LC limite de controle determinado de modo que minimize o ARL1, fixado um valor de ARL0. Como resultado a performance do gráfico GS2 é comparada ao gráfico S2 em termos de ARL1. / In cases aiming at monitoring the variance of a products quality characteristics using a variable control chart, chart S2 is the most used alternative. However, in some situations, this solution can be expensive, demand more time per individual inspected unit, demand greater efforts from operators to acquire data or involve destructive tests. In such cases, the use of a gauge measurement tool to classify the continuous variable into categories, becomes an interesting alternative. The assessment can be faster, the analysis and the tool used can be simple, resulting in less costly final inspections. This work proposes the use of an attribute control chart to monitor variability. Statistics GS2 is calculated and control chart signalize if GS2 > CL, whereas CL is the determined control limit, minimizing ARL1 for a fixed value of ARL0. GS2 control chart performance is compared to S2 chart based on ARL1.
255

O uso do algoritmo genético na construção de mapas de perfusão cerebral e sua aplicação em pacientes com anemia falciforme / The use of genetic algorithm to calculate brain perfusion MRI maps and its application to sickle-cell disease.

Nivia Aparecida da Silva 24 April 2008 (has links)
A imagem por ressonância magnética (IRM) tem se tornado uma poderosa ferramenta clínica na avaliação da anatomia cerebral. Recentemente, várias técnicas têm tornado possível a caracterização da função cerebral através da estimativa de alguns parâmetros metabólicos. Uma dessas técnicas é a perfusão cerebral, que descreve a passagem de sangue através da rede vascular cerebral, e permite estimar, não invasivamente, algumas características das funções hemodinâmicas tais como Volume de Sangue Cerebral (CBV), Fluxo de Sangue Cerebral (CBF) e Tempo de Trânsito Médio (MTT). Neste trabalho foi desenvolvido um programa computacional, baseado na plataforma Matlab, que analisa as imagens e cria mapas de perfusão. Primeiro foi comparado o desempenho do método de ajuste de curvas convencional Levenberg-Marquardt (LM) versus o Método que utiliza o Algoritmo Genético (AG). Os resultados mostraram que os AGS são muito mais estáveis, com relação aos seus parâmetros de controle, do que o método usual LM e, portanto, fornece evidencias da eficácia do AG em relação ao método convencional. Como um segundo e principal objetivo nós aplicamos o método para construir e examinar os mapas de perfusão em pacientes com anemia falciforme (sickle cell disease -SCD), particularmente em relação a complicações neurológicas e anormalidades vistas como uma técnica de imagem complementar. Além disso, os mapas de perfusão agregam informação a respeito de aspectos funcionais do sistema vascular, que é complementar a informação anatômica. Os nossos resultados com mostraram que esses mapas são uma ferramenta importante para auxiliar na avaliação clínica dos pacientes com anemia falciforme, como também podem ser aplicados para avaliar áreas em risco tão bem quanto ajudar no tratamento clínico de tais pacientes. / Magnetic Resonance Imaging (MRI) has become a powerful clinical tool for evaluation of brain anatomy. Several recently techniques have made possible the characterization of brain function via assessment of metabolic parameters. One of these techniques is the cerebral perfusion, which describes passage of blood through the brain\'s vascular network, and al- lows estimating, non-invasively, some characteristics of hemodynamic functions such as Cerebral Blood Volume (CBV), cerebral blood flow (CBF) and mean transit time (MTT). In this work a computational program was development, based on Matlab platform, which analyze perfusion images and create perfusion maps. First, the performance of conven- tional Levenberg-Marquardt Method (LM) versus a Genetic Algorithms (GAs) was com- pared. The results showed that the GAs are more stable than usual LM method with rela- tion to their control parameters and therefore provides evidence the effectiveness of the GAs with relation to a conventional method. As a second and principal objective we ap- plied the method to construct and examine perfusion maps of patients with sickle cell dis- ease (SCD), particularly in relation to the neurological complications and to abnormalities seen with complementary imaging techniques. Moreover, perfusion maps aggregate infor- mation about functional aspects of the vascular system, which is complementary to ana- tomical information. Our results show that these maps are an important tool to support clinical evaluation of sickle cell disease patients, as it may be applied to evaluate brain areas at risk as well as a help in the clinical treatment of such patients.
256

Three essays on game theory and computation

Nikram, Elham January 2016 (has links)
The results section of my thesis includes three chapters. The first two chapters are on theoretical game theory. In both chapters, by mathematical modelling and game theoretical tools, I am predicting the behaviour of the players in some real world issues. Hoteling-Downs model plays an important role in the modern political interpretations. The first chapter of this study investigates an extension of Hoteling-Downs model to have multi-dimensional strategy space and asymmetric candidates. Chapter 3 looks into the inspection game where the inspections are not the same in the series of sequential inspections. By modelling the game as a series of recursive zero-sum games I find the optimal strategy of the players in the equilibrium. The forth chapter investigates direct optimization methods for large scale problems. Using Matlab implementations of Genetic and Nelder-Mead algorithms, I compare the efficiency and accuracy of the most famous direct optimization methods for unconstraint optimization problems based on differing number of variables.
257

Análise da deformação por fluência em uma viga de concreto armado e protendido: retroanálise e algoritmo genético. / Deformation analysis of a reinforced and prestressed concrete beam: back analysis and genetic algorithm.

Lima, Carlos Renoir do Nascimento 27 April 2007 (has links)
Este trabalho apresenta um estudo sobre a deformação por fluência em uma viga de concreto armado e protendido ensaiada no LABEST - Laboratório da Tecnologia do Betão e do Comportamento Estrutural do Departamento de Engenharia Civil da Faculdade de Engenharia da Universidade do Porto, Portugal. A partir das deformações lineares específicas medidas no experimento, determinam-se: a sua parcela instantânea e a devido à fluência do concreto, e se faz uma comparação entre a curva de função de fluência obtida pela medição das deformações lineares específicas e as curvas geradas pelo CEB, CEB-Santos (função modificada do CEB por Santos) e pelo modelo de três parâmetros de Boltzmann. A obtenção das curvas de função de fluência do CEB-Santos e do modelo de Boltzmann exige a identificação de parâmetros para cada modelo, que se faz por técnica de retroanálise e por Algoritmos Genéticos. / This paper presents an analysis about creep strain of a reinforced and prestressed concrete beam assayed in the LABEST - Laboratory for the Concrete Technology and Structural Behaviour - Department of Civil Engineering, College of Engineering, University of Porto, Portugal. The instantaneous parcels and the creep of concrete are determined by strain measured in the experiment. Afterward, the curves of creep functions, obtained from the measurement of the strain, have been compared with the generated curves by CEB, CEB-Santos (modified function of CEB by Santos) and Boltzmann model. Both CEB-Santos and Boltzmann curves requires the identification of the parameters for each model. These parameters can be stablished through techniques as back analysis and Genetic Algorithms.
258

Técnica de otimização multiobjetivo aplicada ao projeto preliminar de navios petroleiros. / Multi-objective optimization technique applied to preliminary design of a tanker.

Sarzosa Burgos, Diego Felipe 14 August 2008 (has links)
Este trabalho apresenta um processo racional para a seleção das dimensões e coeficientes de forma ótimos para um navio petroleiro usando a técnica dos algoritmos genéticos. É proposto um procedimento para balanceamento em função do peso e espaço disponível de carga, determinando sua viabilidade e permitindo balancear navios de peso ou de volume. A elaboração de um procedimento e sua implementação em um programa eficiente é muito importante no dimensionamento preliminar de um navio, assim, esta pesquisa é uma divulgação da técnica dos algoritmos genéticos como uma técnica robusta para o projeto preliminar do navio. Duas funções de mérito são usadas para avaliar cada projeto: custo e vazamento médio de óleo. Estes atributos são conflitantes entre si, isto é, um baixo custo corresponde a um alto vazamento e vice-versa. O vazamento médio de óleo é avaliado com a metodologia probabilística proposta pela INTERTANKO (INTERTANKO, 2002). A avaliação do vazamento médio, através de um adimensional, considera a possibilidade de ocorrência de eventos de encalhes e/ou colisão resultando, respectivamente, em dano ao fundo e ao costado. Para a estimativa do custo são utilizados dois modelos, apresentando-se uma comparação dos seus efeitos nos valores finais das dimensões principais. Além disso, para o procedimento de balanceamento, cinco modelos de peso do casco são testados e analisados os impactos na forma e distribuição da fronteira de Pareto. Um algoritmo genético é implementado para buscar os parâmetros de projeto ótimos e identificar a fronteira não-dominada de Pareto. O algoritmo é testado com quatro funções encontradas na literatura técnica. As funções de teste são convexas, não-convexa, descontínua e uma com quatro restrições funcionais. A implementação mostra resultados similares com os apresentados na literatura. Um navio Suezmax, um Aframax e um Panamax são usados como estudo de casos para comparar os resultados obtidos com o programa implementado. Um objetivo adicional deste trabalho é expor à comunidade naval a utilidade e efetividade dos algoritmos genéticos nos problemas de projeto multiobjetivo. O enfoque desta pesquisa está na metodologia implementada e na sua recomendação para o projeto preliminar de navios. / This paper shows the rational process of selecting the optimal dimensions and forms coefficients of tanker ships using the technique of genetic algorithm. It is proposed a procedure to balance designs in weight and useful space and assesses their feasibility so that weight and volume limited tankers can be balanced. The elaboration of a procedure and its implementation in an efficient program is so important in the preliminary dimension of a ship, so this paper is a divulgation of the genetic algorithm as robust technique for the preliminary ship design. Two objective attributes are used to evaluate each design: Total Cost and Mean Oil Outflow. This attributes are conflicting between them, that is, a low cost correspond a high outflow and vice versa. The Mean Oil Outflow is evaluated with the probabilistic methodology proposed by the INTERTANKO to IMO. The assessment of mean oil outflow, by a non dimensional parameter, supposes the event of grounding and/or collision resulting in bottom and side damage respectively. In estimating the cost two models are used performing a comparison of their effects on the final values of principal dimension. In addition, for the balance procedure, five hull weight models are tested and analyzed the impact on the form and distribution of Pareto frontier. A genetic algorithm is implemented to search the optimal design parameters and identify non-dominated frontier of Pareto. The algorithm is tested with four test functions found in the technical literature. The test functions selected are convex, non convex, discontinuing and one with four restrictions. The implementation shows similar results with those showed in others papers. A Suezmax, an Aframax, and a Panamax ships are used as case study in order to compare the gotten results by the implemented program. One additional goal of this work is to expose to naval community the usefulness and effectiveness of the genetic algorithm in the Multi-Objective design. The emphasis of this paper is on methodology of design implemented and is suggested for preliminary ship design.
259

[en] THE OPTIMIZATION OF PETROLEUM FIELD EXPLORATION ALTERNATIVES USING EVOLUTIONARY COMPUTATION / [pt] OTIMIZAÇÃO DE ALTERNATIVAS PARA DESENVOLVIMENTO DE CAMPO DE PETRÓLEO UTILIZANDO COMPUTAÇÃO EVOLUCIONÁRIA

LUCIANA FALETTI ALMEIDA 21 May 2003 (has links)
[pt] Esta dissertação investiga um sistema baseado em algoritmos genéticos e algoritmos culturais, aplicado ao processo de desenvolvimento de um campo de petróleo. O desenvolvimento de um campo de petróleo consiste, neste caso, da disposição de poços num reservatório petrolífero, já conhecido e delimitado, que permita maximizar o Valor Presente Líquido. Uma disposição de poços define a quantidade e posição de poços produtores e injetores e do tipo de poço (horizontalou vertical) a serem empregados no processo de exploração. O objetivo do trabalho é avaliar o desempenho de Algoritmos Genéticos e Algoritmos Culturais como métodos de apoio à decisão na otimização de alternativas de produção em reservatórios petrolíferos. Determinar a localização de novos poços de petróleo em um reservatório é um problema complexo que depende de propriedades do reservatório e critérios econômicos, entre outros fatores. Para que um processo de otimização possa ser aplicado nesse problema, é necessário definir uma função objetivo a ser minimizada ou maximizada pelo processo. No problema em questão, a função objetivo a ser maximizada é o Valor Presente Líquido (VPL). Para se estabelecer o VPL, subtrai-se os gastos com a exploração do valor correspondente ao volume de petróleo estimado da reserva. Devido à complexidade do perfil de produção de petróleo, exige-se a utilização de simuladores de reservatório para esta estimativa. Deste modo, um simulador de reservatórios é parte integrante da função de avaliação. O trabalho de pesquisa foi desenvolvido em quatro etapas: um estudo sobre a área de exploração de petróleo; um estudo dos modelos da inteligência computacional empregados nesta área; a definição e implementação de um modelo genético e cultural para o desenvolvimento de campo petrolífero e o estudo de caso. O estudo sobre a área de exploração de campo de petróleo envolveu a teoria necessária para a construção da função objetivo. No estudo sobre as técnicas de inteligência computacional definiu-se os conceitos principais sobre Algoritmo Genético e Algoritmo Cultural empregados nesta dissertação. A modelagem de um Algoritmo Genético e Cultural constitui no emprego dos mesmos, para que dado um reservatório petrolífero, o sistema tenha condições de reconhecê-lo e desenvolvê-lo, ou seja, encontrar a configuração (quantidade, localização e tipo de poços) que atinja um maior Valor Presente Líquido. Os resultados obtidos neste trabalho indicam a viabilidade da utilização de Algoritmos Genéticos e Algoritmos Culturais no desenvolvimento de campos de petróleo. / [en] This dissertation investigates a system based in genetic algorithms and cultural algorithms, applied to the development process of a petroleum field. The development of a petroleum field consists in the placement of wells in an already known and delimited petroleum reservoir, which allows maximizing the Net Present Value. A placement of wells defines the quantity and position of the producing wells, the injecting wells, and the wells type (horizontal or vertical) to be used in the exploration process. The objective of this work is to evaluate the performance of Genetic Algorithms and Cultural Algorithms as decision support methods on the optimization of production alternatives in petroleum reservoirs. Determining the new petroleum wells location in a reservoir is a complex problem that depends on the properties of the reservoir and on economic criteria, among other factors. In order to an optimization process to be applied to this problem, it s necessary to define a target function to be minimized or maximized by the process. In the given problem, the target function to be maximized is the Net Present Value (NPV). In order to establish the NPV, the exploration cost correspondent to the estimated reservoir petroleum volume is deducted. The complexity of the petroleum s production profile implies on the use of reservoirs simulators for this estimation. In this way, a reservoir simulator is an integrant part of the evaluation function. The research work was developed in four phases: a study about the petroleum exploration field; a study about the applied computational intelligence models in this area; the definition and implementation of a genetic and cultural model for the development of petroliferous fields and the case study. The study about the petroleum exploration field involved all the necessary theory for the building of the target function. In the study about the computational intelligence techniques, the main concepts about the Genetic Algorithms and Cultural Algorithms applied in this dissertation were defined. The modeling of Genetic and Cultural Algorithms consisted in applying them so that, given a petroleum reservoir, the system is capable of evolve and find configurations (quantity, location and wells type) that achieve greater Net Present Values. The results obtained in this work, indicate that the use of Genetic Algorithms and Cultural Algorithms in the development of petroleum fields is a promising alternative.
260

FEM Mesh Mapping to a SIMD Machine Using Genetic Algorithms

Dunkelberg, Jr., John S. 04 January 2001 (has links)
The Finite Element Method is a computationally expensive method used to perform engineering analyses. By performing such computations on a parallel machine using a SIMD paradigm, these analyses' run time can be drastically reduced. However, the mapping of the FEM mesh elements to the SIMD machine processing elements is an NP-complete problem. This thesis examines the use of Genetic Algorithms as a search technique to find quality solutions to the mapping problem. A hill climbing algorithm is compared to a traditional genetic algorithm, as well as a "messy" genetic algorithm. The results and comparative advantages of these approaches are discussed.

Page generated in 0.0588 seconds