• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 218
  • 81
  • 19
  • 12
  • 6
  • 6
  • 6
  • 4
  • 4
  • 3
  • 3
  • 3
  • 2
  • 2
  • 1
  • Tagged with
  • 444
  • 444
  • 219
  • 172
  • 85
  • 76
  • 70
  • 66
  • 59
  • 53
  • 52
  • 48
  • 46
  • 42
  • 41
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
351

Massively Parallel Reinforcement Learning With an Application to Video Games

Goeringer, Tyler 23 August 2013 (has links)
No description available.
352

Distribution of Linda across a network of workstations

Schumann, Charles N. 10 November 2009 (has links)
The Linda programming language provides an architecturally independent paradigm for writing parallel programs. By designing and implementing Linda on a network of stand alone workstations a scalable multicomputer can be constructed from existing equipment. This thesis presents the design, implementation and testing of a distributable Linda kernel and communications subsystem providing a framework for full distribution of Linda on a network of workstations. Following a presentation of the Linda language, the kernel’s design and rationale are presented. The design provides for interprocess communications by implementing a protocol on top of the Unix socket facility. Choosing sockets as the interprocess communications medium has the advantage of wide portability. However, a design critique is presented which addresses several disadvantages of the socket based communications model. Considerable attention is given to quantifying the effectiveness of this design in comparison to a shared memory, non-distributable design from Yale University. A thorough investigation into the source of particular observed phenomena is presented which leads to an improvement in wall time performance of an order of magnitude. / Master of Science
353

Parallel metaheuristics for stochastic capacitated multicommodity network design

Fu, Xiaorui January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
354

Étude des artefacts en tomodensitométrie par simulation Monte Carlo

Bedwani, Stéphane 08 1900 (has links)
En radiothérapie, la tomodensitométrie (CT) fournit l’information anatomique du patient utile au calcul de dose durant la planification de traitement. Afin de considérer la composition hétérogène des tissus, des techniques de calcul telles que la méthode Monte Carlo sont nécessaires pour calculer la dose de manière exacte. L’importation des images CT dans un tel calcul exige que chaque voxel exprimé en unité Hounsfield (HU) soit converti en une valeur physique telle que la densité électronique (ED). Cette conversion est habituellement effectuée à l’aide d’une courbe d’étalonnage HU-ED. Une anomalie ou artefact qui apparaît dans une image CT avant l’étalonnage est susceptible d’assigner un mauvais tissu à un voxel. Ces erreurs peuvent causer une perte cruciale de fiabilité du calcul de dose. Ce travail vise à attribuer une valeur exacte aux voxels d’images CT afin d’assurer la fiabilité des calculs de dose durant la planification de traitement en radiothérapie. Pour y parvenir, une étude est réalisée sur les artefacts qui sont reproduits par simulation Monte Carlo. Pour réduire le temps de calcul, les simulations sont parallélisées et transposées sur un superordinateur. Une étude de sensibilité des nombres HU en présence d’artefacts est ensuite réalisée par une analyse statistique des histogrammes. À l’origine de nombreux artefacts, le durcissement de faisceau est étudié davantage. Une revue sur l’état de l’art en matière de correction du durcissement de faisceau est présentée suivi d’une démonstration explicite d’une correction empirique. / Computed tomography (CT) is widely used in radiotherapy to acquire patient-specific data for an accurate dose calculation in radiotherapy treatment planning. To consider the composition of heterogeneous tissues, calculation techniques such as Monte Carlo method are needed to compute an exact dose distribution. To use CT images with dose calculation algorithms, all voxel values, expressed in Hounsfield unit (HU), must be converted into relevant physical parameters such as the electron density (ED). This conversion is typically accomplished by means of a HU-ED calibration curve. Any discrepancy (or artifact) that appears in the reconstructed CT image prior to calibration is susceptible to yield wrongly-assigned tissues. Such tissue misassignment may crucially decrease the reliability of dose calculation. The aim of this work is to assign exact physical values to CT image voxels to insure the reliability of dose calculation in radiotherapy treatment planning. To achieve this, origins of CT artifacts are first studied using Monte Carlo simulations. Such simulations require a lot of computational time and were parallelized to run efficiently on a supercomputer. An sensitivity study on HU uncertainties due to CT artifacts is then performed using statistical analysis of the image histograms. Beam hardening effect appears to be the origin of several artifacts and is specifically addressed. Finally, a review on the state of the art in beam hardening correction is presented and an empirical correction is exposed in detail.
355

Aumento da eficiência do cálculo da energia de van der Waals em algoritmos genéticos para predição de estruturas de proteínas / Enhance the Van der Waals energy efficiency calculi in genetic algorithms for protein structure prediction

Bonetti, Daniel Rodrigo Ferraz 31 March 2010 (has links)
As proteínas são moléculas presentes nos seres vivos e essenciais para a vida deles. Para entender a função de uma proteína, devese conhecer sua estrutura tridimensional (o posicionamento correto de todos os seus átomos no espaço). A partir da estrutura de uma proteína vital de um organismo causador de uma doença é possível desenvolver fármacos para o tratamento da doença. Para encontrar a estrutura de uma proteína, métodos biofísicos, como Cristalografia de Raio-X e Ressonância Nuclear Magnética têm sido empregados. No entanto, o uso desses métodos tem restrições práticas que impedem a determinação de várias estruturas de proteínas. Para contornar essas limitações, métodos computacionais para o problema de predição da estrutura da proteína (PSP, Protein Structure Prediction) têm sido investigados. Várias classes de métodos computacionais têm sido desenvolvidas para o problema de PSP. Entre elas, as abordagens ab initio são muito importantes, pois não utilizam nenhuma informação prévia de outras estruturas de proteínas para fazer o PSP, apenas a sequência de aminoácidos da proteína e o gráfico de Ramachandran são empregados. O PSP ab initio é um problema combinatorial que envolve relativamente grandes instâncias na prática, por exemplo, as proteínas em geral têm centenas ou milhares de variáveis para determinar. Para vencer esse entrave, metaheurísticas como os Algoritmos Genéticos (AGs) têm sido investigados. As soluções geradas por um AG são avaliadas pelo cálculo da energia potencial da proteína. Entre elas, o cálculo da interação da energia de van der Waals é custoso computacionalmente tornando o processo evolutivo do AG muito lento mesmo para proteínas pequenas. Este trabalho investiga técnicas para reduzir significativamente o tempo de execução desse cálculo. Basicamente, foram propostas modificações de técnicas de paralelização utilizando MPI e OpenMP para os algoritmos resultantes. Os resultados mostram que o cálculo pode ser 1.500 vezes mais rápido para proteínas gigantes quando aplicadas as técnicas investigadas neste trabalho / Proteins are molecules present in the living organism and essential for their life. To understand the function of a protein, its threedimensional structure (the correct positions of all its atoms in the space) should be known. From the structure of a vital protein of an organism that causes a human disease, it is possible to develop medicines for treatment of the disease. To find a protein structure, biophysical methods, as Crystallography of X-Ray and Magnetic Nuclear Resonance, have been employed. However, the use of those methods have practical restrictions that impede the determination of several protein structures. Aiming to overcome such limitation, computational methods for the problem of protein structure prediction (PSP) has been investigated. Several classes of computational methods have been developed for PSP. Among them, ab initio approaches are very important since they use no previous information from other protein structure, only the sequence of amino acids of the protein and the Ramachandran graph are employed. The ab initio PSP is a combinatorial problem that involves relatively large instances in practice, i. e. proteins in general have hundreds or thousands of variables to be determined. To deal with such problem, metaheuristics as Genetic Algorithms (GAs) have been investigated. The solutions generated by a GA are evaluated by the calculus of the potencial energies of the protein. Among them, the calculation of the interaction of van der Waals energy is computationally intense making the evolutionary process of a GA very slow even for non-large proteins. This work investigated techniques to significantly reduce the running time for that calculus. Basically, we proposed modifications parallelization of the resultant algorithm using MPI and OpenMP techniques. The results show that such calculus can be 1.500 times faster when applying the techniques investigated in this work for large proteins
356

Aumento da eficiência do cálculo da energia de van der Waals em algoritmos genéticos para predição de estruturas de proteínas / Enhance the Van der Waals energy efficiency calculi in genetic algorithms for protein structure prediction

Daniel Rodrigo Ferraz Bonetti 31 March 2010 (has links)
As proteínas são moléculas presentes nos seres vivos e essenciais para a vida deles. Para entender a função de uma proteína, devese conhecer sua estrutura tridimensional (o posicionamento correto de todos os seus átomos no espaço). A partir da estrutura de uma proteína vital de um organismo causador de uma doença é possível desenvolver fármacos para o tratamento da doença. Para encontrar a estrutura de uma proteína, métodos biofísicos, como Cristalografia de Raio-X e Ressonância Nuclear Magnética têm sido empregados. No entanto, o uso desses métodos tem restrições práticas que impedem a determinação de várias estruturas de proteínas. Para contornar essas limitações, métodos computacionais para o problema de predição da estrutura da proteína (PSP, Protein Structure Prediction) têm sido investigados. Várias classes de métodos computacionais têm sido desenvolvidas para o problema de PSP. Entre elas, as abordagens ab initio são muito importantes, pois não utilizam nenhuma informação prévia de outras estruturas de proteínas para fazer o PSP, apenas a sequência de aminoácidos da proteína e o gráfico de Ramachandran são empregados. O PSP ab initio é um problema combinatorial que envolve relativamente grandes instâncias na prática, por exemplo, as proteínas em geral têm centenas ou milhares de variáveis para determinar. Para vencer esse entrave, metaheurísticas como os Algoritmos Genéticos (AGs) têm sido investigados. As soluções geradas por um AG são avaliadas pelo cálculo da energia potencial da proteína. Entre elas, o cálculo da interação da energia de van der Waals é custoso computacionalmente tornando o processo evolutivo do AG muito lento mesmo para proteínas pequenas. Este trabalho investiga técnicas para reduzir significativamente o tempo de execução desse cálculo. Basicamente, foram propostas modificações de técnicas de paralelização utilizando MPI e OpenMP para os algoritmos resultantes. Os resultados mostram que o cálculo pode ser 1.500 vezes mais rápido para proteínas gigantes quando aplicadas as técnicas investigadas neste trabalho / Proteins are molecules present in the living organism and essential for their life. To understand the function of a protein, its threedimensional structure (the correct positions of all its atoms in the space) should be known. From the structure of a vital protein of an organism that causes a human disease, it is possible to develop medicines for treatment of the disease. To find a protein structure, biophysical methods, as Crystallography of X-Ray and Magnetic Nuclear Resonance, have been employed. However, the use of those methods have practical restrictions that impede the determination of several protein structures. Aiming to overcome such limitation, computational methods for the problem of protein structure prediction (PSP) has been investigated. Several classes of computational methods have been developed for PSP. Among them, ab initio approaches are very important since they use no previous information from other protein structure, only the sequence of amino acids of the protein and the Ramachandran graph are employed. The ab initio PSP is a combinatorial problem that involves relatively large instances in practice, i. e. proteins in general have hundreds or thousands of variables to be determined. To deal with such problem, metaheuristics as Genetic Algorithms (GAs) have been investigated. The solutions generated by a GA are evaluated by the calculus of the potencial energies of the protein. Among them, the calculation of the interaction of van der Waals energy is computationally intense making the evolutionary process of a GA very slow even for non-large proteins. This work investigated techniques to significantly reduce the running time for that calculus. Basically, we proposed modifications parallelization of the resultant algorithm using MPI and OpenMP techniques. The results show that such calculus can be 1.500 times faster when applying the techniques investigated in this work for large proteins
357

VirD-GM: Uma Contribuição Para o Modelo de Distribuição e Paralelismo do Projeto D-GM / VIRD-GM: A CONTRIBUTION TO THE MODEL OF DISTRIBUTION AND PARALLELISM OF DE PROJECT D-GM

Fonseca, Vanessa Souza da 07 August 2008 (has links)
Made available in DSpace on 2016-03-22T17:26:09Z (GMT). No. of bitstreams: 1 Vanessa_Souza_da_Fonseca.pdf: 1687661 bytes, checksum: 6dbf2a6dc47f997aa3e8aa0c8f37aced (MD5) Previous issue date: 2008-08-07 / This research describes the main contributions of the VirD-GM (Virtual Distributed Geometric Machine Model) for the model of parallelism and distribution of the Project D-GM (Distributed Geometric Machine Project). In order to provide the abstractions of the GM model (Geometric Machine) on a platform to support the implementation distributed and / or parallel computations, the middleware EXEHDA (Execution Environment for High Distributed Applications) is considered as the execution environment. The work enabled to create and manage an environment of parallel and directed programming, and promote the implementation, in this environment, of applications developed in the visual environment VPE-GM (Visual Programming Environment for the Geometric Machine Model). These applications are, by nature, parallel and restricted to the study of parallel algorithms for Scientific Computation. The work focuses on the design and construction of the software architecture of the VirD-GM, which is responsible for managing parallel computations obtained by the application of process constructors defined by the GM model. In this context, this research does not only disposes the construction of the structural vision of the project D-GM but also consolidates its integration with the functional vision. It is characterized by an extension of the visual environment VPEGM, which is responsible for the environment development and code generation for the Project D-GM. Among the main contributions, one may consider: (i) formalization of the concepts of concurrency and conflict intermittent with the notions of communication and synchronization of processes, directly related to the space-time structure of the GM model; (ii) modeling and implementation of the loading, management and control structures of the VirD-GM; (iii) implementation and customization of services provided by the EXEHDA; (iv) construction of the levels of applications, support of execution environment and basic systems; (v) data flow control and manipulation of adjacency matrix related to concurrent computations, including the implementation of barriers of synchronization. The prototyping of VirD-GM and avaliaton achieved through the development of test applications have implemented the viability of theoretical-practical approach proposed in Project D-GM / Este trabalho descreve as principais contribuic¸ oes da VirD-GM (Virtual Distributed Geometric Machine Model) para o modelo de distribuic¸ ao e paralelismo do Projeto D-GM (Distributed Geometric Machine Project). Para disponibilizar as abstrac¸ oes do modelo GM (Geometric Machine) em uma plataforma com suporte `a execuc¸ ao distribu ´ıda e/ou concorrente, considera-se o middleware EXEHDA ( Execution Environment for High Distributed Applications) como ambiente de suporte `a execuc¸ ao. O trabalho possibilitou criar e gerenciar um ambiente de programac¸ ao paralela e distribu´ıda, bem como promover a execuc¸ ao, sob este ambiente, das aplicac¸ oes desenvolvidas no ambiente visual VPE-GM (Visual Programming Environment for the Geometric Machine Model). Estas aplicac¸ oes s ao, por natureza, paralelas e direcionadas ao estudo de algoritmos paralelos para a Computac¸ ao Cient´ıfica. O trabalho est´a centrado na concepc¸ ao e construc¸ ao da arquitetura de software da VirD-GM, respons´avel pelo gerenciamento das computac¸ oes paralelas obtidas pela aplicac¸ ao de construtores de processos definidos no modelo GM. Neste contexto, esta dissertac¸ ao n ao s´o viabilizou construc¸ ao da vis ao estrutural do projeto D-GM como tamb´em consolidou sua integrac¸ ao com a vis ao funcional, caracterizada pela extens ao do ambiente VPE-GM, respons´avel pelo ambiente de desenvolvimento e gerac¸ ao de c´odigo para o Projeto D-GM. Dentre as principais contribuic¸ oes, destacam-se: (i) formalizac¸ ao das noc¸ oes de concorr encia e conflito intermitentes com as noc¸ oes de comunicac¸ ao e sincronizac¸ ao de processos, diretamente relacionadas com a estrutura espac¸o-temporal do modelo GM; (ii) definic¸ ao compreendendo a modelagem e implementac¸ ao dos m´odulos de carregamento, gerenciamento e controle da VirD-GM; (iii) estudo, aplicac¸ ao e customizac¸ ao dos servic¸os disponibilizados pelo middleware EXEHDA; (iv) implementac¸ ao das camadas de aplicac¸ ao, de suporte ao ambiente de execuc¸ ao e de sistemas b´asicos; (v) controle do fluxo de dados e manipulac¸ ao das depend encias entre as computac¸ oes concorrentes pelo uso de matrizes de adjac encias, incluindo a implementac¸ ao de barreiras de sincronizac¸ ao, garantindo a correta execuc¸ ao. A prototipac¸ ao da VirD-GM e a avaliac¸ ao obtida com o desenvolvimento de aplicac¸ oes de teste demonstraram a viabilidade da abordagem te´orica-pr´atica proposta no Projeto D-GM
358

Extensão da Ferramenta de Apoio à Programação Paralela (F.A.P.P.) para ambientes paralelos virtuais. / A parallel programming supporting tool extension for parallel virtual environments.

Jaquie, Kalinka Regina Lucas 30 March 1999 (has links)
Os sistemas computacionais distribuídos aplicados à computação paralela permitem uma melhor relação custo/benefício para a computação paralela. Esses sistemas oferecem a potência computacional adequada às aplicações que não necessitam de uma máquina maciçamente paralela, porém necessitam de uma potência computacional maior que uma máquina seqüencial pode oferecer. P.V.M. (Parallel Virtual Machine) e M.P.I. (Message Passage Inteface) são exemplos de ambiente de paralelos virtuais amplamente discutido na literatura. Tendo em vista a grande utilização desses ambientes tanto em nível acadêmico quanto em níveis comerciais e industriais, torna-se interessante a criação de uma ferramenta que apoie o desenvolvimento de programas para esses ambientes. Poucas são as ferramentas desse tipo que aparecem na literatura; uma delas e que permite ser estendida para dar suporte a tais ambientes é a F.A.P.P. (Ferramenta de Apoio à Programação Paralela). Dentro desse contexto, este trabalho apresenta a modelagem dos ambientes paralelos virtuais segundo a abordagem proposta na definição da F.A.P.P., para que arcabouços de programas P.V.M. e M.P.I possam ser gerados. Essa ferramenta permite a utilização da computação paralela a um maior número de usuários, ou seja, auxiliando os iniciante na confecção dos programa e os experientes na manutenção, além de permitir maior produtividade. Foram realizados estudos visando a validação e a avaliação da ferramenta. Os resultados obtidos demonstram que a ferramenta possui comportamento estável e tem potencial para ser utilizada livremente em ambientes P.V.M. e M.P.I.. / Distributed computing systems applied to parallel computing allow the realisation of a better cost/benefit relation for parallel programming. These systems offer an adequate computing power to those applications which do not require a massively parallel architecture but need such a computer power not available from sequential computers. P.V.M. (Parallel Virtual Machine) and M.P.I. (Message Passing Interface) are good examples of parallel virtual environments being widely discussed in the literature. These virtual environments are broadly used in both academic, commercial and industrial applications, making attractive the development of supporting tools for these parallel programming environments. There are few of such tools available in the literature. F.A.P.P. is one of these tools and it can be extended to support parallel virtual environments. This work addresses the extension of the F.A.P.P. in order to produced P.V.M. and M.P.I. source code. This extension can help a large number of users to develop parallel programs either by giving support for the beginners or by increasing the productivity of the experienced parallel programmers, besides helping in the maintenance phase. The tool produced is tested by means of several examples which show a stable behaviour and that the tool can be easily used in both P.V.M. and M.P.I. environments.
359

Algoritmo distribuído para alocação de múltiplos recursos em ambientes distribuídos. / Distributed algorithm for multiple resource allocation in a distributed environment.

Ribacionka, Francisco 07 June 2013 (has links)
Ao considerar um sistema distribuído composto por um conjunto de servidores, clientes e recursos, que caracterizam ambientes como grades ou nuvens computacionais, que oferecem um grande número de recursos distribuídos como CPUs ou máquinas virtuais, os quais são utilizados conjuntamente por diferentes tipos de aplicações, tem-se a necessidade de se ter uma solução para alocação destes recursos. O apoio à alocação dos recursos fornecidos por tais ambientes deve satisfazer todas as solicitações de recursos das aplicações, e fornecer respostas afirmativas para alocação eficiente de recursos, fazer justiça na alocação no caso de pedidos simultâneos entre vários clientes de recursos e responder em um tempo finito a requisições. Considerando tal contexto de grande escala em sistemas distribuídos, este trabalho propõe um algoritmo distribuído para alocação de recursos. Este algoritmo explora a Lógica Fuzzy sempre que um servidor está impossibilitado de atender a uma solicitação feita por um cliente, encaminhando esta solicitação a um servidor remoto. O algoritmo utiliza o conceito de relógio lógico para garantir justiça no atendimento das solicitações feitas em todos os servidores que compartilham recursos. Este algoritmo segue o modelo distribuído, onde uma cópia do algoritmo é executada em cada servidor que compartilha recursos para seus clientes, e todos os servidores tomam parte das decisões com relação a alocação destes recursos. A estratégia desenvolvida tem como objetivo minimizar o tempo de resposta na alocação de recursos, funcionando como um balanceamento de carga em um ambiente cliente-servidor com alto índice de solicitações de recursos pelos clientes. A eficiência do algoritmo desenvolvido neste trabalho foi comprovada através da implementação e comparação com outros algoritmos tradicionais, mostrando a possibilidade de utilização de recursos que pertencem a distintos servidores por uma mesma solicitação de recursos, com a garantia de que esta requisição será atendida, e em um tempo finito. / When considering a distributed system composed of a set of servers, clients, and resources that characterize environments like computational grids or clouds that offer a large number of distributed resources such as CPUs or virtual machines, which are used jointly by different types of applications, there is the need to have a solution for allocating these resources. Support the allocation of resources provided by such environments must satisfy all Requests for resources such applications, and provide affirmative answers to the efficient allocation of resources, to do justice in this allocation in the case of simultaneous Requests from multiple clients and answer these resources in a finite time these Requests. Considering such a context of large- scale distributed systems, this paper proposes a distributed algorithm for resource allocation This algorithm exploits fuzzy logic whenever a server is unable to meet a request made by a client, forwarding this request to a remote server. The algorithm uses the concept of logical clock to ensure fairness in meeting the demands made on all servers that share resources. This algorithm follows a distributed model, where a copy of the algorithm runs on each server that shares resources for its clients and all servers take part in decisions regarding allocation of resources. The strategy developed aims to minimize the response time in allocating resources, functioning as a load-balancing in a client-server environment with high resource Requests by customers.
360

Desenvolvimento de modelos e algoritmos sequenciais e paralelos para o planejamento da expansão de sistemas de transmissão de energia elétrica / Development of mathematical models, sequential and parallel algorithms for transmission expansion planning

Aldir Silva Sousa 16 March 2012 (has links)
O principal objetivo deste estudo é propor uma nova metodologia para lidar com o problema de Planejamento da Expansão de Redes de Transmissão de Energia Elétrica com Múltiplos Cenários de Geração (PERTEEG). Com a metodologia proposta neste trabalho almeja-se construir planos de expansão de redes de transmissão de energia elétrica que sejam capazes de, no menor custo de investimento possível, satisfazer às novas exigências dos sistemas elétricos modernos, tais como construção de redes de transmissão livres de congestionamento e robustas à incerteza em relação aos cenários de geração futuros. Através de estudos realizados na literatura do problema, verificou-se que novos modelos e metodologias de abordagem do PERTEEG se fazem necessários. Ao se modelar o PERTEEG visando construir redes de transmissão que contornem as incertezas em relação aos cenários de geração futuros e concomitantemente minimizar o custo de investimento para a expansão do sistema, o planejador se depara com um problema de otimização multiobjetivo. Existem na literatura da pesquisa operacional diversos algoritmos que visam lidar com problemas multiobjetivos. Nesta tese, foram aplicados dois desses algoritmos: Nondominated Sorting Genetic Algorithms-II (NSGA-II) e SPEA2: Strength Pareto Evolutionary Algorithm (SPEA2). Em primeira análise, se destacou uma das maiores dificuldade de lidar com o PERTEEG, a saber, o esforço computacional elevado. Por isso, vislumbrou-se que uma possível solução para contornar esta dificuldade esteja na computação paralela. Para se confirmar esta suspeita, nesta tese foram implementadas versões paralelas dos algoritmos sequenciais testados. A qualidade das soluções encontradas pelos algoritmos foram bastante superiores às soluções encontradas pelos algoritmos sequenciais. Neste trabalho também será mostrado que as soluções ótimas clássicas considerando somente o objetivo de m´mínimo custo são incapazes de atender às novas necessidades dos sistemas elétricos de potência. Testes computacionais foram realizados e analisados neste trabalho. Considerando as metodologias conhecidas na literatura para medição da qualidade das soluções encontradas por algoritmos multiobjetivo, se pode afirmar de que a proposta de abordagem do problema de PERTEEG pode ser viável tanto do ponto de vista de engenharia como do ponto de vista da computação matemática. / The main objective of this study is to propose a new methodology to deal with the long-term transmission system expansion planning with multiple generation dispatch scenarios problem (TEP-MDG). With the methodology proposed in this thesis we aim to build expansion plans with minimum investment cost and also capable of meeting the new demands of modern electrical systems, such as uncertainty about the future generation scenarios and congestion in the transmission systems. By modeling the TEP-MDG aiming to build transmission networks that circumvent the uncertainties regarding the future generation scenarios and simultaneously minimize the cost of investment for transmission networks expansion, the planner faces a multiobjective optimization problem. One can find various algorithms that aim to deal with multiobjective problems in the literature of operations research. In this thesis, we apply two of these algorithms: Nondominated Sorting Genetic Algorithms-II (NSGA-II) and SPEA2: Strength Pareto Evolutionary Algorithm (SPEA2). In a first analysis, we have found that the most critical issue with the TEP-MOG is the high computational demand. Therefore, in order to circumvent this difficulty we have implemented parallel versions of the sequential algorithms tested. In performed tests, the parallel algorithms have found solutions of superior quality than the solutions found by the sequential algorithms. In this thesis we also show that optimal solutions considering only the classical least cost objective are unable to meet the electric power systems new demands. Tests have been performed and analyzed in this work. By considering the methods known in the literature convinced to measure the quality of solutions found by multiobjective algorithms, we concluded that the proposed approach to TEP-MDG may be feasible from the point of view of both engineering and computational mathematics.

Page generated in 0.0773 seconds