• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 64
  • 5
  • 4
  • 4
  • 4
  • 4
  • 2
  • 1
  • Tagged with
  • 71
  • 71
  • 71
  • 22
  • 20
  • 20
  • 19
  • 19
  • 17
  • 16
  • 15
  • 13
  • 9
  • 9
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Make distribuido

Oliveira, Aredis Sebastião de 15 December 1997 (has links)
Orientador: Rogerio Drummond Burnier Pessoa de Mello Filho / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-07-23T12:49:47Z (GMT). No. of bitstreams: 1 Oliveira_AredisSebastiaode_M.pdf: 3427641 bytes, checksum: 37bbd69debac907793af9a3c65ed42a3 (MD5) Previous issue date: 1997 / Resumo: Este trabalho apresenta o projeto e a implementação de um Make Distribuído (MakeD) baseado na conhecida ferramenta make. A aplicação cliente/selVidor MakeD permite usar uma rede de computadores como um re~urso computacional único para minimizar o tempo gasto no processo de make durante o desenvolvimento de projetos de médio e grande porte. Num ambiente de desenvolvimento típico uma estação cliente apresenta um padrão de uso de CPU com curtos períodos de intensa utilização e longos períodos de inatividade ou baixa utilização. Dessa forma, utilizar os clientes como servidores de CPU e usar a ferramenta MakeD para distribuir as tarefas de compilações entre eles melhora o uso da capacidade de processamento disponível na rede, contribuindo para balancear a utilização dos recursos. A implementação do MakeD combina o mecanismo de RPC com recursos de multithreading para explorar a distribuição de tarefas na rede e a multi-tarefa em cada sistema. Os resultados de testes comparativos entre MakeD, GNU Make e outro make distribuído (Dmake) demonstram a eficiência dos métodos empregados. O trabalho também discute alguns aspectos de transformação de aplicações centralizadas em distribuídas e propõe um selVidor de make distribuído multi-usuário como extensão para o MakeD / Abstract: This work presents the design and implementation of a Distributed Make (MakeD) utility. The MakeD c1ient/server application allows using a network as a single computing resource to reduce compilation time in the development of medium and large projects. In a typical development environment, client workstations presents relatively short periods of high CPU load followed by long periods of low or zero utilization. MakeD uses ordinary c1ients as CPU servers in order to distribute tasks, thus making a network's id1e processor capacity available and balancing resource use. MakeD uses RPC and multithreading to achieve distributed processing in the network and multitasking within each node. The results of comparative tests show performance gains relative to GNU Make and a similar distributed make (Dmake). This work also discusses some aspects of transforming centralized applications into distributed ones and proposes a multi-user distributed Make Server as a future evolution / Mestrado / Mestre em Ciência da Computação
2

Um estudo sobre modelos de computação paralela

Menezes, Ronaldo Parente de 29 June 1995 (has links)
Orientador: João Carlos Setubal / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Ciencia da Computação / Made available in DSpace on 2018-07-20T10:42:14Z (GMT). No. of bitstreams: 1 Menezes_RonaldoParentede_M.pdf: 3928510 bytes, checksum: ea2fba03acca3afbcc6c42b92cf68f1c (MD5) Previous issue date: 1995 / Resumo: Modelos de Computação são uma ferramenta muito importante para um bom desenvolvimento de algoritmos. Em geral, eles visam facilitar o trabalho de projetistas abstraindo diversos fatores existentes nas máquinas reais. Em computação paralela, a necessidade de um modelo é extrema devido a grande variedade de arquiteturas. O surgimento de um modelo de computação paralela poderia impulsionar ainda mais o crescimento da área que já é bastante acentuado, devido a limitações físicas existentes em computadores seqüenciais. Nesta dissertação fazemos um estudo de modelos de computação paralela sob o ponto de vista de projeto de algoritmos e com enfoque na computação paralela derivada da arquitetura de von Neumann. Para tanto, começamos por estudar um conjunto de máquinas paralelas para que suas diferenças fiquem claras. Escolhemos as máquinas paralelas mais conhecidas, ou mais difundidas, como: CM-2, Sequent Symmetry, MasPar MP-l, CM-5, entre outras. Após este estudo de máquinas, partimos diretamente para os modelos de computação paralela. Escolhemos três como base. Tais modelos apresentam características bem distintas quanto a simplicidade e realismo. Os modelos estudados são PRAM, BSP [Val90] e LogP [CKP+93]. Muitos defendem que continuemos usando o modelo PRAM , pois este, apesar de ser muito abstrato, facilita bastante o trabalho dos projetistas. A proposta do modelo BSP é um pouco mais ousada pois Valiant tenta, com seu modelo, influenciar as áreas de hardware e software da mesma forma que a arquitetura von Neumann fez com a computação seqüencial. Já a proposta do modelo LogP é bastante imediatista, visto que tenta resolver o problema atual de dificuldade de projeto de algoritmos. Para que pudéssemos avaliar um modelo sob o ponto de vista de projeto de algoritmos, fizemos um estudo de casos com os problemas de Transformada de Fourier e Eliminação de Gauss. Com este estudo de casos pudemos avaliar quão fácil ou difícil é projetar algoritmos em cada um dos modelos. / Abstract: Models of Computation are one of most important tools in algorithm design With these models, the work of an algorithm designer becomes easier, because these models leave out many characteristics of real machines. In parallel computing there is a great need for a general model, because we have many different parallel machines. The advent of a parallel computing model could make the area grow more than it is already growing. In this dissertation we study some parallel computing models. First we take a look at a representative set of parallel machines, in order to learn the differences between each architecture. Our set of machines contains some of the most important commercial machines such as: CM-2, Sequent Symmetry, MasPar MP-l and CM-5. After this, we study the models themselves. The models chosen were: PRAM, BSP [Va190] and LogP [CKP+93]. Many researchers argue that the PRAM is the best model for algorithm design although it is not realistic. The proposal of the BSP mo dei is bold, since it also seeks to influence parallel architecture design The proposal of LogP model although similar to the BSP, does not require parallel machines to have synchronization mechanisms. This makes LogP the most realistic but also the most difficult model to use. We evaluate these models based on the problems of Fourier Transform and Gaussian Elimination. After this study we made an evaluation of the three models. / Mestrado / Mestre em Ciência da Computação
3

A parallel computing approach applied to petroleum reservoir simulation

Grein, Ederson Augusto January 2015 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia Mecânica, Florianópolis, 2015. / Made available in DSpace on 2016-04-19T04:03:44Z (GMT). No. of bitstreams: 1 337626.pdf: 16916870 bytes, checksum: a0cb8bc1bf93f21cc1a78cd631272e49 (MD5) Previous issue date: 2015 / A simulação numérica é uma ferramenta de extrema importância à indústria do petróleo e gás. Entretanto, para que os resultados advindos da simulação sejam fidedignos, é fundamental o emprego de modelos físicos fiéis e de uma boa caracterização geométrica do reservatório. Isso tende a introduzir elevada carga computacional e, consequentemente, a obtenção da solução do modelo numérico correspondente pode demandar um excessivo tempo de simulação. É evidente que a redução desse tempo interessa profundamente à engenharia de reservatórios. Dentre as técnicas de melhoria de performance, uma das mais promissoras é a aplicação da computação paralela. Nessa técnica, a carga computacional é dividida entre diversos processadores. Idealmente, a carga computacional é dividida de maneira igualitária e, assim, se N é o número de processadores, o tempo computacional é N vezes menor. No presente estudo, a computação paralela foi aplicada a dois simuladores numéricos: UTCHEM e EFVLib. UTCHEM é um simulador químico-composicional desenvolvido pela The University of Texas at Austin. A EFVLib, por sua vez, é uma biblioteca desenvolvida pelo laboratório SINMEC  laboratório ligado ao Departamento de Engenharia Mecânica da Universidade Federal de Santa Catarina  cujo intuito é prover suporte à aplicação do Método dos Volumes Finitos Baseado em Elementos. Em ambos os casos a metodologia de paralalelização é baseada na decomposição de domínio.<br> / Abstract : Numerical simulation is an extremely relevant tool to the oil and gas industry. It makes feasible the procedure of predicting the production scenery in a given reservoir and design more advantageous exploit strategies fromits results. However, in order to obtain reliability fromthe numerical results, it is essential to employ reliable numerical models and an accurate geometrical characterization of the reservoir. This leads to a high computational load and consequently the achievement of the solution of the corresponding numerical method may require an exceedingly large simulation time. Seemingly, reducing this time is an accomplishment of great interest to the reservoir engineering. Among the techniques of boosting performance, parallel computing is one of the most promising ones. In this technique, the computational load is split throughout the set of processors. In the most ideal situation, this computational load is split in an egalitarian way, in such a way that if N is the number of processors then the computational time is N times smaller. In this study, parallel computing was applied to two distinct numerical simulators: UTCHEM and EFVLib. UTCHEM is a compositional reservoir simulator developed at TheUniversity of Texas atAustin. EFVLib, by its turn, is a computational library developed at SINMEC  a laboratory at theMechanical Enginering Department of The Federal University of Santa Catarina  with the aim of supporting the Element-based Finite Volume Method employment. The parallelization process were based on the domain decomposition on the both cases formerly described.
4

Otimização do insight segmentation and registration toolkit (ITK) utilizando streaming SIMD extensions (SSE) e OPENMP

Hild, Tony Alexander 29 October 2012 (has links)
Resumo
5

Alocação de tarefas paralelas comunicantes em ambientes distribuídos heterogêneos

Santana, Marcelo Nardelli Pinto January 2006 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2006. / Submitted by samara castro (sammy_roberta7@hotmail.com) on 2009-11-04T15:46:48Z No. of bitstreams: 1 2006_Marcelo Nardelli Pinto Santana.pdf: 1928461 bytes, checksum: e393ea85d58701c1e89e8ed754ce0caf (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2009-11-15T19:38:34Z (GMT) No. of bitstreams: 1 2006_Marcelo Nardelli Pinto Santana.pdf: 1928461 bytes, checksum: e393ea85d58701c1e89e8ed754ce0caf (MD5) / Made available in DSpace on 2009-11-15T19:38:34Z (GMT). No. of bitstreams: 1 2006_Marcelo Nardelli Pinto Santana.pdf: 1928461 bytes, checksum: e393ea85d58701c1e89e8ed754ce0caf (MD5) Previous issue date: 2006 / Sistemas distribuídos têm sido cada vez mais utilizados na resolução de problemas que demandam grande quantidade de tempo de processamento, por permitirem a utilização simultânea de vários recursos computacionais. Diversas máquinas com arquiteturas distribuídas foram propostas ao longo dos anos. Entre essas arquiteturas, estão os clusters de computadores, que são sistemas distribuídos formados por estações de trabalho interligadas e que podem atingir um bom desempenho a um custo relativamente baixo. Entretanto, para que a utilização de tais sistemas seja proveitosa, é necessário que a utilização dos recursos disponíveis seja feita de maneira a permitir a otimização de algum critério. A alocação de tarefas em um sistema distribuído visa determinar como serão utilizados os processadores do sistema de modo a otimizar um critério, que grande parte das vezes é o tempo de execução de uma aplicação. Diversas abordagens já foram propostas para o problema de alocação de tarefas, que é um problema NP-Completo, incluindo algoritmos heurísticos e estratégias específicas para determinadas aplicações. Uma aplicação para qual existem diversas implementações em sistemas distribuídos é a comparação de seqüências biológicas, uma operação básica da biologia computacional que visa determinar o grau de similaridade entre seqüências. Os algoritmos ótimos existentes possuem complexidade de tempo e espaço de O(n2), sendo baseados na técnica de programação dinâmica e apresentando dependências de dados do tipo wavefront. O alto custo desses algoritmos justifica a utilização de sistemas distribuídos na resolução do problema, sendo que a maioria das implementações distribuídas busca utilizar todos os processadores disponíveis no sistema distribuído, de modo a minimizar a tempo de execução. A presente dissertação propõe um framework de alocação de tarefas de aplicações de comparação de seqüências biológicas baseadas em programação dinâmica, além de quatro estratégias de alocação de tarefas. O framework e as estratégias de alocação foram implementados em um cluster de 10 máquinas. Os resultados mostram que, para seqüências relativamente pequenas, a utilização de todos os processadores disponíveis não é a opção mais vantajosa. Por isso mesmo, a utilização de políticas de alocação que levem em consideração o tamanho das seqüências e as características das máquinas disponíveis pode permitir a redução no tempo de execução da aplicação. ____________________________________________________________________________________________ ABSTRACT / Distributed systems have been widely used in the resolution of problems that demand a large amount of processing time, because they allow the simultaneous utilization of many computational resources. Many machines with a distributed architecture have been proposed during the years. Among these are computer clusters, which are distributed systems composed of interconnected workstations and that may achieve a good performance at a relatively low cost. However, in order to take advantage of distributed systems, the available resources must be used in such a way that some criteria can be optimized. Task allocation in distributed systems aims at determine how the processors available in the system are going to be used, so that a criteria, which in many cases is the execution time of an application, is optimized. Many approaches have been proposed to the task allocation problem, which is NP-Complete, including heuristic algorithms and application specific strategies. There are many proposed distributed implementations of the biological sequence comparison application, which is a basic operation in computational biology that determines the similarity degree between sequences. The optimal algorithms available have time and space complexities in O(n2) , are based in the dynamic programming technique and present data dependencies that follow the wavefront pattern. The high costs of these algorithms justifies the utilization of distributed systems. Most of the known distributed implementations try to use all available processors in the system, so that the execution time can be minimized. The present document proposes a framework for task allocation for biological sequence comparison applications based on dynamic programming, as well as four task allocation strategies. The framework and the strategies have been implemented in a 10 machine cluster. The results show that, when the sequences are relatively small, using all available processors is not the best decision. For this reason, the utilization of task allocation policies that take into account the sequences size and the machines characteristics may cause the execution time of the application to be reduced.
6

Comparação paralela de sequências biológicas longas utilizando Unidades de Processamento Gráfico (GPUs)

Sandes, Edans Flávius de Oliveira 30 June 2011 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2011. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2012-02-27T16:19:33Z No. of bitstreams: 1 2011_EdansFlaviusOliveiraSandes.pdf: 1562566 bytes, checksum: 676058b28872648ff52973f27bc2f19c (MD5) / Approved for entry into archive by Patrícia Nunes da Silva(patricia@bce.unb.br) on 2012-02-27T20:57:53Z (GMT) No. of bitstreams: 1 2011_EdansFlaviusOliveiraSandes.pdf: 1562566 bytes, checksum: 676058b28872648ff52973f27bc2f19c (MD5) / Made available in DSpace on 2012-02-27T20:57:53Z (GMT). No. of bitstreams: 1 2011_EdansFlaviusOliveiraSandes.pdf: 1562566 bytes, checksum: 676058b28872648ff52973f27bc2f19c (MD5) / A comparação de sequências biológicas é uma operação muito importante na Bioinformática. Embora existam métodos exatos para comparação de sequências, estes métodos usualmente são preteridos por causa da complexidade quadrática de tempo e espaço. De forma a acelerar estes métodos, muitos algoritmos em GPU foram propostos na literatura. Entretanto, todas estas propostas restringem o tamanho da sequência de busca de forma que a comparação de sequências genômicas muito longas não é possível. Neste trabalho, nós propomos e avaliamos o CUDAlign, um algoritmo em GPU capaz de comparar sequências biológicas longas com o método exato de Smith-Waterman com o modelo affine gap. O CUDAlign foi implementado em CUDA e testado em duas placas de vídeo, separadamente. Para sequências reais com tamanho entre 1 MBP (milhões de pares de bases) e 47 MBP, um desempenho aproximadamente constante em GCUPS (Bilhões de células atualizadas por segundo) foi obtida, mostrando o potencial de escalabilidade da nossa abordagem. Além disso, o CUDAlign foi capaz de comparar o cromossomo 21 humano e o cromossomo 22 do chimpanzé. Esta operação levou aproximadamente 18 horas na GeForce GTX 285, resultando em um desempenho de 23.87 GCUPS, valor muito próximo do desempenho máximo previsto (23.93 GCUPS). Até onde sabemos, esta foi a primeira vez que cromossomos grandes como esses foram comparados com um método exato. ______________________________________________________________________________ ABSTRACT / Biological sequence comparison is a very important operation in Bioinformatics. Even though there do exist exact methods to compare biological sequences, these methods are not often employed due to their quadratic time and space complexity. In order to accelerate these methods, many GPU algorithms were proposed in the literature. Nevertheless, all of them restrict the size of the query sequence in such a way that Megabase genome comparison is prevented. In this work, we propose and evaluate CUDAlign, a GPU algorithm that is able to compare Megabase biological sequences with an exact Smith-Waterman affine gap variant. CUDAlign was implemented in CUDA and tested in two GPU boards, separately. For real sequences whose size range from 1 MBP (Megabase Pairs) to 47 MBP, a close to uniform GCUPS (Giga Cells Updates per Second) was obtained, showing the potential scalability of our approach. Also, CUDAlign was able to compare the human chromosome 21 and the chimpanzee chromosome 22. This operation took approximately 18 hours on GeForce GTX 285, resulting in a performance of 23.87 GCUPS, very close to the maximum predicted performance (23.93 GCUPS). As far as we know, this is the first time such huge chromosomes are compared with an exact method.
7

Uma nova proposta para solução computacional da equação algebrica de riccati em formas sequencial e paralela

Del Real Tamariz, Annabell 15 March 1999 (has links)
Orientador: Celso Pascoli Bottura / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-07-25T16:26:46Z (GMT). No. of bitstreams: 1 DelRealTamariz_Annabell_M.pdf: 3597782 bytes, checksum: e6939ad8e71833c059fabea6a51ca5c6 (MD5) Previous issue date: 1999 / Resumo: Uma proposta de metodologia para a solução da Equação Algébrica de Riccati (EAR) em formas Seqüencial e Paralela e Distribuída é apresentada. O método modifica e propõe uma paralelização do Método de Schur. Transformações de Similaridade Elementares Estabilizadas (TSEE) são utilizadas para transformar a matriz simplética/Hamiltoniana, em uma forma simples. Neste trabalho fazemos uma implementação seqüencial do algoritmo proposto para matrizes densas, bem condicionadas e propomos uma implementação paralela do algoritimo num sistema com memória distribuída e estratégia de paralelização síncrona numa rede de estações de trabalho / Abstract: A proposal of methodology for solving the Algebraic Riccati Equation in Sequential and Parallel and Distriuted forms is presented. The method modifies and proposes a parallelization for the Schur Method. To transform the simpletyc/Hamiltonian matrix in a simple form, Elementary Stabilized Similarity Transformations are utilized. In this work a sequential implementation of the proposed algorithm for dense, well conditioned matrices is made and a parallel implementation on a distributed memory system with a synchronous parallelization strategy over a workstation network is proposed. / Mestrado / Mestre em Engenharia Elétrica
8

Análise do efeito de entropia em computação quântica : simulações em ambiente paralelo /

Moretti, Rafael Henrique January 2015 (has links)
Orientador: Geraldo Francisco Donegá Zafalon / Coorientador: Manoel Ferreira Borges Neto / Banca: Mário Luiz Tronco / Banca: Wladimir Seixas / Resumo: O crescente desenvolvimento tecnológico tem trazido a humanidade grandes benefícios, nas mais diversas áreas. De modo a dar continuidade a esse desenvolvimento, novas frentes de pesquisas vêm surgindo, em busca do domínio dessas tecnologias emergentes. Os limites físicos da computação clássica, baseada nos fenômenos eletromagnéticos, estão sendo alcançados e a computação quântica surge como uma possível solução para esses limites, bem como para apresentar um novo panorama para a computação, devido ao seu grande potencial. A fim de buscar um maior entendimento dos fenômenos que envolvem a computação quântica em uma transmissão de dados, em específico o fenômeno do emaranhamento, no presente trabalho apresenta-se um levantamento teórico sobre mecânica quântica, informação, computação e entropias quânticas, bem como computação paralela e MPI, propondo-se uma simulação com implementação em ambiente paralelo sobre o efeito da entropia de emaranhamento dos fótons em uma transmissão de dados. Além disso, realiza-se a comparação com a implementação em um ambiente de um único processador / Abstract: The increasing technological development has brought great bene ts to humanity, in several areas. In order to continue this development, new research areas are emerging to reach new technologies. The physical limits of classical computing, based on electromagnetic phenomena are being achieved and quantum computing emerges as a possible solution to these limits, as well as to introduce a new scenario for computing, due to its great potential. In order to get a better understanding of phenomena involving quantum computing in a data transmission, in particular the phenomenon of entanglement, this work presents a theoretical quantum mechanics, information, computing and quantum entropies, as well as parallel computing and MPI, proposing a simulation with implementation in parallel environment on the e ect of the entropy of entanglement of photons in data transmission and comparison with implementation in a single processor environment / Mestre
9

Particionador paralelo de grafos utilizando algoritmos heurísticos para aplicação em simuladores paralelos de reservatórios de petróleo

Silva, Leonardo Rogério Binda da 14 March 2014 (has links)
Made available in DSpace on 2016-08-29T15:39:01Z (GMT). No. of bitstreams: 1 tese_7557_Leonardo Rogério Binda da Silva.pdf: 4189335 bytes, checksum: 9b77cb2bc79d6f88555dd532f0f4d83a (MD5) Previous issue date: 2014-03-14 / O petróleo é atualmente o combustível mais utilizado no mundo. Recuperá-lo com a maior viabilidade econômica possível é uma busca incessante das companhias produtoras. Nesse cenário, a simulação numérica de reservatórios utilizando computadores paralelos de memória distribuída (clusters) desponta como uma importante ferramenta. Esses aplicativos manipulam malhas de pontos discretizados que representam o domínio do reservatório de petróleo. Uma etapa importante da simulação utilizando clusters é o particionamento dessa malha para que cada um dos nós processadores possa executar seus cálculos sobre uma porção da mesma. As malhas de domínio podem ser representadas por grafos. Particionar malhas, então, torna-se um problema de particionamento de grafos. Caso o número de vértices do grafo que representa a malha seja muito elevado, particionadores seriais podem apresentar problemas de desempenho. Particionadores de grafos utilizando clusters surgem como alternativas interessantes nessa situação, minimizando os tempos gastos nos particionamentos. Trata da implementação de um particionador paralelo de grafos para ser utilizado em clusters baseado nas Heurísticas de particionamento propostas e implementadas de maneira serial por Bonatto (2010). O particionador paralelo foi desenvolvido utilizando a linguagem de programação Java e a biblioteca de passagem de mensagens MPJ Express. Tipos abstratos de dados eficientes foram propostos e implementados para que o desempenho fosse otimizado. O particionador de grafos paralelo realizou o corte de diversos grafos, obtendo em sua grande maioria cortes menores do que os encontrados pelo particionador serial de Bonatto (2010) e por programas como o METIS e o CHACO. Melhorias ao particionador serial de Bonatto (2010) foram propostas. Análises de speedup e eficiência paralela foram realizadas para constatar os ganhos de tempos obtidos com a paralelização das heurísticas.
10

Metaheurísticas de busca local para o problema de sequenciamento de tarefas em máquinas paralelas não relacionadas com tempo de preparação dependente da sequência.

Silva, Cristiano Luís Turbino de França e January 2014 (has links)
Submitted by Maurílio Figueiredo (maurilioafigueiredo@yahoo.com.br) on 2014-06-30T19:54:20Z No. of bitstreams: 2 license_rdf: 22190 bytes, checksum: 19e8a2b57ef43c09f4d7071d2153c97d (MD5) DISSERTAÇÃO_MetaheurísticasBuscaLocal.pdf: 5158364 bytes, checksum: 9ff1b731ffa05dadf988172a590814c1 (MD5) / Approved for entry into archive by Gracilene Carvalho (gracilene@sisbin.ufop.br) on 2014-07-07T13:15:13Z (GMT) No. of bitstreams: 2 license_rdf: 22190 bytes, checksum: 19e8a2b57ef43c09f4d7071d2153c97d (MD5) DISSERTAÇÃO_MetaheurísticasBuscaLocal.pdf: 5158364 bytes, checksum: 9ff1b731ffa05dadf988172a590814c1 (MD5) / Made available in DSpace on 2014-07-07T13:15:13Z (GMT). No. of bitstreams: 2 license_rdf: 22190 bytes, checksum: 19e8a2b57ef43c09f4d7071d2153c97d (MD5) DISSERTAÇÃO_MetaheurísticasBuscaLocal.pdf: 5158364 bytes, checksum: 9ff1b731ffa05dadf988172a590814c1 (MD5) Previous issue date: 2014 / Este trabalho apresenta uma proposta e a avaliação computacional de quatro métodos de busca local estocástica para o problema de sequenciamento de tarefas em máquinas paralelas não relacionadas com tempo de preparação dependente da sequência (UPMSP - unrelated parallel machine scheduling problem with sequence dependent setup times). As quatro abordagens metaheurísticas que são analisadas para o UPMSP baseam-se em: Simulated Annealing (SA), Iterated Local Search (ILS), Late Acceptance Hill Climbing (LAHC) e Step Counting Hill Climbing (SCHC). A estrutura das vizinhancas, bem como os parâmetros dos algoritmos, foram amplamente testados e analisados, sendo possível verificar como os parâmetros afetam o comportamento de cada algoritmo implementado e pesquisar os melhores parâmetros. As comparações dos resultados obtidos foram realizadas com os resultados apresentados por Vallada e Ruiz (2011), proponentes do conjunto de 50 instâncias consideradas e, mais recentemente, por Haddad (2012). O método que obteve o melhor resultado nessas 50 instâncias foi testado para todas as 1.000 instâncias grandes, apresentadas por Vallada e Ruiz (2011), melhorando em 96,6% (966 instâncias) a melhor solução conhecida encontrada por esses últimos autores. __________________________________________________________________________________________ / ABSTRACT: This paper presents a proposal and a computational review of four methods of stochastic local search to the unrelated parallel machine scheduling problem with sequence dependent setup times (UPMSP). The four metaheuristics approaches that are analyzed for the UPMSP are based in: Simulated Annealing (SA), Iterated Local Search (ILS), Late Acceptance Hill Climbing (LAHC) and Step Counting Hill Climbing (SCHC). The structure of neighborhoods, as well as the parameters of the algorithms, were widely tested and analyzed, being possible verify how the parameters affect the behavior of each algorithm implemented and search the best parameters. The comparisons of the results were accomplished with the results presented by Vallada and Ruiz (2011), who proposed the set of 50 instances considered, and, more recently, by Haddad (2012). The method that got the best result in these 50 instances was tested for every 1.000 large instances, presented by Vallada and Ruiz (2011), improving in 96.6% (966 instances) the best known solution found by this last authors

Page generated in 0.0867 seconds