Spelling suggestions: "subject:"paralela"" "subject:"paralelas""
1 |
Depuração de programas paralelos : projeto de uma interface intuitivaStringhini, Denise January 2002 (has links)
A programação paralela é sem dúvida mais complexa do que a programação seqüencial. O controle de múltiplos processos e de suas interações são as principais razões para tal complexidade. Apesar da existência de algumas ferramentas que atendem à fase de desenvolvimento de programas paralelos, a complexidade é normalmente passada para as ferramentas paralelas, isto é, as ferramentas não são de fácil utilização. Assim, existe uma necessidade de ambientes e ferramentas realmente fáceis de usar no âmbito da programação paralela. Embora existam algumas ferramentas interessantes, inclusive algumas comerciais, seu uso permanece insuficiente, em parte devido à complexidade na utilização de algumas delas, em parte devido ao seu uso específico em determinadas plataformas. Portanto, existe ainda um grande campo de estudo no que diz respeito a melhorias de projeto sobre ferramentas existentes e desenvolvimento de ferramentas com um maior número de recursos. Provavelmente, a ferramenta paralela mais necessária aos programadores é o depurador paralelo. Por sua vez, ferramentas de depuração paralela estão entre as mais complexas de se desenvolver e talvez isso explique o motivo pelo qual poucas têm sido efetivamente utilizadas. Este trabalho descreve uma contribuição no campo da depuração paralela através da análise de interfaces de depuração paralela e da proposta de um modelo. A partir deste modelo, uma interface de depuração paralela – PADI (PArallel Debugger Interface) foi desenvolvida e seu principal objetivo é o de oferecer uma interface intuitiva e de fácil utilização. O modelo proposto e conseqüentemente a ferramenta PADI tratam da depuração paralela simbólica on-line. A depuração on-line trata do oferecimento de acesso aos símbolos do programa, como variáveis e registradores. A depuração on-line diferencia-se da off-line pelo tipo de interação com a execução do programa. A depuração on-line oferece interação direta com a aplicação, enquanto que a off-line interage com um arquivo de monitoração gravado durante a execução da aplicação paralela. A depuração on-line é similar à depuração seqüencial tradicional e, conseqüentemente, é de mais fácil utilização por parte da maioria dos programadores.
|
2 |
Depuração de programas paralelos : projeto de uma interface intuitivaStringhini, Denise January 2002 (has links)
A programação paralela é sem dúvida mais complexa do que a programação seqüencial. O controle de múltiplos processos e de suas interações são as principais razões para tal complexidade. Apesar da existência de algumas ferramentas que atendem à fase de desenvolvimento de programas paralelos, a complexidade é normalmente passada para as ferramentas paralelas, isto é, as ferramentas não são de fácil utilização. Assim, existe uma necessidade de ambientes e ferramentas realmente fáceis de usar no âmbito da programação paralela. Embora existam algumas ferramentas interessantes, inclusive algumas comerciais, seu uso permanece insuficiente, em parte devido à complexidade na utilização de algumas delas, em parte devido ao seu uso específico em determinadas plataformas. Portanto, existe ainda um grande campo de estudo no que diz respeito a melhorias de projeto sobre ferramentas existentes e desenvolvimento de ferramentas com um maior número de recursos. Provavelmente, a ferramenta paralela mais necessária aos programadores é o depurador paralelo. Por sua vez, ferramentas de depuração paralela estão entre as mais complexas de se desenvolver e talvez isso explique o motivo pelo qual poucas têm sido efetivamente utilizadas. Este trabalho descreve uma contribuição no campo da depuração paralela através da análise de interfaces de depuração paralela e da proposta de um modelo. A partir deste modelo, uma interface de depuração paralela – PADI (PArallel Debugger Interface) foi desenvolvida e seu principal objetivo é o de oferecer uma interface intuitiva e de fácil utilização. O modelo proposto e conseqüentemente a ferramenta PADI tratam da depuração paralela simbólica on-line. A depuração on-line trata do oferecimento de acesso aos símbolos do programa, como variáveis e registradores. A depuração on-line diferencia-se da off-line pelo tipo de interação com a execução do programa. A depuração on-line oferece interação direta com a aplicação, enquanto que a off-line interage com um arquivo de monitoração gravado durante a execução da aplicação paralela. A depuração on-line é similar à depuração seqüencial tradicional e, conseqüentemente, é de mais fácil utilização por parte da maioria dos programadores.
|
3 |
Depuração de programas paralelos : projeto de uma interface intuitivaStringhini, Denise January 2002 (has links)
A programação paralela é sem dúvida mais complexa do que a programação seqüencial. O controle de múltiplos processos e de suas interações são as principais razões para tal complexidade. Apesar da existência de algumas ferramentas que atendem à fase de desenvolvimento de programas paralelos, a complexidade é normalmente passada para as ferramentas paralelas, isto é, as ferramentas não são de fácil utilização. Assim, existe uma necessidade de ambientes e ferramentas realmente fáceis de usar no âmbito da programação paralela. Embora existam algumas ferramentas interessantes, inclusive algumas comerciais, seu uso permanece insuficiente, em parte devido à complexidade na utilização de algumas delas, em parte devido ao seu uso específico em determinadas plataformas. Portanto, existe ainda um grande campo de estudo no que diz respeito a melhorias de projeto sobre ferramentas existentes e desenvolvimento de ferramentas com um maior número de recursos. Provavelmente, a ferramenta paralela mais necessária aos programadores é o depurador paralelo. Por sua vez, ferramentas de depuração paralela estão entre as mais complexas de se desenvolver e talvez isso explique o motivo pelo qual poucas têm sido efetivamente utilizadas. Este trabalho descreve uma contribuição no campo da depuração paralela através da análise de interfaces de depuração paralela e da proposta de um modelo. A partir deste modelo, uma interface de depuração paralela – PADI (PArallel Debugger Interface) foi desenvolvida e seu principal objetivo é o de oferecer uma interface intuitiva e de fácil utilização. O modelo proposto e conseqüentemente a ferramenta PADI tratam da depuração paralela simbólica on-line. A depuração on-line trata do oferecimento de acesso aos símbolos do programa, como variáveis e registradores. A depuração on-line diferencia-se da off-line pelo tipo de interação com a execução do programa. A depuração on-line oferece interação direta com a aplicação, enquanto que a off-line interage com um arquivo de monitoração gravado durante a execução da aplicação paralela. A depuração on-line é similar à depuração seqüencial tradicional e, conseqüentemente, é de mais fácil utilização por parte da maioria dos programadores.
|
4 |
Aplicação de técnicas de paralelização de programas usando OpenMP na solução numérica da equação de transporte de nêutronsLemos, Júlia Domingues January 2018 (has links)
Neste trabalho foi realizado um estudo de estrat egias de paraleliza c~ao para m etodos que resolvem numericamente a equa c~ao de transporte de n^eutrons em dom nio unidimensional, monoenerg etica, estacion aria, com espalhamento isotr opico, em meio homog^eneo e com uma fonte xa. Foram estudados o Source Iteration, Diffusion Synthetic Acceleration, Coarse Mesh Finite Di erences e o M etodo Anal tico de Ordenadas Discretas. As vers~oes paralelas, desenvolvidas utilizando OpenMP, foram obtidas a partir das vers~oes sequenciais dos c odigos, implementadas em Fortran 95. O objetivo deste trabalho e escrever vers~oes paralelas que sejam executadas em menor tempo de que as vers~oes sequenciais, pelo menos a partir de algum tamanho de problema. Ganhos de tempo para os m etodos Source Iteration, Di usion Synthetic Acceleration e Coarse Mesh Finite Di erences foram relatados em torno de 20% para problemas heterog^eneos, chegando a registrar ganhos de mais de 50% em problemas homog^eneos. A vers~ao paralela do m etodo anal tico de ordenadas discretas chegou a apresentar 88% de ganho, registrando um speedup superlinear para um problema homog^eneo. / This work is a study about parallelization strategies for methods that numerically solve the neutron transport equation, for an one dimensional domain, one energy group, steady state, isotropically scattering with a xed source. The studied methods were the Source Iteration, the Di usion Synthetic Acceleration, the Coarse Mesh Finite Di erences and the Analytical Discrete Ordinates. The code's parallel versions were developed using OpenMP from the sequential versions, implemented in Fortran 95. The main goal of this work was to write parallel versions that would run in less time than the sequential ones, at least from a certain size of problem on. As for the running times, gains were registered around 20% for the Source Iteration, the Di usion Synthetic Acceleration and the Coarse Mesh Finite Di erences solving a one-region problem, reaching up to 50% in multi-regions problems. The parallel version for the Analytical Discrete Ordinates attained an 88% gain in a one-region problem, which is a super-linear speedup.
|
5 |
Aplicação de técnicas de paralelização de programas usando OpenMP na solução numérica da equação de transporte de nêutronsLemos, Júlia Domingues January 2018 (has links)
Neste trabalho foi realizado um estudo de estrat egias de paraleliza c~ao para m etodos que resolvem numericamente a equa c~ao de transporte de n^eutrons em dom nio unidimensional, monoenerg etica, estacion aria, com espalhamento isotr opico, em meio homog^eneo e com uma fonte xa. Foram estudados o Source Iteration, Diffusion Synthetic Acceleration, Coarse Mesh Finite Di erences e o M etodo Anal tico de Ordenadas Discretas. As vers~oes paralelas, desenvolvidas utilizando OpenMP, foram obtidas a partir das vers~oes sequenciais dos c odigos, implementadas em Fortran 95. O objetivo deste trabalho e escrever vers~oes paralelas que sejam executadas em menor tempo de que as vers~oes sequenciais, pelo menos a partir de algum tamanho de problema. Ganhos de tempo para os m etodos Source Iteration, Di usion Synthetic Acceleration e Coarse Mesh Finite Di erences foram relatados em torno de 20% para problemas heterog^eneos, chegando a registrar ganhos de mais de 50% em problemas homog^eneos. A vers~ao paralela do m etodo anal tico de ordenadas discretas chegou a apresentar 88% de ganho, registrando um speedup superlinear para um problema homog^eneo. / This work is a study about parallelization strategies for methods that numerically solve the neutron transport equation, for an one dimensional domain, one energy group, steady state, isotropically scattering with a xed source. The studied methods were the Source Iteration, the Di usion Synthetic Acceleration, the Coarse Mesh Finite Di erences and the Analytical Discrete Ordinates. The code's parallel versions were developed using OpenMP from the sequential versions, implemented in Fortran 95. The main goal of this work was to write parallel versions that would run in less time than the sequential ones, at least from a certain size of problem on. As for the running times, gains were registered around 20% for the Source Iteration, the Di usion Synthetic Acceleration and the Coarse Mesh Finite Di erences solving a one-region problem, reaching up to 50% in multi-regions problems. The parallel version for the Analytical Discrete Ordinates attained an 88% gain in a one-region problem, which is a super-linear speedup.
|
6 |
Aplicação de técnicas de paralelização de programas usando OpenMP na solução numérica da equação de transporte de nêutronsLemos, Júlia Domingues January 2018 (has links)
Neste trabalho foi realizado um estudo de estrat egias de paraleliza c~ao para m etodos que resolvem numericamente a equa c~ao de transporte de n^eutrons em dom nio unidimensional, monoenerg etica, estacion aria, com espalhamento isotr opico, em meio homog^eneo e com uma fonte xa. Foram estudados o Source Iteration, Diffusion Synthetic Acceleration, Coarse Mesh Finite Di erences e o M etodo Anal tico de Ordenadas Discretas. As vers~oes paralelas, desenvolvidas utilizando OpenMP, foram obtidas a partir das vers~oes sequenciais dos c odigos, implementadas em Fortran 95. O objetivo deste trabalho e escrever vers~oes paralelas que sejam executadas em menor tempo de que as vers~oes sequenciais, pelo menos a partir de algum tamanho de problema. Ganhos de tempo para os m etodos Source Iteration, Di usion Synthetic Acceleration e Coarse Mesh Finite Di erences foram relatados em torno de 20% para problemas heterog^eneos, chegando a registrar ganhos de mais de 50% em problemas homog^eneos. A vers~ao paralela do m etodo anal tico de ordenadas discretas chegou a apresentar 88% de ganho, registrando um speedup superlinear para um problema homog^eneo. / This work is a study about parallelization strategies for methods that numerically solve the neutron transport equation, for an one dimensional domain, one energy group, steady state, isotropically scattering with a xed source. The studied methods were the Source Iteration, the Di usion Synthetic Acceleration, the Coarse Mesh Finite Di erences and the Analytical Discrete Ordinates. The code's parallel versions were developed using OpenMP from the sequential versions, implemented in Fortran 95. The main goal of this work was to write parallel versions that would run in less time than the sequential ones, at least from a certain size of problem on. As for the running times, gains were registered around 20% for the Source Iteration, the Di usion Synthetic Acceleration and the Coarse Mesh Finite Di erences solving a one-region problem, reaching up to 50% in multi-regions problems. The parallel version for the Analytical Discrete Ordinates attained an 88% gain in a one-region problem, which is a super-linear speedup.
|
7 |
Make distribuidoOliveira, Aredis Sebastião de 15 December 1997 (has links)
Orientador: Rogerio Drummond Burnier Pessoa de Mello Filho / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-07-23T12:49:47Z (GMT). No. of bitstreams: 1
Oliveira_AredisSebastiaode_M.pdf: 3427641 bytes, checksum: 37bbd69debac907793af9a3c65ed42a3 (MD5)
Previous issue date: 1997 / Resumo: Este trabalho apresenta o projeto e a implementação de um Make Distribuído (MakeD) baseado na conhecida ferramenta make. A aplicação cliente/selVidor MakeD permite usar uma rede de computadores como um re~urso computacional único para minimizar o tempo gasto no processo de make durante o desenvolvimento de projetos de médio e grande porte. Num ambiente de desenvolvimento típico uma estação cliente apresenta um padrão de uso de CPU com curtos períodos de intensa utilização e longos períodos de inatividade ou baixa utilização. Dessa forma, utilizar os clientes como servidores de CPU e usar a ferramenta MakeD para distribuir as tarefas de compilações entre eles melhora o uso da capacidade de processamento disponível na rede, contribuindo para balancear a utilização dos recursos. A implementação do MakeD combina o mecanismo de RPC com recursos de multithreading para explorar a distribuição de tarefas na rede e a multi-tarefa em cada sistema. Os resultados de testes comparativos entre MakeD, GNU Make e outro make distribuído (Dmake) demonstram a eficiência dos métodos empregados. O trabalho também discute alguns aspectos de transformação de aplicações centralizadas em distribuídas e propõe um selVidor de make distribuído multi-usuário como extensão para o MakeD / Abstract: This work presents the design and implementation of a Distributed Make (MakeD) utility. The MakeD c1ient/server application allows using a network as a single computing resource to reduce compilation time in the development of medium and large projects. In a typical development environment, client workstations presents relatively short periods of high CPU load followed by long periods of low or zero utilization. MakeD uses ordinary c1ients as CPU servers in order to distribute tasks, thus making a network's id1e processor capacity available and balancing resource use. MakeD uses RPC and multithreading to achieve distributed processing in the network and multitasking within each node. The results of comparative tests show performance gains relative to GNU Make and a similar distributed make (Dmake). This work also discusses some aspects of transforming centralized applications into distributed ones and proposes a multi-user distributed Make Server as a future evolution / Mestrado / Mestre em Ciência da Computação
|
8 |
Um estudo sobre modelos de computação paralelaMenezes, Ronaldo Parente de 29 June 1995 (has links)
Orientador: João Carlos Setubal / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Ciencia da Computação / Made available in DSpace on 2018-07-20T10:42:14Z (GMT). No. of bitstreams: 1
Menezes_RonaldoParentede_M.pdf: 3928510 bytes, checksum: ea2fba03acca3afbcc6c42b92cf68f1c (MD5)
Previous issue date: 1995 / Resumo: Modelos de Computação são uma ferramenta muito importante para um bom desenvolvimento de algoritmos. Em geral, eles visam facilitar o trabalho de projetistas abstraindo diversos fatores existentes nas máquinas reais. Em computação paralela, a necessidade de um modelo é extrema devido a grande variedade de arquiteturas. O surgimento de um modelo de computação paralela poderia impulsionar ainda mais o crescimento da área que já é bastante acentuado, devido a limitações físicas existentes em computadores seqüenciais. Nesta dissertação fazemos um estudo de modelos de computação paralela sob o ponto de vista de projeto de algoritmos e com enfoque na computação paralela derivada da arquitetura de von Neumann. Para tanto, começamos por estudar um conjunto de máquinas paralelas para que suas diferenças fiquem claras. Escolhemos as máquinas paralelas mais conhecidas, ou mais difundidas, como: CM-2, Sequent Symmetry, MasPar MP-l, CM-5, entre outras. Após este estudo de máquinas, partimos diretamente para os modelos de computação paralela. Escolhemos três como base. Tais modelos apresentam características bem distintas quanto a simplicidade e realismo. Os modelos estudados são PRAM, BSP [Val90] e LogP [CKP+93]. Muitos defendem que continuemos usando o modelo PRAM , pois este, apesar de ser muito abstrato, facilita bastante o trabalho dos projetistas. A proposta do modelo BSP é um pouco mais ousada pois Valiant tenta, com seu modelo, influenciar as áreas de hardware e software da mesma forma que a arquitetura von Neumann fez com a computação seqüencial. Já a proposta do modelo LogP é bastante imediatista, visto que tenta resolver o problema atual de dificuldade de projeto de algoritmos. Para que pudéssemos avaliar um modelo sob o ponto de vista de projeto de algoritmos, fizemos um estudo de casos com os problemas de Transformada de Fourier e Eliminação de Gauss. Com este estudo de casos pudemos avaliar quão fácil ou difícil é projetar algoritmos em cada um dos modelos. / Abstract: Models of Computation are one of most important tools in algorithm design With these models, the work of an algorithm designer becomes easier, because these models leave out many characteristics of real machines. In parallel computing there is a great need for a general model, because we have many different parallel machines. The advent of a parallel computing model could make the area grow more than it is already growing. In this dissertation we study some parallel computing models. First we take a look at a representative set of parallel machines, in order to learn the differences between each architecture. Our set of machines contains some of the most important commercial machines such as: CM-2, Sequent Symmetry, MasPar MP-l and CM-5. After this, we study the models themselves. The models chosen were: PRAM, BSP [Va190] and LogP [CKP+93]. Many researchers argue that the PRAM is the best model for algorithm design although it is not realistic. The proposal of the BSP mo dei is bold, since it also seeks to influence parallel architecture design The proposal of LogP model although similar to the BSP, does not require parallel machines to have synchronization mechanisms. This makes LogP the most realistic but also the most difficult model to use. We evaluate these models based on the problems of Fourier Transform and Gaussian Elimination. After this study we made an evaluation of the three models. / Mestrado / Mestre em Ciência da Computação
|
9 |
Proposta de uma linguagem específica de domínio de programação paralela orientada a padrões paralelos: um estudo de caso baseado no padrão mestre/escravo para arquiteturas multi-coreGriebler, Dalvan Jair January 2012 (has links)
Made available in DSpace on 2013-08-07T18:42:14Z (GMT). No. of bitstreams: 1
000439447-Texto+Completo-0.pdf: 12654350 bytes, checksum: 6b1e68a168b4468adf4d1eba9517ad21 (MD5)
Previous issue date: 2012 / This work proposes a Domain-Specific Language for Parallel Patterns Oriented Parallel Programming (LED-PPOPP). Its main purpose is to provide a way to decrease the amount of effort necessary to develop parallel programs, offering a way to guide developers through patterns which are implemented by the language interface. The idea is to exploit this approach avoiding large performance losses in the applications. Patterns are specialized solutions, previously studied, and used to solve a frequent problem. Thus, parallel patterns offer a higher abstraction level to organize the algorithms in the exploitation of parallelism. They also can be easily learned by inexperienced programmers and software engineers. This work carried out a case study based on the Master/Slave pattern, focusing on the parallelization of algorithms for multi-core architectures. The implementation was validated through experiments to evaluate the programming effort to write code in LED-PPOPP and the performance achieved by the parallel code automatically generated. The obtained results let us conclude that a significant reduction in the parallel programming effort occurred in comparison to the Pthreads library utilization. Additionally, the final performance of the parallelized algorithms confirms that the parallelization with LED-PPOPP does not bring on significant losses related to parallelization using OpenMP in most of the all experiments carried out. / Este trabalho propôs uma Linguagem Específica de Domínio de Programação Paralela Orientada a Padrões Paralelos (LED-PPOPP). O principal objetivo é reduzir o esforço e induzir o programador a desenvolver algoritmos paralelos guiando-se através de padrões que são implementados pela interface da linguagem, evitando que ocorram grandes perdas de desempenho nas aplicações. Anteriormente estudados, os padrões são soluções especializadas e utilizadas para resolver um problema frequente. Assim, padrões paralelos são descritos em um alto nível de abstração para organizar os algoritmos na exploração do paralelismo, podendo ser facilmente interpretados por programadores inexperientes e engenheiros de software. Como ponto de partida, este trabalho realizou um estudo de caso baseandose no padrão Mestre/Escravo, focando na paralelização de algoritmos para arquiteturas multi-core. Através de experimentos para medição de esforço e desempenho, a implementação de estudo de caso foi avaliada obtendo bons resultados. Os resultados obtidos mostram que houve uma redução no esforço de programação paralela em relação a utilização da biblioteca Pthreads. Já com relação ao desempenho final das aplicações paralelizadas, foi possível comprovar que a paralelização com LED-PPOPP não acarreta perdas significativas com relação a paralelizações com OpenMP na quase totalidade das aplicações testadas.
|
10 |
Ambiente para execução de programas paralelos escritos na linguagem superpascal em um multicomputador com rede de interconexão dinamicaMerkle, Carla January 1996 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnologico / Made available in DSpace on 2012-10-16T10:52:27Z (GMT). No. of bitstreams: 0Bitstream added on 2016-01-08T21:05:17Z : No. of bitstreams: 1
102009.pdf: 1576140 bytes, checksum: 4e4d8c44bf1ff6c960deabe5a971b3db (MD5) / Apresenta um panorama das redes de interconexão dos multicomputadores, descreve características de paralelismo, comunicação e ambientes de programação de linguagens de programação paralela como CSP, Occam, Joyce e SuperPascal, apresenta um simulador e o sistema operacional do multicomputador utilizado como plataforma de trabalho, denominado Nó Paralelo, aborda a implementação da linguagem de programação SuperPascal, cuja criação de processos e comunicação entre eles se adaptam adequadamente à topologia dinâmica dessa máquina, estendendo o seu emprego com uma linguagem de programação paralela, contribuindo dessa forma, para alcançar um dos principais objetivos do projeto desse multicomputador que é a construção de um ambiente completo para programação paralela.
|
Page generated in 0.0296 seconds