• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 293
  • 97
  • 3
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 395
  • 395
  • 199
  • 132
  • 126
  • 75
  • 67
  • 53
  • 53
  • 51
  • 48
  • 39
  • 39
  • 38
  • 38
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Escalonamento estático de processos de aplicações paralelas MPI em máquinas agregadas heterogêneas com auxílio de históricos de monitoração

Caringi, Augusto Mecking January 2006 (has links)
Made available in DSpace on 2013-08-07T18:43:24Z (GMT). No. of bitstreams: 1 000380878-Texto+Completo-0.pdf: 1375038 bytes, checksum: 4a0949656d8c8c055a95425d6e4ae376 (MD5) Previous issue date: 2006 / In a heterogeneous parallel processing system, the reduction of the parallel application’s response time can be achieved if the computational environment’s heterogeneous nature is taken in consideration. This work fits in this context and describes the model whose goal is to optimize the performance of MPI parallel applications executed on heterogeneous clusters. A strategy for global scheduling of the application’s processes was developed, which aims at realizing a balanced mapping of process to nodes in the beginning of the execution (static), in order to balance the load and, by consequence, minimizing the execution time. The process is transparent to the user and is gradually refined during the application’s executions through an “adaptation cycle” supported by the automatic analysis of previously acquired monitored information. To evaluate the model, we developed a tool which implements the proposed method. This tool was installed and configured in the Research Center in High Performance Computing (CPAD) located at PUCRS and a analysis of some parallel applications executed through the tool in CPADs main cluster are presented. / Em um sistema de processamento paralelo heterogêneo, a redução do tempo de resposta das aplicações pode ser alcançada se for levada em consideração a natureza heterogênea do ambiente computacional. Este trabalho enquadra-se neste contexto e descreve o modelo cujo objetivo é otimizar o desempenho de aplicações paralelas MPI executadas sobre máquinas agregadas heterogêneas. Para isto, desenvolve-se uma estratégia de escalonamento global dos processos que compõem a aplicação, a qual visa realizar um mapeamento equilibrado de processos aos nós no início da execução (estático), de modo a balancear a carga e tendo por conseqüência a minimização do tempo de execução. Isto se dá de forma transparente ao usuário e é gradativamente refinado ao longo das execuções da aplicação, através de um “ciclo de adaptação” apoiado pela análise automática de informações de monitoração obtidas em execuções prévias da mesma. Para avaliar o modelo, foi desenvolvida uma ferramenta que implementa o método proposto. Esta ferramenta foi instalada e configurada no Centro de Pesquisa em Alto Desempenho (CPAD) localizado na PUCRS e uma análise de algumas aplicações paralelas executadas através da ferramenta, no agregado principal do CPAD, é apresentada.
2

Visualização simultânea e multi-nível de informações de monitoramento de cluster

Schnorr, Lucas Mello January 2005 (has links)
Clusters de computadores são geralmente utilizados para se obter alto desempenho na execução de aplicações paralelas. Sua utilização tem aumentado significativamente ao longo dos anos e resulta hoje em uma presença de quase 60% entre as 500 máquinas mais rápidas do mundo. Embora a utilização de clusters seja bastante difundida, a tarefa de monitoramento de recursos dessas máquinas é considerada complexa. Essa complexidade advém do fato de existirem diferentes configurações de software e hardware que podem ser caracterizadas como cluster. Diferentes configurações acabam por fazer com que o administrador de um cluster necessite de mais de uma ferramenta de monitoramento para conseguir obter informações suficientes para uma tomada de decisão acerca de eventuais problemas que possam estar acontecendo no seu cluster. Outra situação que demonstra a complexidade da tarefa de monitoramento acontece quando o desenvolvedor de aplicações paralelas necessita de informações relativas ao ambiente de execução da sua aplicação para entender melhor o seu comportamento. A execução de aplicações paralelas em ambientes multi-cluster e grid juntamente com a necessidade de informações externas à aplicação é outra situação que necessita da tarefa de monitoramento. Em todas essas situações, verifica-se a existência de múltiplas fontes de dados independentes e que podem ter informações relacionadas ou complementares. O objetivo deste trabalho é propor um modelo de integração de dados que pode se adaptar a diferentes fontes de informação e gerar como resultado informações integradas que sejam passíveis de uma visualização conjunta por alguma ferramenta. Esse modelo é baseado na depuração offline de aplicações paralelas e é dividido em duas etapas: a coleta de dados e uma posterior integração das informações. Um protótipo baseado nesse modelo de integração é descrito neste trabalho Esse protótipo utiliza como fontes de informação as ferramentas de monitoramento de cluster Ganglia e Performance Co-Pilot, bibliotecas de rastreamento de aplicações DECK e MPI e uma instrumentação do Sistema operacional Linux para registrar as trocas de contexto de um conjunto de processos. Pajé é a ferramenta escolhida para a visualização integrada das informações. Os resultados do processo de integração de dados pelo protótipo apresentado neste trabalho são caracterizados em três tipos: depuração de aplicações DECK, depuração de aplicações MPI e monitoramento de cluster. Ao final do texto, são delineadas algumas conclusões e contribuições desse trabalho, assim como algumas sugestões de trabalhos futuros.
3

Visualização simultânea e multi-nível de informações de monitoramento de cluster

Schnorr, Lucas Mello January 2005 (has links)
Clusters de computadores são geralmente utilizados para se obter alto desempenho na execução de aplicações paralelas. Sua utilização tem aumentado significativamente ao longo dos anos e resulta hoje em uma presença de quase 60% entre as 500 máquinas mais rápidas do mundo. Embora a utilização de clusters seja bastante difundida, a tarefa de monitoramento de recursos dessas máquinas é considerada complexa. Essa complexidade advém do fato de existirem diferentes configurações de software e hardware que podem ser caracterizadas como cluster. Diferentes configurações acabam por fazer com que o administrador de um cluster necessite de mais de uma ferramenta de monitoramento para conseguir obter informações suficientes para uma tomada de decisão acerca de eventuais problemas que possam estar acontecendo no seu cluster. Outra situação que demonstra a complexidade da tarefa de monitoramento acontece quando o desenvolvedor de aplicações paralelas necessita de informações relativas ao ambiente de execução da sua aplicação para entender melhor o seu comportamento. A execução de aplicações paralelas em ambientes multi-cluster e grid juntamente com a necessidade de informações externas à aplicação é outra situação que necessita da tarefa de monitoramento. Em todas essas situações, verifica-se a existência de múltiplas fontes de dados independentes e que podem ter informações relacionadas ou complementares. O objetivo deste trabalho é propor um modelo de integração de dados que pode se adaptar a diferentes fontes de informação e gerar como resultado informações integradas que sejam passíveis de uma visualização conjunta por alguma ferramenta. Esse modelo é baseado na depuração offline de aplicações paralelas e é dividido em duas etapas: a coleta de dados e uma posterior integração das informações. Um protótipo baseado nesse modelo de integração é descrito neste trabalho Esse protótipo utiliza como fontes de informação as ferramentas de monitoramento de cluster Ganglia e Performance Co-Pilot, bibliotecas de rastreamento de aplicações DECK e MPI e uma instrumentação do Sistema operacional Linux para registrar as trocas de contexto de um conjunto de processos. Pajé é a ferramenta escolhida para a visualização integrada das informações. Os resultados do processo de integração de dados pelo protótipo apresentado neste trabalho são caracterizados em três tipos: depuração de aplicações DECK, depuração de aplicações MPI e monitoramento de cluster. Ao final do texto, são delineadas algumas conclusões e contribuições desse trabalho, assim como algumas sugestões de trabalhos futuros.
4

Visualização simultânea e multi-nível de informações de monitoramento de cluster

Schnorr, Lucas Mello January 2005 (has links)
Clusters de computadores são geralmente utilizados para se obter alto desempenho na execução de aplicações paralelas. Sua utilização tem aumentado significativamente ao longo dos anos e resulta hoje em uma presença de quase 60% entre as 500 máquinas mais rápidas do mundo. Embora a utilização de clusters seja bastante difundida, a tarefa de monitoramento de recursos dessas máquinas é considerada complexa. Essa complexidade advém do fato de existirem diferentes configurações de software e hardware que podem ser caracterizadas como cluster. Diferentes configurações acabam por fazer com que o administrador de um cluster necessite de mais de uma ferramenta de monitoramento para conseguir obter informações suficientes para uma tomada de decisão acerca de eventuais problemas que possam estar acontecendo no seu cluster. Outra situação que demonstra a complexidade da tarefa de monitoramento acontece quando o desenvolvedor de aplicações paralelas necessita de informações relativas ao ambiente de execução da sua aplicação para entender melhor o seu comportamento. A execução de aplicações paralelas em ambientes multi-cluster e grid juntamente com a necessidade de informações externas à aplicação é outra situação que necessita da tarefa de monitoramento. Em todas essas situações, verifica-se a existência de múltiplas fontes de dados independentes e que podem ter informações relacionadas ou complementares. O objetivo deste trabalho é propor um modelo de integração de dados que pode se adaptar a diferentes fontes de informação e gerar como resultado informações integradas que sejam passíveis de uma visualização conjunta por alguma ferramenta. Esse modelo é baseado na depuração offline de aplicações paralelas e é dividido em duas etapas: a coleta de dados e uma posterior integração das informações. Um protótipo baseado nesse modelo de integração é descrito neste trabalho Esse protótipo utiliza como fontes de informação as ferramentas de monitoramento de cluster Ganglia e Performance Co-Pilot, bibliotecas de rastreamento de aplicações DECK e MPI e uma instrumentação do Sistema operacional Linux para registrar as trocas de contexto de um conjunto de processos. Pajé é a ferramenta escolhida para a visualização integrada das informações. Os resultados do processo de integração de dados pelo protótipo apresentado neste trabalho são caracterizados em três tipos: depuração de aplicações DECK, depuração de aplicações MPI e monitoramento de cluster. Ao final do texto, são delineadas algumas conclusões e contribuições desse trabalho, assim como algumas sugestões de trabalhos futuros.
5

Estudo de escalabilidade em sistemas de processamento paralelo virtual / Scalability study of virtual parallel processing systems

Rocha, Fábio Soares 15 August 2018 (has links)
Orientador: Marco Aurélio Amaral Henriques / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-15T23:31:10Z (GMT). No. of bitstreams: 1 Rocha_FabioSoares_M.pdf: 2497905 bytes, checksum: d3ceb85201227bf67a3fa8eb0d77c4a3 (MD5) Previous issue date: 2010 / Resumo: A utilização de sistemas de processamento paralelo virtual tem aumentado em várias áreas de aplicação, desde as estritamente matemáticas até as médicas e biológicas. Devido a esse crescimento, são cada vez mais necessários mecanismos para uma avaliação consistente de desempenho de sistemas desse tipo. É necessário também haver um entendimento mais preciso do conceito de escalabilidade, um dos principais indicadores de desempenho, tanto quanto ao seu significado como quanto à maneira de mensurá-la. Este trabalho traz um estudo comparativo sobre métricas de escalabilidade para sistemas de processamento paralelo homogêneos e heterogêneos, onde duas métricas homogêneas foram selecionadas para serem utilizadas na avaliação do limite superior de escalabilidade de duas plataformas de processamento paralelo virtual (JoiN a JPVM). A partir deste estudo foi proposta uma métrica de escalabilidade que utiliza como base para a sua análise o speedup, conceito muito familiar em processamento paralelo. Foram realizados testes de validação da métrica proposta, que destacam seu caráter prático e adequação para a aplicação em sistemas heterogêneos de processamento paralelo virtual / Abstract: The utilization of Virtual Parallel Processing Systems has increased in several application areas, from strictly mathematical to medical and biological areas. Due to this increasing, mechanisms that offer a consistent performance evaluation of these systems, became more important and useful. It is also important to understand the concept of scalability, one of the main performance pointers, and the way of measuring it. This work shows a comparative study about scalability metrics of homogeneous and heterogeneous parallel processing systems, where two of the homogeneous metrics, were selected to evaluate the scalability upper limit on two virtual parallel processing platforms (JoiN and JPVM). As a result, We proposed a new scalability metric, which is based on the speedup, a well known parallel processing concept. Validation tests were performed using the proposed metric, which highlight its characteristics and suitability to heterogeneous virtual parallel processing systems / Mestrado / Engenharia de Computação / Mestre em Engenharia Elétrica
6

Uma avaliação comparativa de sistemas de memória transacional de software e seus benchmarks

Rui, Fernando Furlan January 2012 (has links)
Made available in DSpace on 2013-08-07T18:43:12Z (GMT). No. of bitstreams: 1 000440021-Texto+Completo-0.pdf: 859301 bytes, checksum: 74c835c02a03141cc25fe26c323fab1d (MD5) Previous issue date: 2012 / Transactional Memory is considered by many researchers to be one of the most promising solutions to address the problem of programming multicore processors. This model provides the scalability of fine-grained locking while avoiding common issues of tradicional mechanisms, such as deadlocks. During these almost twenty years of research, several studies were carried out to identify approaches in order to maximize the use of Transactional Memories in the Parallel Programming scenario. Furthermore, several TM systems have been developed in different types of implementations as well as new Benchmarks were proposed for evaluation and testing of TM systems. However, despite advances in the area, Transactional Memory is not considered yet a ready solution by the scientific community, due to unanswered questions in the literature, such as: “How to identify if an application has an advantage using Transactional Memory?” and “Why some applications do not benefit from the use of Transactional Memories?”, This work presents a comparative evaluation of a set of transactional applications and systems, introducing the field current state-of-the-art, understanding the existing problems and identifying growth opportunities in the STM systems in order to contribute to answer the questions that remain open in the scientific community. / Memórias Transacionais são consideradas por muitos pesquisadores como a mais promissora solução para resolver problemas de programação multicore. Esse modelo promete escalabilidade com pequena granularidade, enquanto elimina os problemas comuns nos mecanismos convencionais de locks, como deadlocks por exemplo. Durante esses quase vinte anos de pesquisas, diversos estudos foram realizados visando identificar abordagens para maximizar o uso de Memórias Transacionais no cenário de Programação Paralela. Além disso, diversos sistemas TM foram desenvolvidos em diferentes tipos de implementações, bem como novos Benchmarks foram propostos para avaliação e testes de sistemas TM. Entretanto, apesar do avanço da área, Memória Transacional não é considerada uma solução pronta para comunidade científica devido às perguntas ainda não respondidas na literatura, tais como: “Como identificar se uma aplicação terá vantagem na utilização de memórias transacionais?” e “Porque algumas aplicações não se beneficiam com o uso de Memórias Transacionais?”. Esse trabalho realiza uma avaliação comparativa de um conjunto de sistemas e aplicações transacionais, apresentando o estado da arte atual, compreendendo os problemas existentes e identificando oportunidades de crescimento nos sistemas STM de maneira a contribuir para responder as perguntas ainda em aberto na comunidade científica.
7

Suporte a simulação distribuída em SystemC

Cantanhede, Roberto Silva January 2007 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2007. / Submitted by Larissa Ferreira dos Angelos (ferreirangelos@gmail.com) on 2010-01-12T13:35:53Z No. of bitstreams: 1 2007_RobertoSilvaCatanhede.pdf: 904030 bytes, checksum: 50f929f665821f0d1a60f501a490e944 (MD5) / Approved for entry into archive by Joanita Pereira(joanita) on 2010-01-12T19:04:10Z (GMT) No. of bitstreams: 1 2007_RobertoSilvaCatanhede.pdf: 904030 bytes, checksum: 50f929f665821f0d1a60f501a490e944 (MD5) / Made available in DSpace on 2010-01-12T19:04:10Z (GMT). No. of bitstreams: 1 2007_RobertoSilvaCatanhede.pdf: 904030 bytes, checksum: 50f929f665821f0d1a60f501a490e944 (MD5) Previous issue date: 2007 / A contínua evolução tecnológica da microeletrônica viabiliza a integração de sistemas cada vez mais complexos em dispositivos semicondutores. Os sistemas integrados monolí- ticos (SoC - Systems on Chip) atuais permitem a integração de processadores, memórias e módulos dedicados analógicos, digitais e de radio-freqüência em uma única pastilha de silício. A simulação de tais sistemas é uma etapa fundamental no desenvolvimento de um SoC, pois permite a verificação de sua funcionalidade antes do detalhamento de sua im- plementação. A disponibilização de modelos simuláveis dos elementos de processamento de um SoC já nas primeiras etapas do projeto é igualmente fundamental para acelerar o processo de desenvolvimento do software embarcado, permitindo que o código produzido possa ser executado e testado de forma concorrente ao projeto do hardware. A redução do tempo de simulação afeta diretamente o ciclo de projeto do SoC, visto que impacta tanto no desenvolvimento do hardware quanto no do software embarcado. Um dos fatores limitantes na aceleração da simulação é a utilização de sistemas monoproces- sados. Tipicamente, uma descrição de um SoC é compilada e executa em um computador monoprocessado que simula por software o paralelismo do hardware. Uma forma de se atingir o objetivo de acelerar a simulação de sistemas em silício é a executação concorrente dos módulos do sistema. Assim, em vez dos módulos serem simulados em um único pro- cessador, eles podem ser distribuídos entre nodos de um cluster de computadores, sendo simulados com paralelismo real. O objetivo deste trabalho é o estudo da introdução de processamento concorrente em sistemas integrados descritos em SystemC. Essa linguagem atingiu, ao longo dos últimos anos, o status de padrão para descrições em nível de sistema. Baseia-se em C++, in- troduzindo conceitos de orientação a objetos na descrição do hardware. Neste trabalho é proposta a paralelização da simulação de sistemas descritos em SystemC pela distribuição de módulos entre processos de um sistema multiprocessado. A comunicação entre módu- los SystemC se realiza através de filas não bloqueantes, sendo a troca de mensagens entre processos implementada através do protocolo TCP/IP. Como estudo de caso para simulação concorrente foi estudado e descrito em SystemC um algoritmo de segmentação de imagens, que serve como base para métodos para deteção de movimento em seqüências de imagens a ser implementado em um SoC para redes de sensores em desenvolvimento no contexto do projeto NAMITEC. Apresenta-se o algoritmo de segmentação e os resultados de sua simulação em SystemC. _______________________________________________________________________________________ ABSTRACT / The ever increasing evolution of microelectronics allows the integration of more and more complex systems in semiconductor devices. Present day System on Chip (SoC) may integrate processors, memories, analog, mixed-signals, digital and RF modules in a single chip. The simulation of a SoC is a fundamental step in system design, since it permits the verification of its funcionality before dwelling on the details of the hardware design. The availability of simulation models for the processing elements early in the design process is also important for the embedded software development, which may then occur concurrently to hardware design. The reduction of simulation time have a direct impact on the design cycle time, affecting both the hardware and the software development. The use of monoprocessor platforms for simulation is a limiting factor in the searchof simulation speed up. Tipically, the SoC description is compiled and executed in a single process, where the hardware paralelism is simulated by software. One possible way to reduce simulation time is the parallel execution of the hardware models. Instead of being simulated in a single process, the modules may be distributed among nodes of a cluster which execute them in parallel. The goal of this work is to study the introduction of concurrent processing in the simulation of SoC described in SystemC. This languagem attained the status of a standard for system level modeling last years. It is based on C++, introducing object oriented concepts in the hardware modeling. The poposal of this work is to paralelize the simulation by distributing SystemC modules among different processes in a multiprocessor system. The communication among those modules is performmed through non-blocking fifos and is implemented over the TCP/IP protocol. A case study was developed for verification purposes. It consists in the implementation of a image segmentation algorithm to be used as support for image detection in video sequences, as part of the research project NAMITEC which targets the development of a SoC for sensor networks. The image segmentation algorithm and the simulation results in SystemC are presented.
8

Classificação e comparação de ferramentas para análise de desempenho de sistemas paralelos /

Marcari Junior, Etore. January 2002 (has links)
Orientador: Aleardo Manacero Júnior / Banca: Marco Dimas Gubitoso / Banca: José Roberto Sanches Mantovani / Resumo: A área de análise de desempenho de sistemas paralelos e distribuídos apresenta uma grande variedade de ferramentas e técnicas para avaliação. Este fator, aliado à grande diversidade de medidas de desempenho, acaba por dificultar o processo de escolha da ferramenta ou técnica mais adequada para avaliação de uma dada aplicação. Com o objetivo de minimizar tal dificuldade, diversas estratégias foram criadas dividindo as técnicas e ferramentas em grupos de acordo com suas características. Este trabalho apresenta um estudo sobre as várias formas de classificação de técnicas e ferramentas disponíveis para a análise de desempenho de sistemas paralelos e distribuídos. Ao fazer a classificação dessas técnicas e ferramentas segundo várias abordagens, espera-se fornecer aos usuários e desenvolvedores de sistemas paralelos uma maior facilidade no momento de escolher a ferramenta que deverá aplicar no estudo de desempenho do sistema em desenvolvimento. Adicionalmente realiza-se a comparação de algumas das ferramentas e técnicas disponíveis, inclusive com testes sobre a funcionalidade e facilidade de uso das mesmas. Esses testes, embora em pequeno volume, podem ajudar decisões finais no processo de escolha pela ferramenta mais adequada a cada problema, servindo portanto como um pequeno repositório de informações sobore análise de desempenho. / Abastract: The field of parallel and distributed systems' performance analysis presents a wide variety of tools and techniques available for use. This variety, along with a large range of performance metrics, makes difficult the process of choosing a tool or technique that is the best match for the evaluation of a given application. Trying to overcome such difficulty, a great number of classification strategies has been created, dividing techniques and tools in groups following certain characteristics. This work presents a study about several classification strategies that are applied over the available performance evaluation techniques and tools used on approachs, it is expected that the users and developers of parallel systems may have of performance of a system under development. Additionally, the comparison between some available tools and techniques is performed, providing some tests about their functionality and easiness of use. The tests, although in small volume, may help final decisions in the choice process for the most appropriate tool for each problem, acting like a small repository of informations on performance analysis. / Mestre
9

Classificação e comparação de ferramentas para análise de desempenho de sistemas paralelos

Marcari Junior, Etore [UNESP] 18 December 2002 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:22:36Z (GMT). No. of bitstreams: 0 Previous issue date: 2002-12-18Bitstream added on 2014-06-13T20:29:11Z : No. of bitstreams: 1 marcarijunior_e_me_ilha.pdf: 1164135 bytes, checksum: 4be314ec8034584c0046b7fee6c3266b (MD5) / A área de análise de desempenho de sistemas paralelos e distribuídos apresenta uma grande variedade de ferramentas e técnicas para avaliação. Este fator, aliado à grande diversidade de medidas de desempenho, acaba por dificultar o processo de escolha da ferramenta ou técnica mais adequada para avaliação de uma dada aplicação. Com o objetivo de minimizar tal dificuldade, diversas estratégias foram criadas dividindo as técnicas e ferramentas em grupos de acordo com suas características. Este trabalho apresenta um estudo sobre as várias formas de classificação de técnicas e ferramentas disponíveis para a análise de desempenho de sistemas paralelos e distribuídos. Ao fazer a classificação dessas técnicas e ferramentas segundo várias abordagens, espera-se fornecer aos usuários e desenvolvedores de sistemas paralelos uma maior facilidade no momento de escolher a ferramenta que deverá aplicar no estudo de desempenho do sistema em desenvolvimento. Adicionalmente realiza-se a comparação de algumas das ferramentas e técnicas disponíveis, inclusive com testes sobre a funcionalidade e facilidade de uso das mesmas. Esses testes, embora em pequeno volume, podem ajudar decisões finais no processo de escolha pela ferramenta mais adequada a cada problema, servindo portanto como um pequeno repositório de informações sobore análise de desempenho. / Abastract: The field of parallel and distributed systems' performance analysis presents a wide variety of tools and techniques available for use. This variety, along with a large range of performance metrics, makes difficult the process of choosing a tool or technique that is the best match for the evaluation of a given application. Trying to overcome such difficulty, a great number of classification strategies has been created, dividing techniques and tools in groups following certain characteristics. This work presents a study about several classification strategies that are applied over the available performance evaluation techniques and tools used on approachs, it is expected that the users and developers of parallel systems may have of performance of a system under development. Additionally, the comparison between some available tools and techniques is performed, providing some tests about their functionality and easiness of use. The tests, although in small volume, may help final decisions in the choice process for the most appropriate tool for each problem, acting like a small repository of informations on performance analysis.
10

Processamento paralelo de algoritmos de controle hierarquico

Costa Filho, José Tarcisio 29 July 1998 (has links)
Orientador : Celso Pascoli Bottura / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica / Made available in DSpace on 2018-07-14T17:05:00Z (GMT). No. of bitstreams: 1 CostaFilho_JoseTarcisio_M.pdf: 7048551 bytes, checksum: 681ab28a599ed2a970cef9f19723a5fe (MD5) Previous issue date: 1988 / Resumo: Neste trabalho estudamos e alteramos a estrutura de cálculo de algorítimos de controle hierárquico com a finalidade de obter procedimentos de parelização que permitam implementação eficiente em arquiteturas de múltiplos processadores, bem como realizamos experimentos em processamento paralelos destes algoritimos / Abstract: In this work we have studied and chaged the calculation structure of hierarchical control algorithms with the objective of developing parallelizacion produres allowing the efficient implementation in multiprocessors architecture, as well as we made experiments the parallel processing of these algorithms / Mestrado / Mestre em Ciências

Page generated in 0.0209 seconds