• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 91
  • 23
  • 12
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 128
  • 73
  • 68
  • 28
  • 25
  • 21
  • 20
  • 18
  • 18
  • 17
  • 14
  • 11
  • 11
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Avaliação de algoritmos de ordenação em sistemas paralelos

Dantas, Anna Catharina da Costa 19 December 1997 (has links)
Orientador: Ivan Luiz Marques Ricarte / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-07-23T14:35:54Z (GMT). No. of bitstreams: 1 Dantas_AnnaCatharinadaCosta_M.pdf: 9497760 bytes, checksum: 097a379f20e9653f453d5fe6e9bcd664 (MD5) Previous issue date: 1997 / Resumo: A classificação ou ordenação de dados tem assumido grandes proporções no âmbito do processamento de informações, tanto devido a sua importância na análise de desempenho quanto pelo fato de ser utilizado como processo intermediário em diversas aplicações. Os primeiros estudos sobre ordenação se deram a partir dos algoritmos seqüenciais. Entretanto, o tamanho crescente das aplicações tratadas vem impondo maior demanda de tempo de execução e memória, provocando uma necessidade de evolução. Para tentar minimizar os efeitos de complexidade dos algoritmos seqüenciais de ordenação, diversos algoritmos paralelos vêm sendo propostos. A combinação entre a tecnologia disponibilizada pelo processamento paralelo e a eficiência dos algoritmos de ordenação produz algoritmos paralelos de ordenação com alto poder de computação. Esse trabalho avalia alguns dos algoritmos paralelos de ordenação interna disponíveis na literatura, aplicáveis ou adaptados a multicomputadores MIMD de memória distribuída, interconectados por redes locais. Alguns benchmarks com diferentes características de distribuição de probabilidade foram implementados para validar os resultados apresentados, obtidos a partir da execução paralela suportada por bibliotecas de comunicação por troca de mensagens / Abstract: Data sorting has assumed large proportions in the field of information processing, even because of its importance in performance analysis and also because of its use as an intermediate process for several applications. The first researches about sorting have been undertaken trough serial algorithms. However, the increasing size of treated applications has imposed demand on execution time and memory, leading to evolution necessities. In order to minimize complexity effects of serial sorting algorithms, many parallel algorithms have been proposed. The combination between technology made available by parallel processing and efficiency of sorting algorithms produces parallel sorting algorithms with high computation power. This work evaluates some parallel internal sorting algorithms available in actual literature, applicable to or adapted for distributed memory MIMD multicomputers, interconnected by local works. Some benchmarks with different features of probability distribution have been complemented to validate presented results. Such results have been obtained from parallel execution supported by libraries that provide communication by message-passing / Mestrado / Mestre em Engenharia Elétrica
32

Metodologias para analise de desempenho de sistemas de computação paralela

Fernandes, Leonardo Leiria 11 April 2004 (has links)
Orientador: Ricardo de Oliveira Anido / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-03T23:46:40Z (GMT). No. of bitstreams: 1 Fernandes_LeonardoLeiria_M.pdf: 1817080 bytes, checksum: e223a750bcebd0d02b1ff29f8e7cd9e2 (MD5) Previous issue date: 2004 / Mestrado / Ciência da Computação / Mestre em Ciência da Computação
33

Processamento a fluxo de dados tolerante a falhas em um computador paralelo

Silva, Jorge Luiz e 18 December 1992 (has links)
Orientadores: Shusaburo Motoyama, Claudio Kirner / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica / Made available in DSpace on 2018-07-17T11:53:47Z (GMT). No. of bitstreams: 1 Silva_JorgeLuize_D.pdf: 9332250 bytes, checksum: 7333ab47e718273c0c4a589b6727c50a (MD5) Previous issue date: 1992 / Resumo: Este trabalho teve como objetivo analisar e desenvolver Programação a Fluxo de Dados Tolerante a Falhas em um computador paralelo estruturado recursivamente (CPER). O CPER é uma máquina paralela que possui uma estrutura básica constituída de N Elementos de Processamento (EP), interligados através de um barramento paralelo de alta velocidade, correspondendo ao barramento nível 1. Várias destas estruturas básicas interligadas através de um outro barramento constitui a estrutura do barramento nível 2. O uso recursivo desta mesma regra irá compor a estrutura hierárquica do CPER, que permite expansão, flexibilidade e alto grau de Tolerância a Falhas. Entretanto esta arquitetura pode não ser eficiente, se não utilizarmos conceitos de programação paralela. Propusemos então a Programação a Fluxo de Dados na estrutura hierárquica do CPER. Inicialmente apresentamos o hardware do CPER, e suas estruturas de alto desempenho. Em seguida, mostramos como o CPER opera para executar programas a fluxo de dados de forma dinâmica e mostramos também uma solução de software para garantir Tolerância a Falhas na programação a fluxo de Dados. Finalmente apresentamos um simulador (FDsim), e uma análise estocástica, que tiveram como objetivo mostrar viabilidade e eficiência da máquina paralela proposta / Abstract: In this work is analyzed the fault tolerant data flow processing in a computer based on hierarchical parallel buses. In this architecture, a set of N processors, each one called processing element (PE), are interconnected to a bus constituting a basic structure or cluster. The set of the buses of these basic structures correspond to the parallel buses leveI 1. Several basic structures of level 1 are interconnected to a bus constituting a cluster for the parallel buses leveI 2. The same idea can be recursively used to get parallel buses leveI M. This computer architecture based on hierarchical parallel buses permits the expansion flexibility and is highly fault tolerant computer. However, this architecture may not be efficient. If it is not utilized parallel programming concept. In this work we proposed the data flow processing for the execution of the programs in hierarchical parallel buses machine. First of alI, it is proposed hardware solution to get high throughput for inter-clusters and inter-Ievels communications in hierarchical parallel buses machine. FOllowing, it is discussed how the parallel buses computer can work as a dynamic data flow machine and it is proposed software solution to get fault tolerant processing. Finally, a software simulation is carried out to show the feasibility and efficiency of proposed parallel buses machine / Doutorado / Doutor em Engenharia Elétrica
34

Estudo da influência dos parâmetros de algoritmos paralelos da computação evolutiva no seu desempenho em plataformas multicore

Pais, Mônica Sakuray 14 March 2014 (has links)
Parallel computing is a powerful way to reduce the computation time and to improve the quality of solutions of evolutionary algorithms (EAs). At first, parallel evolutionary algorithms (PEAs) ran on very expensive and not easily available parallel machines. As multicore processors become ubiquitous, the improved performance available to parallel programs is a great motivation to computationally demanding EAs to turn into parallel programs and exploit the power of multicores. The parallel implementation brings more factors to influence performance, and consequently adds more complexity on PEAs evaluations. Statistics can help in this task and guarantee the significance and correct conclusions with minimum tests, provided that the correct design of experiments is applied. This work presents a methodology that guarantees the correct estimation of speedups and applies a factorial design on the analysis of PEAs performance. As a case study, the influence of migration related parameters on the performance of a parallel evolutionary algorithm solving two benchmark problems executed on a multicore processor is evaluated. / A computação paralela é um modo poderoso de reduzir o tempo de processamento e de melhorar a qualidade das soluções dos algoritmos evolutivos (AE). No princípio, os AE paralelos (AEP) eram executados em máquinas paralelas caras e pouco disponíveis. Desde que os processadores multicore tornaram-se largamente disponíveis, sua capacidade de processamento paralelo é um grande incentivo para que os AE, programas exigentes de poder computacional, sejam paralelizados e explorem ao máximo a capacidade de processamento dos multicore. A implementação paralela traz mais fatores que podem influenciar a performance dos AEP e adiciona mais complexidade na avaliação desses algoritmos. A estatística pode ajudar nessa tarefa e garantir conclusões corretas e significativas, com o mínimo de testes, se for aplicado o planejamento de experimentos adequado. Neste trabalho é apresentada uma metodologia de experimentação com AEP. Essa metodologia garante a correta estimação do speedup e aplica ao planejamento fatorial na análise dos fatores que influenciam o desempenho. Como estudo de caso, um algoritmo genético, denominado AGP-I, foi paralelizado segundo o modelo de ilhas. O AGP-I foi executado em plataformas com diferentes processadores multicore na resolução de duas funções de teste. A metodologia de experimentação com AEP foi aplicada para se determinar a influência dos fatores relacionados à migração no desempenho do AGP-I. / Doutor em Ciências
35

"Alinhamento sentencial de textos paralelos português-inglês" / Sentence alignment of Portuguese-English parallel texts

Caseli, Helena de Medeiros 10 April 2003 (has links)
Esta dissertação relata o primeiro trabalho de pesquisa em alinhamento automático de textos paralelos envolvendo o português brasileiro (PB). Neste trabalho foram implementados cinco métodos de alinhamento sentencial automático bastante referenciados na literatura, incluindo métodos empíricos, lingüísticos e híbridos, avaliados com textos paralelos PB-inglês. Os resultados mostraram-se compatíveis com os relatados para outros pares de línguas, sendo que as maiores precisões (acima de 94%) foram obtidas em corpora sem ruídos (sem erros gramaticais e de tradução), conforme era esperado. Além disso, os resultados apontam muita semelhança no desempenho de todos os métodos, o que impossibilita a eleição de um deles como o melhor. Além da implementação dos métodos de alinhamento sentencial e dos corpora paralelos construídos para avaliá-los, outros recursos lingüísticos e computacionais de grande valor para as pesquisas em PLN foram gerados durante este trabalho. / As the first attempt at automatic parallel text alignment involving Brazilian Portuguese, in this research we implemented five well-known automatic sentence alignment methods, including empirical, linguistic and hybrid techniques, and evaluated them as applied to Brazilian Portuguese-English parallel texts. The results are in accordance with those reported for other pairs of languages, even in that highest precisions (above 94%) were obtained for corpora without noise (i.e. grammatical or translation errors), as expected. Furthermore, the results point to a virtual tie between the methods, it being impossible to elect one as the best. In addition to the implementations of those methods and the parallel corpora built to evaluate them, other linguistic and computational resources were built during this work which are of great value to PLN research.
36

Algoritmos iterativos paralelos para la resolución de sistemas no lineales

Arnal, Josep 17 July 2000 (has links)
Proyecto DGESIC PB98-0977
37

Estudo da concepção de um robô paralelo de três graus de liberdade

Almeida, Mateus Vagner Guedes de January 2018 (has links)
O mecanismo 3-RPS é um mecanismo paralelo que possui três graus de liberdade: rolagem, arfagem e elevação. Tem vantagem em relação ao custo em comparação com o manipulador Plataforma de Stewart em aplicações onde não são necessários seis graus de liberdade e, por ser um mecanismo paralelo, possui maior relação peso/capacidade de carga que robôs seriais. No presente trabalho, um estudo é realizado para a concepção de um robô do tipo 3-RPS. O estudo aborda a cinemática, a dinâmica e estratégia de controle para o robô. Um controle por torque computado é aplicado a um modelo virtual em ambiente CAD em escala 1:1 desenvolvido com o intuito de testar a estratégia de controle elaborada a partir da realização de simulações computacionais do sistema por completo. Ao todo foram realizadas sete simulações para diferentes condições de trajetórias desejadas. No Caso I executou-se primeiramente um sistema idealizado onde o erro de regime tendeu a zero para um comportamento subamortecido. Os ganhos calculados no Caso I idealizado foram aplicados então no Caso I com o modelo virtual onde verificou-se que os ganhos calculados não foram suficientes para garantir a trajetória desejada do robô. Com os ganhos aumentados em cem vezes, verificou-se que o erro de regime ficou na ordem de 0,22 mm, sendo o valor considerado aceitável. Nas simulações subsequentes, o erro de regime nos Casos II e III foram também de 0,22 mm e nos Casos IV, V, VI e VII o erro máximo de trajetória não ultrapassou os 0,22 mm estipulados. / The 3-RPS mechanism is a parallel mechanism that has three degrees of freedom: roll, pitch and heave. It has a cost advantage compared to the Stewart Platform manipulator in applications where six degrees of freedom are not required and, because it is a parallel mechanism, has a higher weight / load ratio than serial robots. In the present work, a study is carried out for the design of a 3-RPS robot. The study addresses the kinematics, dynamics and control strategy for the robot. A computed torque control is applied to a 1:1 scale virtual CAD model developed with the purpose of testing the control strategy elaborated from the computational simulations of the entire system. Seven simulations were performed for different conditions of desired trajectories. In Case I, an idealized system was first run where the regime error tended to zero for an underdamped behavior. The calculated gains in Case I idealized were then applied in Case I with the virtual model where it was verified that the calculated gains were not enough to guarantee the desired trajectory of the robot. With gains increased by one hundred times, it was found that the regime error was 0.22 mm, and the value was considered acceptable. In the subsequent simulations, the regime error in Cases II and III were also 0.22 mm and in Cases IV, V, VI and VII the maximum error of trajectory did not exceed the stipulated 0.22 mm.
38

Aplicações de computação paralela em otimização contínua / Applications of parallel computing in continuous optimization

Abrantes, Ricardo Luiz de Andrade 22 February 2008 (has links)
No presente trabalho, estudamos alguns conceitos relacionados ao desenvolvimento de programas paralelos, algumas formas de aplicar computação paralela em métodos de otimização contínua e dois métodos que envolvem o uso de otimização. O primeiro método que apresentamos, chamado PUMA (Pointwise Unconstrained Minimization Approach), recupera constantes óticas e espessuras de filmes finos a partir de valores de transmitância. O problema de recuperação é modelado como um problema inverso e resolvido com auxílio de um método de otimização. Através da paralelização do PUMA viabilizamos a recuperação empírica de constantes e espessuras de sistemas compostos por até dois filmes sobrepostos. Relatamos aqui os resultados obtidos e discutimos o desempenho da versão paralela e a qualidade dos resultados obtidos. O segundo método estudado tem o objetivo de obter configurações iniciais de moléculas para simulações de dinâmica molecular e é chamado PACKMOL. O problema de obter uma configuração inicial de moléculas é modelado como um problema de empacotamento e resolvido com o auxílio de um método de otimização. Construímos uma versão paralela do PACKMOL e mostramos os ganhos de desempenho obtidos com a paralelização. / In this work we studied some concepts of parallel programming, some ways of using parallel computing in continuous optimization methods and two optimization methods. The first method we present is called PUMA (Pointwise Unconstrained Minimization Approach), and it retrieves optical constants and thicknesses of thin films from transmitance data. The problem of retrieve thickness and optical constants is modeled as an inverse problem and solved with aid of an optimization method. Through the paralelization of PUMA we managed to retrieve optical constants and thicknesses of thin films in structures with one and two superposed films. We describe some results and discuss the performance of the parallel PUMA and the quality of the retrievals. The second studied method is used to build an initial configuration of molecules for molecular dynamics simulations and it is called PACKMOL. The problem of create an initial configuration of molecules is modeled as a packing problem and solved with aid of an optimization method. We developed a parallel version of PACKMOL and we show the obtained performance gains.
39

Paralelização do algoritmo DIANA com OpenMP e MPI /

Ribeiro, Hethini do Nascimento. January 2018 (has links)
Orientador: Roberta Spolon / Banca: Kelton Augusto Pontara da Costa / Banca: Anderson Francisco Talon / Resumo: No início desta década havia cerca de 5 bilhões de telefones em uso gerando dados. Essa produção global aumentou aproximadamente 40% ao ano no início da década passada. Esses grandes conjuntos de dados que podem ser capturados, comunicados, agregados, armazenados e analisados, também chamados de Big Data, estão colocando desafios inevitáveis em muitas áreas e, em particular, no campo Machine Learning. Algoritmos de Machine Learning são capazes de extrair informações úteis desses grandes repositórios de dados e por este motivo está se tornando cada vez mais importante o seu estudo. Os programas aptos a realizarem essa tarefa podem ser chamados de algoritmos de classificação e clusterização. Essas aplicações são dispendiosas computacionalmente. Para citar alguns exemplos desse custo, o algoritmo Quality Threshold Clustering tem, no pior caso, complexidade O(�����������������5). Os algoritmos hierárquicos AGNES e DIANA, por sua vez, possuem O(n²) e O(2n) respectivamente. Sendo assim, existe um grande desafio, que consiste em processar grandes quantidades de dados em um período de tempo realista, encorajando o desenvolvimento de algoritmos paralelos que se adequam ao volume de dados. O objetivo deste trabalho é apresentar a paralelização do algoritmo de hierárquico divisivo DIANA. O desenvolvimento do algoritmo foi realizado em MPI e OpenMP, chegando a ser três vezes mais rápido que a versão monoprocessada, evidenciando que embora em ambientes de memória distribuídas necessite de... / Abstract: Earlier in this decade there were about 5 billion phones in use generating data. This global production increased approximately 40% per year at the beginning of the last decade. These large datasets that can be captured, communicated, aggregated, stored and analyzed, also called Big Data, are posing inevitable challenges in many areas, and in particular in the Machine Learning field. Machine Learning algorithms are able to extract useful information from these large data repositories and for this reason their study is becoming increasingly important. The programs that can perform this task can be called classification and clustering algorithms. These applications are computationally expensive. To cite some examples of this cost, the Quality Threshold Clustering algorithm has, in the worst case, complexity O (n5). The hierarchical algorithms AGNES and DIANA, in turn, have O (n²) and O (2n) respectively. Thus, there is a great challenge, which is to process large amounts of data in a realistic period of time, encouraging the development of parallel algorithms that fit the volume of data. The objective of this work is to present the parallelization of the DIANA divisive hierarchical algorithm. The development of the algorithm was performed in MPI and OpenMP, reaching three times faster than the monoprocessed version, evidencing that although in distributed memory environments need synchronization and exchange of messages, for a certain degree of parallelism it is advantageous ... / Mestre
40

Análisis de rendimiento y optimización de algoritmos paralelos Best-First Search sobre multicore y cluster de multicore

Sanz, Victoria María January 2015 (has links)
El objetivo general de esta tesis se centra en la investigación y desarrollo de algoritmos paralelos de búsqueda en grafos best-first search para arquitecturas multicore y cluster de multicore, que mejoran los existentes y se utilizan para resolver problemas de optimización combinatoria y de planificación, acompañado de un análisis de rendimiento (speedup, eficiencia, escalabilidad) de los mismos. La temática propuesta es de interés en la actualidad por la complejidad computacional de dichos algoritmos de búsqueda y las posibilidades que brindan las arquitecturas mencionadas. Los algoritmos presentados en esta tesis pueden aplicarse para resolver problemas reales como planificación de rutas óptimas, navegación automática de un robot o vehículo, alineamiento óptimo de secuencias, entre otros. Los temas de investigación derivados son múltiples y se refieren tanto a la paralelización de algoritmos sobre (a) arquitecturas de memoria compartida, como son los multicore (b) arquitecturas de memoria distribuida, como son los clusters (c) y también sobre arquitecturas híbridas, tal es el caso de los clusters de multicore. El aporte de la tesis es el desarrollo de dos algoritmos paralelos best-first-search propios, uno apto para su ejecución sobre máquinas de memoria compartida (multicore) y otro apto para máquinas de memoria distribuida (cluster), basados en el algoritmo HDA* (Hash Distributed A*), en los cuales se incluyen técnicas originales que optimizan su rendimiento. Asimismo, se presenta un análisis de rendimiento de los algoritmos desarrollados a medida que escala la carga de trabajo y la arquitectura paralela subyacente. Para finalizar, se compara la memoria consumida por ambos algoritmos y el rendimiento alcanzado cuando se los ejecuta sobre una máquina multicore; estos análisis presentan originalidad en el área. Los resultados arrojados indican que se obtendría un beneficio al convertir HDA* en una aplicación híbrida, cuando la arquitectura subyacente es un cluster de multicore, por lo que se sientan las bases para éste algoritmo híbrido.

Page generated in 0.0488 seconds