• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 90
  • 12
  • 8
  • 3
  • 1
  • Tagged with
  • 114
  • 72
  • 22
  • 21
  • 17
  • 16
  • 16
  • 15
  • 13
  • 13
  • 13
  • 12
  • 12
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Análises estatísticas para a paralelização de linguagens de atribuição única para sistemas de memória distribuída / Static analysis for the parallelization of single assigment languages for distributed memory systems

Raul Junji Nakashima 24 September 2001 (has links)
Este trabalho descreve técnicas de análise estática de compilação baseadas na álgebra e programação linear que buscam otimizar a distribuição de loops forall e array em programas escritos na linguagem S/SAL visando à execução em máquinas paralelas de memória distribuídas. Na fase de alinhamento, nós trabalhamos com o alinhamento de hiperplanos onde objetivo é tentar encontrar as porções dos diferentes arrays que necessitam ser distribuídas juntas. Na fase de divisão, que tenta quebrar em partes independente dados e computações, nós usamos duas funções afins, a função de decomposição de dados e a função de decomposição de computação. A última fase, o mapeamento, distribui os elementos de computação nos elementos de processamento usando um conjunto de inequações. As técnicas foram implementadas num compilador SISAL, mas pode ser usada sem mudanças em outras linguagens de associação simples e com a adição de análise de dependências pode ser usada em linguagens imperativas. / This work describes static compiler analysis techniques based on linear algebra and linear programming for optimizing the distribution of forall loops and of array elements in programs written in the SISAL programming language for distributed memory parallel machines. In the alignment phase, attempt is made in the identification of portions of different arrays that need to be distributed jointly by means of alignment of hyperplanes. In the partitioning phase, effort is made in breaking as even possible the computation and pertinent data in independent parts, by means of using related functions: the data decomposition function and the computation decomposition function. The last phase is dedicated to the mapping, which comprises the distribution of the elements of computation into the existing processing elements by means of a set of inequations. These techniques are being implemented in a SISAL compiler, but can be also used without changes by means of other single assignment languages or, with the addition of dependency analysis when using other set of languages, as well.
52

Proposta de uma linguagem Java para um ambiente paralelo-JAPAR / Design of the Java-like language for a parallel environment-JAPAR

Antônio Fernando Traina 10 March 2000 (has links)
Com o crescente número de usuários de computadores, novas ferramentas têm sido apresentadas com a finalidade de aumentar a eficiência dos computadores, meio para que seus usuários disponham de recursos automatizados. Mais recentemente, máquinas ligadas em rede de computadores e o fenômeno Internet tornaram necessárias ferramentas específicas para este tipo particular de uso. Entre as principais respostas a essas necessidades surgiu a linguagem Java, que tem ganhado adeptos tanto na comunidade científica como no mercado. Surge daí a necessidade de buscar formas alternativas para o uso de computadores em rede. Entre as soluções propostas encontra-se a de arquiteturas e linguagens paralelas. Estas ferramentas, ainda em fase experimental, apresentam soluções que podem a médio e longo prazo serem viáveis, desde que estudos e pesquisas mostrem sua viabilidade. Neste trabalho investiga-se a aplicação do conceito de paralelismo em linguagens para rede, mais especificamente a linguagem Java. A proposta é estudar as possíveis formas para se explorar o paradigma de linguagens paralelas em ambientes Java. Para isto, apresenta-se uma pesquisa relativa as principais linguagens paralelas disponíveis na literatura, de forma a conhecer as melhores soluções apresentadas por essas linguagens. O trabalho apresenta também um estudo realizado em um conjunto de ferramentas Java disponíveis no mercado. Finalmente, propõe-se um novo ambiente que possa disponibilizar ao usuário os melhores recursos da linguagem Java, explorando as melhores soluções encontradas na literatura. / With the increasing number of computer users, new tools have been presented to improve the computers efficiency and to make automated resources available for those users. Nowadays, the use of computers in a network and the Internet phenomenon requires specific tools. Among them, the Java language appears as an important tool, which has been attracting users in both the scientific and commercial communities. At the same time the computer networks are becoming more popular and some problems have emergent concerned to the networks assessment and connections. It is necessary to look for alternative ways of handling the network computer systems. The parallel architectures and languages appear among the proposed solutions. These tools are still in an experimental phase, studies and researches being necessary additional to confirm their feasibility. In this work we investigate the application of parallelism concepts in languages for networks, and particular we deal with the Java language. The aim is to study the possible approaches for exploring the parallel languages paradigm in Java environments. Research about the main parallel languages available in the literature is presented, in order to check the best solutions proposed by those languages. The work also presents an investigation about the Java tools available in the commercial market. Finally a new environment is proposed that makes some of the best resources of language Java available to the users by exploring the best solutions found in the literature.
53

Um estudo aplicado de paralelismo para o problema do subgrafo planar de peso máximo / An applied study using parallelism for the maximum weight planar subgraph problem

Coelho, Vinícius de Sousa 27 April 2018 (has links)
Submitted by Liliane Ferreira (ljuvencia30@gmail.com) on 2018-05-21T15:48:27Z No. of bitstreams: 2 Dissertação - Vinícius de Sousa Coelho - 2018.pdf: 1071318 bytes, checksum: fba98fd6feb916f0400af915d4d92a2b (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2018-05-22T12:14:46Z (GMT) No. of bitstreams: 2 Dissertação - Vinícius de Sousa Coelho - 2018.pdf: 1071318 bytes, checksum: fba98fd6feb916f0400af915d4d92a2b (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2018-05-22T12:14:46Z (GMT). No. of bitstreams: 2 Dissertação - Vinícius de Sousa Coelho - 2018.pdf: 1071318 bytes, checksum: fba98fd6feb916f0400af915d4d92a2b (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2018-04-27 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / The Maximum Weight Planar Subgraph Problem (MWPSP) consists of identifying a planar subgraph of maximum weight of a given edge-weighted graph. This work proposes new heuristic solutions, mainly using Graphic Processing Units, based on local transformations on the graph topology, consisting of vertex and edge insertion/relocation moves. Sequential and parallel implementations were built and applied to various numerical instances with promising results. One of the approaches requires only 25 seconds of execution, being more than 200 times faster than its corresponding sequential version, for a 100-vertex instance. In terms of quality, the proposed solutions obtained better results than state of the art proposals. / O problema do subgrafo planar de peso máximo (MWPSP) consiste em extrair um subgrafo planar maximal, a partir de um grafo completo com pesos atribuídos às arestas, cuja soma dos pesos das arestas seja máxima. Este trabalho propõe soluções heurísticas, construídas por meio de Unidades de Processamento Gráfico (GPUs), baseadas em transformações locais na topologia do grafo através da inserção/realocação de vértices e arestas. Implementações sequencias e paralelas foram propostas, apresentando resultados satisfatórios. Em uma das propostas, a versão paralela requer cerca de 25 segundos de execução em uma instância de 100 vértices, sendo cerca de 200 vezes mais rápida que a versão sequencial correspondente. Em termos de qualidade da solução, as propostas superaram os resultados obtidos por algoritmos no estado da arte.
54

Avaliação do paralelismo de conversores com controle por inclinação em microrredes monofásicas

CARDOSO, Tiago Domingos 21 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-19T19:49:01Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Tiago Domingos Cardoso.pdf: 4558646 bytes, checksum: 1f759df323f4aac7678357449e3aed51 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-07-20T22:13:01Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Tiago Domingos Cardoso.pdf: 4558646 bytes, checksum: 1f759df323f4aac7678357449e3aed51 (MD5) / Made available in DSpace on 2018-07-20T22:13:01Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Tiago Domingos Cardoso.pdf: 4558646 bytes, checksum: 1f759df323f4aac7678357449e3aed51 (MD5) Previous issue date: 2017-02-21 / FACEPE / Uma microrrede é basicamente um agrupamento de unidades de geração distribuída e cargas que estão conectados à rede elétrica principal em um único ponto, denominado PCC (Point of Commom Coupling — Ponto de Acoplamento Comum). Este tipo de estrutura pode operar em dois modos, conectada à rede elétrica, quando a mesma estiver disponível, ou ilhada, quando a rede apresenta problemas. O presente trabalho aborda o desenvolvimento e implementação de um protótipo para avaliação de estratégias de controle para paralelismo de conversores em microrredes monofásicas. O controle por inclinação e seus fundamentos teóricos são apresentados, e aspectos práticos de sua implementação no controle dos conversores são discutidos. Esta técnica de controle é a mais difundida na literatura para paralelismo de conversores e se mostra interessante para sua aplicação em microrredes devido a não necessitar de comunicação entre os inversores que a compõem. Um estudo comparativo dos métodos usados para cálculo da potência em sistemas monofásicos aplicados no controle por inclinação é realizado, e fica claro que o uso do Calculador de Potência Média Equivalente (CPME) se mostra um método mais eficaz do que o método clássico, pois as componentes de frequência dupla são eliminadas em regime permanente e o tempo de convergência do cálculo é acelerado. / A microgrid is basically a grouping of distributed generation units and loads that are connected to the main grid at a single point, called PCC (Point of Common Coupling). This type of structure can operate in two modes, connected to the electrical grid, when it is available, or isolated, when the grid has problems. This work presents the development and implementation of a prototype for the evaluation of control strategies for parallelism of power converters in single-phase microgrids. The droop control and its theoretical bases are presented and practical aspects of control implementation are discussed. This control technique is the most widespread in the parallelism of converters literature and shows interesting for its application in microgrids because it's not necessary communication between the inverters that compose it. A comparative study of the methods used to calculate average power in single-phase systems applied in droop control is performed, and it is clear that the use of the Enhaced Average Power Calculator (EAPC) shows a more effective method than the classical method, because the double-frequency componentes are eliminated in steady state and the convergence time of the calculation is accelerated.
55

Uma Linguagem de ProgramaÃÃo Paralela Orientada a Objetos para Arquiteturas DistribuÃdas / A Programming Language for Parallel Object-Oriented Distributed Architectures

Eduardo Gurgel Pinho 13 April 2012 (has links)
FundaÃÃo de Amparo à Pesquisa do Estado do Cearà / Em programaÃÃo orientadas a objetos (POO) , a habilidade de encapsular interesses de software da dominante decomposiÃÃo em objetos à a chave para alcanÃar alto nÃvel de modularidade e diminuiÃÃo de complexidade em projetos de larga escala. Entretanto, o paralelismo de memÃria distribuÃda tende a quebrar modularidade, encapsulamento e a independÃncia de objetos, uma vez que as computaÃÃes paralelas nÃo podem ser encapsuladas em objetos individuais, os quais residem em um espaÃo de endereÃamento Ãnico. Para reconciliar orientaÃÃo a objetos e paralelismo em memÃria distribuÃda, esse trabalho introduz a PPOO (ProgramaÃÃo Paralela Orientada a Objetos), um estilo de POO onde objetos sÃo distribuÃdos por padrÃo. Como uma estensÃo do C++, uma linguagem consolidada em CAD, a linguagem PObC++ foi projetada e prototipada, incorporando as ideias da PPOO. / In object-oriented programming (OOP) languages, the ability to encapsulate software concerns of the dominant decomposition in objects is the key to reaching high modularity and loss of complexity in large scale designs. However, distributed-memory parallelism tends to break modularity, encapsulation, and functional independence of objects, since parallel computations cannot be encapsulated in individual objects, which reside in a single address space. For reconciling object-orientation and distributed-memory parallelism, this work introduces OOPP (Object-Oriented Parallel Programming), a style of OOP where objects are distributed by default. As an extension of C++, a widespread language in HPC, the PObC++ language has been designed and protoyped, incorporating the ideas of OOPP
56

Estudo do desempenho de aplica??es da mec?nica dos s?lidos em computa??o paralela / Study of the performance of solid mechanics applications in parallel computing

Pinho, Ronilson Rodrigues 06 October 2014 (has links)
Submitted by Celso Magalhaes (celsomagalhaes@ufrrj.br) on 2017-06-19T12:18:08Z No. of bitstreams: 1 2014 - Ronilson Rodrigues Pinho.pdf: 623700 bytes, checksum: 7bc5eefc4b9dab2877f833cbdab95b9f (MD5) / Made available in DSpace on 2017-06-19T12:18:08Z (GMT). No. of bitstreams: 1 2014 - Ronilson Rodrigues Pinho.pdf: 623700 bytes, checksum: 7bc5eefc4b9dab2877f833cbdab95b9f (MD5) Previous issue date: 2014-10-06 / The Boundary Element Method (BEM) is a computational method for differential equations solutions, formulated in the form of integral domains. Thus, it is applied in Fluid Mechanics, Acoustics, Electromagnetics and Fractures study. The BEM requires discretization only regarding boundary geometry of the problem, but not inside as a whole, reducing the computational effort. In order to reduce computational effort, parallel computing is an efficient form of information processing emphasizing concurrent events exploitation during software execution. This processing status arises primarily due to high computational performance requirements and difficulty in increasing single processor core speed. Despite central processing units (CPUs), whether multiprocessors or multicore processors, are easily found today, several algorithms are not suitable to run on parallel architectures yet. The present study aimed to develop parallelism research, acting in a sequential program, using Fortran 77 language (VERA-TUDELLA, 2003), making numerical analysis of stress and strain 2D specific problems) of Solids Mechanics with BEM, as well as, its clamped and tensioned bar physical representation. This application implementation is intended to exploit the maximum parallelism / O M?todo de Elementos de Contorno (MEC) ? um m?todo computacional para a solu??o de sistemas de equa??es diferenciais, formuladas em forma de integrais. Aplicado na Mec?nica dos fluidos, Ac?stica, Eletromagn?ticos, Estudo de fraturas etc. O MEC requer discretiza??o apenas no contorno da geometria do problema, mas n?o do seu interior como um todo, diminuindo o esfor?o computacional. Com o intuito em diminuir o esfor?o computacional, a Computa??o paralela ? uma forma eficiente de processamento de informa??o com ?nfase na explora??o de eventos simult?neos na execu??o de um software. Ele surge principalmente devido ?s elevadas exig?ncias de desempenho computacional e ? dificuldade em aumentar a velocidade de um ?nico n?cleo de processamento. Apesar das CPUs multiprocessadas, ou processadores multicore, serem facilmente encontrados atualmente, diversos algoritmos ainda n?o s?o adequados para executar em arquiteturas paralelas. O presente estudo objetivou-se com o intuito de prosseguir na pesquisa sobre paralelismo, atuando num programa sequencial, desenvolvido na linguagem Fortran 77 (VERA-TUDELA, 2003), que efetua an?lises num?ricas de problemas espec?ficos tens?o e deforma??o em 2D) da Mec?nica dos S?lidos via MEC com representa??o f?sica da barra engastada e tracionada. A implementa??o da aplica??o, visa explorar o m?ximo o paralelismo
57

Um método para paralelização automática de workflows intensivos em dados / A method for automatic paralelization of data-intensive workflows

Elaine Naomi Watanabe 22 May 2017 (has links)
A análise de dados em grande escala é um dos grandes desafios computacionais atuais e está presente não somente em áreas da ciência moderna mas também nos setores público e industrial. Nesses cenários, o processamento dos dados geralmente é modelado como um conjunto de atividades interligadas por meio de fluxos de dados os workflows. Devido ao alto custo computacional, diversas estratégias já foram propostas para melhorar a eficiência da execução de workflows intensivos em dados, tais como o agrupamento de atividades para minimizar as transferências de dados e a paralelização do processamento, de modo que duas ou mais atividades sejam executadas ao mesmo tempo em diferentes recursos computacionais. O paralelismo nesse caso é definido pela estrutura descrita em seu modelo de composição de atividades. Em geral, os Sistemas de Gerenciamento de Workflows, responsáveis pela coordenação e execução dessas atividades em um ambiente distribuído, desconhecem o tipo de processamento a ser realizado e por isso não são capazes de explorar automaticamente estratégias para execução paralela. As atividades paralelizáveis são definidas pelo usuário em tempo de projeto e criar uma estrutura que faça uso eficiente de um ambiente distribuído não é uma tarefa trivial. Este trabalho tem como objetivo prover execuções mais eficientes de workflows intensivos em dados e propõe para isso um método para a paralelização automática dessas aplicações, voltado para usuários não-especialistas em computação de alto desempenho. Este método define nove anotações semânticas para caracterizar a forma como os dados são acessados e consumidos pelas atividades e, assim, levando em conta os recursos computacionais disponíveis para a execução, criar automaticamente estratégias que explorem o paralelismo de dados. O método proposto gera réplicas das atividades anotadas e define também um esquema de indexação e distribuição dos dados do workflow que possibilita maior acesso paralelo. Avaliou-se sua eficiência em dois modelos de workflows com dados reais, executados na plataforma de nuvem da Amazon. Usou-se um SGBD relacional (PostgreSQL) e um NoSQL (MongoDB) para o gerenciamento de até 20,5 milhões de objetos de dados em 21 cenários com diferentes configurações de particionamento e replicação de dados. Os resultados obtidos mostraram que a paralelização da execução das atividades promovida pelo método reduziu o tempo de execução do workflow em até 66,6% sem aumentar o seu custo monetário. / The analysis of large-scale datasets is one of the major current computational challenges and it is present not only in fields of modern science domain but also in the industry and public sector. In these scenarios, the data processing is usually modeled as a set of activities interconnected through data flows as known as workflows. Due to their high computational cost, several strategies were proposed to improve the efficiency of data-intensive workflows, such as activities clustering to minimize data transfers and parallelization of data processing for reducing makespan, in which two or more activities are performed at same time on different computational resources. The parallelism, in this case, is defined in the structure of the workflows model of activities composition. In general, Workflow Management Systems are responsible for the coordination and execution of these activities in a distributed environment. However, they are not aware of the type of processing that will be performed by each one of them. Thus, they are not able to automatically explore strategies for parallel execution. Parallelizable activities are defined by user at workflow design time and creating a structure that makes an efficient use of a distributed environment is not a trivial task. This work aims to provide more efficient executions for data intensive workflows and, for that, proposes a method for automatic parallelization of these applications, focusing on users who are not specialists in high performance computing. This method defines nine semantic annotations to characterize how data is accessed and consumed by activities and thus, taking into account the available computational resources, automatically creates strategies that explore data parallelism. The proposed method generates replicas of annotated activities. It also defines a workflow data indexing and distribution scheme that allows greater parallel access. Its efficiency was evaluated in two workflow models with real data, executed in Amazon cloud platform. A relational (PostgreSQL) and a NoSQL (MongoDB) DBMS were used to manage up to 20.5 million of data objects in 21 scenarios with different partitioning and data replication settings. The experiments have shown that the parallelization of the execution of the activities promoted by the method resulted in a reduction of up to 66.6 % in the workflows makespan without increasing its monetary cost.
58

ALGORITMOS DE CLUSTERING PARALELOS EN SISTEMAS DE RECUPERACIÓN DE INFORMACIÓN DISTRIBUIDOS

Jiménez González, Daniel 20 July 2011 (has links)
La información es útil si cuando se necesita está disponible y se puede hacer uso de ella. La disponibilidad suele darse fácilmente cuando la información está bien estructurada y ordenada, y además, no es muy extensa. Pero esta situación no es la más común, cada vez se tiende más a que la cantidad de información ofrecida crezca de forma desmesurada, que esté desestructurada y que no presente un orden claro. La estructuración u ordenación manual es inviable debido a las dimensiones de la información a manejar. Por todo ello se hace clara la utilidad, e incluso la necesidad, de buenos sistemas de recuperación de información (SRI). Además, otra característica también importante es que la información tiende a presentarse de forma natural de manera distribuida, lo cual implica la necesidad de SRI que puedan trabajar en entornos distribuidos y con técnicas de paralelización. Esta tesis aborda todos estos aspectos desarrollando y mejorando métodos que permitan obtener SRI con mejores prestaciones, tanto en calidad de recuperación como en eficiencia computacional, los cuales además permiten trabajar desde el enfoque de sistemas ya distribuidos. El principal objetivo de los SRI será proporcionar documentos relevantes y omitir los considerados irrelevantes respecto a una consulta dada. Algunos de los problemas más destacables de los SRI son: la polisemia y la sinonimia; las palabras relacionadas (palabras que juntas tienen un signi cado y separadas otro); la enormidad de la información a manejar; la heterogeneidad de los documentos; etc. De todos ellos esta tesis se centra en la polisemia y la sinonimia, las palabras relacionadas (indirectamente mediante la lematización semántica) y en la enormidad de la información a manejar. El desarrollo de un SRI comprende básicamente cuatro fases distintas: el preprocesamiento, la modelización, la evaluación y la utilización. El preprocesamiento que conlleva las acciones necesarias para transformar los documentos de la colección en una estructura de datos con la información relevante de los documentos ha sido una parte importante del estudio de esta tesis. En esta fase nos hemos centrado en la reducción de los datos y estructuras a manejar, maximizando la información contenida. La modelización, ha sido la fase más analizada y trabajada en esta tesis, es la que se encarga de defi nir la estructura y comportamiento del SRI. / Jiménez González, D. (2011). ALGORITMOS DE CLUSTERING PARALELOS EN SISTEMAS DE RECUPERACIÓN DE INFORMACIÓN DISTRIBUIDOS [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/11234 / Palancia
59

Algoritmos paralelos para la solución de problemas de optimización discretos aplicados a la decodificación de señales

Trujillo Rasúa, Rafael Arturo 11 February 2010 (has links)
En diversas aplicaciones prácticas cada vez es más frecuente la presencia de problemas de optimización que involucran variables que deben tomar valores discretos. Debido a su naturaleza combinatoria, los problemas de optimización discretos presentan por lo general una complejidad computacional exponencial, y por tanto son mucho más complicados de resolver que los problemas continuos. El trabajo descrito en esta tesis se ha centrado en el estudio y solución al problema de encontrar el punto de una retícula más cercano a un punto dado. Dicho problema puede originarse, entre otras múltiples aplicaciones prácticas, en la detección de señales en sistemas de comunicaciones inalámbricos MIMO (Multiple Input - Multiple Output). Los problemas de optimización discretos no pueden abordarse con métodos de convergencia rápida basados en derivadas. En su lugar, la solución se obtiene mediante métodos como Ramificación y Poda, programación dinámica y búsquedas heurísticas. El trabajo presentado ha consistido, en primer lugar, en realizar un amplio estudio del estado del arte de los métodos de Búsqueda Directa (que son métodos de optimización no basados en derivadas) y de los métodos Sphere-Decoding (pertenecientes al esquema de Ramificación y Poda). En segundo lugar, se ha abordado la paralelización de estos métodos dirigida a distintas arquitecturas, bien sea arquitecturas con memoria compartida, memoria distribuida y esquemas híbridos; además de explorar, en el caso de la Búsqueda Directa, variantes asíncronas de paralelización. Adicionalmente se proponen mejoras en los propios algoritmos secuenciales. Se diseñaron e implementaron diversas variantes de métodos de Búsqueda Directa, las cuales tuvieron buenos resultados en la resolución del Problema Inverso Aditivo de Valores Singulares, pues lograron converger y obtener mejor precisión en la solución que los métodos basados en derivadas tipo Newton. / Trujillo Rasúa, RA. (2009). Algoritmos paralelos para la solución de problemas de optimización discretos aplicados a la decodificación de señales [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/7108 / Palancia
60

Aplicación de técnicas de computación paralela para la aceleración de algoritmos de ingeniería

Rico, Héctor 02 December 2021 (has links)
La utilización de algoritmos de optimización en problemas de ingeniería ha tenido un gran aumento en los últimos años, lo que ha llevado a la proliferación de un gran número de nuevos algoritmos para resolver problemas de optimización. Además, la aparición de nuevas técnicas de paralelización aplicables a estos algoritmos para mejorar su tiempo de convergencia ha hecho que sea objeto de estudio por parte de muchos autores. Dentro de todos los algoritmos centraremos la investigación en dos algoritmos de optimización: Jaya y TLBO (y su versión discreta DTLBO). Una de las principales ventajas de ambos algoritmos sobre otros métodos de optimización es que los primeros no necesitan ajustar parámetros específicos para el problema concreto al que se aplican. En este trabajo se comparan las implementaciones paralelas de Teaching-Learning Based Optimization y Jaya. La paralelización de ambos algoritmos se realiza utilizando técnicas de GPUs manycore. Se crearán diferentes escenarios partiendo de un enfoque teórico utilizando funciones de la literatura actual para la evaluación de algoritmos de optimización y finalizando en la aplicación de dichos algoritmos a problemas reales de optimización de rutas, en nuestro caso aplicándolo al problema del viajante y para problemas de perforación en placas. Los resultados permitirán comparar ambos algoritmos paralelos en cuanto al número de iteraciones y el tiempo necesario para realizarlas para obtener un nivel de error predeterminado. También se analizará la ocupación de recursos de la GPU en cada caso.

Page generated in 0.063 seconds