Spelling suggestions: "subject:"paralelamente""
11 |
Desenvolvimento de um robô com cinemática paralela delta linear para manufatura aditiva aderente a STEP-NCRodriguez Gasca, Efrain Andres 02 March 2018 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Mecânica, 2018. / Submitted by Raquel Almeida (raquel.df13@gmail.com) on 2018-05-08T18:42:16Z
No. of bitstreams: 1
2017_EfrainAndresRodriguesGasca.pdf: 7286873 bytes, checksum: 71654086d3141b606ed57e10cf1ff3f4 (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2018-06-05T20:47:48Z (GMT) No. of bitstreams: 1
2017_EfrainAndresRodriguesGasca.pdf: 7286873 bytes, checksum: 71654086d3141b606ed57e10cf1ff3f4 (MD5) / Made available in DSpace on 2018-06-05T20:47:48Z (GMT). No. of bitstreams: 1
2017_EfrainAndresRodriguesGasca.pdf: 7286873 bytes, checksum: 71654086d3141b606ed57e10cf1ff3f4 (MD5)
Previous issue date: 2018-06-05 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES). / Esta dissertação trata do desenvolvimento de um robô com cinemática paralela Delta Linear para Manufatura Aditiva (AM-Additive Manufacturing) e a proposição de um modelo de informação para AM baseado no padrão STEP-NC. AM é considerada como uma tendência da Indústria 4.0, aportando grandes benefícios para o desenvolvimento de novos produtos, incluindo redução do tempo de lançamento ao mercado, liberdade de projeto para manufatura e reduções na cadeia de suprimentos. No entanto, ainda persistem sérios problemas sobre a cadeia digital da AM com o uso de antigos formatos para troca de dados. O formato STL (1987) tem sido usado como padrão “de fato" para troca de dados entre softwares de projeto 3D e sistemas de AM e da mesma forma, os controladores numéricos dos sistemas de AM ainda utilizam o padrão de código G (ISO 6983/1980). Porém esses formatos possuem inconvenientes que os tornam incompatíveis com a ideia de uma cadeia digital de alto nível para AM. O ISO 14649, conhecido como STEP-NC, é agora categorizado como a solução aos problemas de troca de dados em AM. Este trabalho explora o padrão STEP-NC para suportar uma cadeia digital de alto nível para AM. Um modelo de atividade de aplicação usando a nomenclatura IDEF0 e um modelo de referência de aplicação na linguagem EXPRESS são apresentados e o conceito de AM-layer-feature é introduzido para referenciar features de AM dentro do modelo EXPRESS. A arquitetura de uma plataforma de AM com controle STEP-NC indireto para implementação do novo modelo também é apresentada. Em paralelo a dissertação apresenta o projeto, análise cinemática e síntese dimensional de uma nova estrutura de robô paralelo Delta Linear com pares cinemáticos constituídos por 12 elos (3 hastes paralelas simples), 11 juntas rotacionais e 3 juntas prismáticas, diferindo da solução clássica constituída por 9 elos (3 hastes paralelas compostas), 12 juntas esféricas e 3 juntas prismáticas. A cinemática direta e inversa é apresentada, bem como um método de otimização baseada em algoritmos genéticos para determinar os valores mínimos para os parâmetros cinemáticos do robô em função de uma espaço de trabalho cilíndrico prescrito com 250 mm de diâmetro e uma altura de 300 mm. O robô Delta Linear baseado na nova estrutura foi construído e testado. Uma análise de capacidade e desvios geométricos foi realizada para três peças de teste com um resultado de desvio/erro de 0,208 mm dentro de um intervalo de confiança de 99,7 %. / This dissertation aims at the development of a delta robot with a new kinematic chain for application in Additive Manufacturing (AM) and the proposition of an information model for additive manufacturing STEP-NC. Additive Manufacturing is upheld as one mega-trend from new industrial landscape - Industry 4.0. Massive benefits are promised by AM for development of the new products including reduced time-to-launch, manufacturing design freedom and supply chain improvements. Nevertheless, serious problems persist on AM digital chain with the use of format old styles for data exchange. The STL (1987) format has been used as the “de facto”standard for data exchange between 3D-design softwares and AM systems. Similarly, numerical controllers of AM systems still use the G-code (ISO 6983/1980) standard. But they have drawbacks that make them incompatible with the idea of a high-level digital chain for AM. ISO 14649, known as STEP-NC, is now trusted as a solution for AM data exchange. This work explores the STEPNC standard to support the AM high-level digital chain and highlights the advantages of such a digital chain. An application activity model using the nomenclature IDEF0 and an application reference model in EXPRESS are presented. The concept of AM-layer-feature is introduced for referencing AM features within of the EXPRESS model. The architecture of a indirect STEP-NC AM platform for implementation of the new model also is presented. After this work presents the design, synthesis, and kinematic analysis of a new structure of the Linear Delta parallel robot with kinematic pairs consisting of 12 links (3 single parallel legs), 3 prismatic joints and 11 revolute joints, differing from the classical solution constituted by 9 links (3 pairs of parallel legs), 12 ball joints and 3 prismatic joints. Direct and inverse kinematics are presented, as well as a genetic algorithm-based optimization method to determine the kinematic pairs and the workspace pairs that the mechanism will have for its application in additive manufacturing using the Fused Deposition Modeling process. After the validation of the design of the new Linear Delta robot topology, which presents a cylindrical workspace with a 250 mm diameter and a 300 mm height, the Linear Delta robot was manufactured and tested. Capability and geometric deviations analysis of the machine were carried out for three test parts resulting in a 0.3 mm deviation/error within a confidence interval of 99.7%.
|
12 |
Uma abordagem orientada a objetos de uma ferramenta de auxilio a programação paralela / Not availableCalônego Júnior, Nivaldi 31 October 1997 (has links)
Este trabalho contribui na busca de soluções para o problema de auxílio à programação paralela, apresentando uma abordagem orientada a objetos, como base para a construção de uma ferramenta que dá apoio ao desenvolvimento de programas paralelos. Diversas ferramentas com propostas análogas sac revisadas e suas características principais são destacadas, visando a busca de um modelo adequado para a ferramenta a ser proposta. A ferramenta desenvolvida, implementada e validada neste trabalho (FAPP - Ferramenta de Auxílio à Programação Paralela) baseia-se na tecnologia de orientação a objetos. A teoria dos grafos, modelada segundo a orientação a objetos, serve de base para a criação de modelos tanto para arquiteturas paralelas (hardware) como para programas paralelos (software). Os modelos criados para o hardware e software, permitem ao programador criar o ambiente para a programação, definindo a sua arquitetura paralela, os processos componentes de seu programa e o mapeamento lógico desses processos nos processadores. A ferramenta FAPP gera automaticamente o esqueleto para a aplicação paralela. Todo o desenvolvimento efetuado e validado através de uma implementação básica da ferramenta e são apresentadas às diretrizes para futuras extensões, visando outros ambientes de hardware e software, bem como melhoramentos objetivando futuros trabalhos / This work contributes to the solution of the parallel programming supporting problem, by proposing an object-oriented approach as the basis for building a tool to help the development of parallel programs. Several tools with similar goals are revised and their main features are highlighted aiming the search of an adequate model for the supporting tool to be developed. The tool developed, implemented and validated in this work (FAPP - Parallel Programming Supporting Tool) is based on the object orientation technology. The graph theory was modeled according to the object-orientation and used as the basis for the creation of models for both parallel architectures (hardware) and parallel programs (software). This allows the programmer to create the programming environment by defining his parallel architecture, the program processes and the logical mapping of the processes on the processors. The FAPP tool automatically generates the skeleton for the parallel application. The work is validated by means of a basic implementation of the tool. The guidelines for future extensions aiming other hardware and software environments as well as for future works are presented
|
13 |
Simulação paralela de eventos discretos com uso de memória compartilhada distribuídaRebonatto, Marcelo Trindade January 2000 (has links)
A simulação paralela de eventos é uma área da computação que congrega grande volume de pesquisas, pela importância em facilitar o estudo de novas soluções nas mais diferentes áreas da ciência e tecnologia, sem a necessidade da construção de onerosos protótipos. Diversos protocolos de simulação paralela podem ser encontrados, divididos em dois grandes grupos de acordo com o algoritmo empregado para a execução em ordem dos eventos: os conservadores e os otimistas; contudo, ambos os grupos utilizam trocas de mensagens para a sincronização e comunicação. Neste trabalho, foi desenvolvido um novo protocolo de simulação paralela, fazendo uso de memória compartilhada, o qual foi implementado e testado sobre um ambiente de estações de trabalho, realizando, assim, simulação paralela com uso de memória compartilhada distribuída. O protocolo foi desenvolvido tendo como base de funcionamento os protocolos conservadores; utilizou diversas características dos mesmos, mas introduziu várias mudanças em seu funcionamento. Sua execução assemelha-se às dos protocolos de execução síncrona, utilizando conceitos como o lookahead e janelas de tempo para execução de eventos. A principal mudança que o novo protocolo sofreu foi proporcionada pelo acesso remoto à memória de um LP por outro, produzindo diversas outras nas funções relativas à sincronização dos processos, como o avanço local da simulação e o agendamento de novos eventos oriundos de outro LP. Um ganho adicional obtido foi a fácil resolução do deadlock, um dos grandes problemas dos protocolos conservadores de simulação paralela. A construção de uma interface de comunicação eficiente com uso de memória compartilhada é o principal enfoque do protocolo, sendo, ao final da execução de uma simulação, disponibilizado o tempo de simulação e o tempo de processamento ocioso (quantia utilizada em comunicação e sincronização). Além de uma implementação facilitada, propiciada pelo uso de memória compartilhada ao invés de trocas de mensagens, o protocolo oferece a possibilidade de melhor ocupar o tempo ocioso dos processadores, originado por esperas cada vez que um LP chega a uma barreira de sincronização. Em nenhum momento as modificações efetuadas infringiram o princípio operacional dos protocolos conservadores, que é não possibilitar a ocorrência de erros de causalidade local. O novo protocolo de simulação foi implementado e testado sobre um ambiente multicomputador de memória distribuída, e seus resultados foram comparados com dois outros simuladores, os quais adotaram as mesmas estratégias, com idênticas ferramentas e testados em um mesmo ambiente de execução. Um simulador implementado não utilizou paralelismo, tendo seus resultados sido utilizados como base para medir o speedup e a eficiência do novo protocolo. O outro simulador implementado utilizou um protocolo conservador tradicional, descrito na literatura, realizando as funções de comunicação e sincronização através de trocas de mensagens; serviu para uma comparação direta do desempenho do novo protocolo proposto, cujos resultados foram comparados e analisados.
|
14 |
Projeto do sistema de comunicação de um multicomputadorZeferino, Cesar Albenes January 1996 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnologico / Made available in DSpace on 2012-10-16T23:17:25Z (GMT). No. of bitstreams: 0Bitstream added on 2016-01-08T21:04:30Z : No. of bitstreams: 1
104651.pdf: 3063349 bytes, checksum: dedb1f92b7a8f37836535d44bfe55de6 (MD5) / A busca por sistemas de computação capazes de atingir elevadas performances de processamento tem levado os pesquisadores e cientistas a propor e desenvolver diferentes modelos de arquiteturas de computadores de alto desempenho. O Projeto Nó// (lê-se nó paralelo), do qual participam grupos de pesquisa das Universidades Federais de Santa Catarina e do Rio Grande do Sul, também insere-se nesse contexto. Esse projeto visa o desenvolvimento de um ambiente completo para programação paralela, incluindo a construção de um multicomputador com rede de interconexão dinâmica. O presente trabalho vem colaborar com a concepção desse multicomputador, através do projeto do sistema de comunicação necessário à interação entre os processadores da máquina.
|
15 |
Simulação paralela de eventos discretos com uso de memória compartilhada distribuídaRebonatto, Marcelo Trindade January 2000 (has links)
A simulação paralela de eventos é uma área da computação que congrega grande volume de pesquisas, pela importância em facilitar o estudo de novas soluções nas mais diferentes áreas da ciência e tecnologia, sem a necessidade da construção de onerosos protótipos. Diversos protocolos de simulação paralela podem ser encontrados, divididos em dois grandes grupos de acordo com o algoritmo empregado para a execução em ordem dos eventos: os conservadores e os otimistas; contudo, ambos os grupos utilizam trocas de mensagens para a sincronização e comunicação. Neste trabalho, foi desenvolvido um novo protocolo de simulação paralela, fazendo uso de memória compartilhada, o qual foi implementado e testado sobre um ambiente de estações de trabalho, realizando, assim, simulação paralela com uso de memória compartilhada distribuída. O protocolo foi desenvolvido tendo como base de funcionamento os protocolos conservadores; utilizou diversas características dos mesmos, mas introduziu várias mudanças em seu funcionamento. Sua execução assemelha-se às dos protocolos de execução síncrona, utilizando conceitos como o lookahead e janelas de tempo para execução de eventos. A principal mudança que o novo protocolo sofreu foi proporcionada pelo acesso remoto à memória de um LP por outro, produzindo diversas outras nas funções relativas à sincronização dos processos, como o avanço local da simulação e o agendamento de novos eventos oriundos de outro LP. Um ganho adicional obtido foi a fácil resolução do deadlock, um dos grandes problemas dos protocolos conservadores de simulação paralela. A construção de uma interface de comunicação eficiente com uso de memória compartilhada é o principal enfoque do protocolo, sendo, ao final da execução de uma simulação, disponibilizado o tempo de simulação e o tempo de processamento ocioso (quantia utilizada em comunicação e sincronização). Além de uma implementação facilitada, propiciada pelo uso de memória compartilhada ao invés de trocas de mensagens, o protocolo oferece a possibilidade de melhor ocupar o tempo ocioso dos processadores, originado por esperas cada vez que um LP chega a uma barreira de sincronização. Em nenhum momento as modificações efetuadas infringiram o princípio operacional dos protocolos conservadores, que é não possibilitar a ocorrência de erros de causalidade local. O novo protocolo de simulação foi implementado e testado sobre um ambiente multicomputador de memória distribuída, e seus resultados foram comparados com dois outros simuladores, os quais adotaram as mesmas estratégias, com idênticas ferramentas e testados em um mesmo ambiente de execução. Um simulador implementado não utilizou paralelismo, tendo seus resultados sido utilizados como base para medir o speedup e a eficiência do novo protocolo. O outro simulador implementado utilizou um protocolo conservador tradicional, descrito na literatura, realizando as funções de comunicação e sincronização através de trocas de mensagens; serviu para uma comparação direta do desempenho do novo protocolo proposto, cujos resultados foram comparados e analisados.
|
16 |
Fusion: abstrações linguísticas sobre Java para programação paralela heterogênea sobre GPGPUs / Fusion: linguistic abstractions on Java for parallel programming on heterogeneous GPGPUsPinheiro, Anderson Boettge January 2013 (has links)
PINHEIRO, Anderson Boettge. Fusion: abstrações linguísticas sobre Java para programação paralela heterogênea sobre GPGPUs. 2013. 149 f. Dissertação (Mestrado em ciência da computação)- Universidade Federal do Ceará, Fortaleza-CE, 2013. / Submitted by Elineudson Ribeiro (elineudsonr@gmail.com) on 2016-07-08T18:17:57Z
No. of bitstreams: 1
2013_dis_abpinheiro.pdf: 7607654 bytes, checksum: 4e82914ffcf64a0f48a4a21d3945ec4a (MD5) / Approved for entry into archive by Rocilda Sales (rocilda@ufc.br) on 2016-07-13T12:36:32Z (GMT) No. of bitstreams: 1
2013_dis_abpinheiro.pdf: 7607654 bytes, checksum: 4e82914ffcf64a0f48a4a21d3945ec4a (MD5) / Made available in DSpace on 2016-07-13T12:36:32Z (GMT). No. of bitstreams: 1
2013_dis_abpinheiro.pdf: 7607654 bytes, checksum: 4e82914ffcf64a0f48a4a21d3945ec4a (MD5)
Previous issue date: 2013 / Acceleration units free, or GPU (Graphical Processing Units), have been consolidated in recent years for general purpose computing for accelerating critical sections of programs that exhibit high standards of performance and the execution time. GPUs are one of several types of general-purpose computational accelerators that have been built on various platforms for high performance computing, especially also for the MIC (Many Integrated Cores) and FPGA (Field Programmable Gateway Arrays). Despite the emphasis on the research of new parallel algorithms capable of exploiting the massive parallelism offered by GPGPU devices are still incipient initiatives on new programming abstractions that make the simplest description of these algorithms on GPGPUs, without detriment to the effciency. It is still necessary that the programmer has specific knowledge of the peculiarities of the architecture of these devices, as well as programming techniques that are not domain even experienced parallel programmers today. In recent years, NVIDIA, an industry that has dominated the evolution of architectural GPGPU devices, launched the Kepler architecture, including extensions to support Hyper-Q and Dynamic Parallelism (DP), which offer new opportunities for expression patterns of parallel programming on such devices. This paper aims at proposing new programming abstractions over a parallel object-oriented language based on Java, am expressing parallel computations heterogeneous type multicore / manycore, where the GPU device is shared by a set of parallel threads running in host processor, on a higher level of abstraction compared to existing alternatives, but still offering the programmer full control over the use of device capabilities. The design of this proposed language abstractions, hereinafter called Fusion, part of the expressiveness offered by Kepler architecture. / Unidades de aceleração gráca, ou GPU (Graphical Processing Units ), tem se consolidado nos últimos anos para computação de propósito geral, para aceleração de trechos críticos de programas que apresentam requisitos severos de desempenho quanto ao tempo de execução. GPUs constituem um dentre vários tipos de aceleradores computacionais de propósito geral que tem sido incorporados em várias plataformas de computação de alto desempenho, com destaque também para as MIC (Many Integrated Cores ) e FPGA (Field Programmable Gateway Arrays ). A despeito da ênfase nas pesquisas de novos algoritmos paralelos capazes de explorar o paralelismo massivo oferecido por dispositivos GPGPU, ainda são incipientes as iniciativas sobre novas abstrações de programação que tornem mais simples a descrição desses algoritmos sobre GPGPUs, sem detrimento à efciência. Ainda é necessário que o programador possua conhecimento específico sobre as peculiaridades da arquitetura desses dispositivos, assim como técnicas de programação que não são do domínio mesmo de programadores paralelos experientes na atualidade. Nos últimos anos, a NVIDIA, indústria que tem dominado a evolução arquitetural dos dispositivos GPGPU, lançou a arquitetura Kepler, incluindo o suporte às extensões Hyper-Q e Dynamic Parallelism (DP), as quais oferecem novas oportunidades de expressão de padrões de programação paralela sobre esses dispositivos. Esta dissertação tem por objetivo a proposta de novas abstrações de programação paralela sobre uma linguagem orientada a objetos baseada em Java, a m de expressar computações paralelas heterogêneas do tipo multicore/manycore, onde o dispositivo GPU é compartilhado por um conjunto de threads paralelas que executam no processador hospedeiro, em um nível de abstração mais elevado comparado às alternativas existentes, porém ainda oferecendo ao programador total controle sobre o uso dos recursos do dispositivo. O projeto das abstrações dessa linguagem proposta, doravante chamada Fusion, parte da expressividade oferecida pela arquitetura Kepler.
|
17 |
Modelagem da economia paralela na América LatinaVeiga, Fernando Cavalcante January 2017 (has links)
VEIGA, Fernando Cavalcante. Modelagem da Economia Paralela na América Latina / Fernando Cavalcante Veiga. - 2017. 53 f. Dissertação (mestrado profissional). - Universidade Federal do Ceará, Programa de Pós Graduação em Economia, CAEN, Fortaleza, 2017. / Submitted by Mônica Correia Aquino (monicacorreiaaquino@gmail.com) on 2017-09-19T21:29:42Z
No. of bitstreams: 1
2017_dis_fcveiga.pdf: 1495809 bytes, checksum: 95d236b7f9aaf13d0845e4b19446bb31 (MD5) / Approved for entry into archive by Mônica Correia Aquino (monicacorreiaaquino@gmail.com) on 2017-09-20T17:51:31Z (GMT) No. of bitstreams: 1
2017_dis_fcveiga.pdf: 1495809 bytes, checksum: 95d236b7f9aaf13d0845e4b19446bb31 (MD5) / Made available in DSpace on 2017-09-20T17:51:32Z (GMT). No. of bitstreams: 1
2017_dis_fcveiga.pdf: 1495809 bytes, checksum: 95d236b7f9aaf13d0845e4b19446bb31 (MD5)
Previous issue date: 2017 / This dissertation estimates the size and evolution of the shadow economy in 18 Latin American countries, from 1990 to 2013, using the Multiple Indicators and Multiple Causes (MIMIC) model. It is noted that increases in regulatory intensity, opening of the economy, money supply and GDP per capita lead to grow the shadow economy, while investment growth tends to decrease it. The results obtained point to an average shadow economy of 35.6% of the official GDP in Latin America, with a tendency of growth during the studied period, a behavior that is also verified when fuzzy logic based estimation is used. With percentages below 28%, countries such as Chile, Argentina and Costa Rica contribute in a way to reduce the average of the region. Panama, Bolivia and Honduras, countries with the highest levels of informality, raise the average. The only Latin American country to register a decline in the shadow economy over the analyzed period is Venezuela. / Esta dissertação estima o tamanho e a evolução da economia paralela em 18 países latino-americanos, no período de 1990 a 2013, usando o modelo de múltiplos indicadores e múltiplas causas (MIMIC). Observa-se que aumentos da intensidade regulatória, da abertura da economia, da oferta monetária e do PIB per capita levam a incrementos na economia paralela, enquanto o crescimento dos investimentos tende a diminuí-la. Os resultados obtidos apontam para uma economia paralela média de 35,6% do PIB oficial da América Latina, com tendência de crescimento durante o período estudado, comportamento esse também verificado quando se utiliza estimação baseada na lógica fuzzy (difusa). Com percentuais abaixo de 28%, países como Chile, Argentina e Costa Rica contribuem de forma a diminuir a média da região. Já Panamá, Bolívia e Honduras, países com os maiores níveis de informalidade, elevam aquela média. O único país latino-americano a registrar diminuição da economia paralela, ao longo do período analisado, é a Venezuela.
|
18 |
A parallel computing approach applied to petroleum reservoir simulationGrein, Ederson Augusto January 2015 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia Mecânica, Florianópolis, 2015. / Made available in DSpace on 2016-04-19T04:03:44Z (GMT). No. of bitstreams: 1
337626.pdf: 16916870 bytes, checksum: a0cb8bc1bf93f21cc1a78cd631272e49 (MD5)
Previous issue date: 2015 / A simulação numérica é uma ferramenta de extrema importância à indústria do petróleo e gás. Entretanto, para que os resultados advindos da simulação sejam fidedignos, é fundamental o emprego de modelos físicos fiéis e de uma boa caracterização geométrica do reservatório. Isso tende a introduzir elevada carga computacional e, consequentemente, a obtenção da solução do modelo numérico correspondente pode demandar um excessivo tempo de simulação. É evidente que a redução desse tempo interessa profundamente à engenharia de reservatórios. Dentre as técnicas de melhoria de performance, uma das mais promissoras é a aplicação da computação paralela. Nessa técnica, a carga computacional é dividida entre diversos processadores. Idealmente, a carga computacional é dividida de maneira igualitária e, assim, se N é o número de processadores, o tempo computacional é N vezes menor. No presente estudo, a computação paralela foi aplicada a dois simuladores numéricos: UTCHEM e EFVLib. UTCHEM é um simulador químico-composicional desenvolvido pela The University of Texas at Austin. A EFVLib, por sua vez, é uma biblioteca desenvolvida pelo laboratório SINMEC  laboratório ligado ao Departamento de Engenharia Mecânica da Universidade Federal de Santa Catarina  cujo intuito é prover suporte à aplicação do Método dos Volumes Finitos Baseado em Elementos. Em ambos os casos a metodologia de paralalelização é baseada na decomposição de domínio.<br> / Abstract : Numerical simulation is an extremely relevant tool to the oil and gas industry. It makes feasible the procedure of predicting the production scenery in a given reservoir and design more advantageous exploit strategies fromits results. However, in order to obtain reliability fromthe numerical results, it is essential to employ reliable numerical models and an accurate geometrical characterization of the reservoir. This leads to a high computational load and consequently the achievement of the solution of the corresponding numerical method may require an exceedingly large simulation time. Seemingly, reducing this time is an accomplishment of great interest to the reservoir engineering. Among the techniques of boosting performance, parallel computing is one of the most promising ones. In this technique, the computational load is split throughout the set of processors. In the most ideal situation, this computational load is split
in an egalitarian way, in such a way that if N is the number of processors then the computational time is N times smaller. In this study, parallel computing was applied to two distinct numerical simulators: UTCHEM and EFVLib. UTCHEM is a compositional reservoir simulator developed at TheUniversity of Texas atAustin. EFVLib, by its turn, is a computational library developed at SINMEC  a laboratory at theMechanical Enginering Department of The Federal University of Santa Catarina  with the aim of supporting the Element-based Finite Volume Method employment. The parallelization process were based on the domain decomposition on the both cases formerly described.
|
19 |
Simulação paralela de eventos discretos com uso de memória compartilhada distribuídaRebonatto, Marcelo Trindade January 2000 (has links)
A simulação paralela de eventos é uma área da computação que congrega grande volume de pesquisas, pela importância em facilitar o estudo de novas soluções nas mais diferentes áreas da ciência e tecnologia, sem a necessidade da construção de onerosos protótipos. Diversos protocolos de simulação paralela podem ser encontrados, divididos em dois grandes grupos de acordo com o algoritmo empregado para a execução em ordem dos eventos: os conservadores e os otimistas; contudo, ambos os grupos utilizam trocas de mensagens para a sincronização e comunicação. Neste trabalho, foi desenvolvido um novo protocolo de simulação paralela, fazendo uso de memória compartilhada, o qual foi implementado e testado sobre um ambiente de estações de trabalho, realizando, assim, simulação paralela com uso de memória compartilhada distribuída. O protocolo foi desenvolvido tendo como base de funcionamento os protocolos conservadores; utilizou diversas características dos mesmos, mas introduziu várias mudanças em seu funcionamento. Sua execução assemelha-se às dos protocolos de execução síncrona, utilizando conceitos como o lookahead e janelas de tempo para execução de eventos. A principal mudança que o novo protocolo sofreu foi proporcionada pelo acesso remoto à memória de um LP por outro, produzindo diversas outras nas funções relativas à sincronização dos processos, como o avanço local da simulação e o agendamento de novos eventos oriundos de outro LP. Um ganho adicional obtido foi a fácil resolução do deadlock, um dos grandes problemas dos protocolos conservadores de simulação paralela. A construção de uma interface de comunicação eficiente com uso de memória compartilhada é o principal enfoque do protocolo, sendo, ao final da execução de uma simulação, disponibilizado o tempo de simulação e o tempo de processamento ocioso (quantia utilizada em comunicação e sincronização). Além de uma implementação facilitada, propiciada pelo uso de memória compartilhada ao invés de trocas de mensagens, o protocolo oferece a possibilidade de melhor ocupar o tempo ocioso dos processadores, originado por esperas cada vez que um LP chega a uma barreira de sincronização. Em nenhum momento as modificações efetuadas infringiram o princípio operacional dos protocolos conservadores, que é não possibilitar a ocorrência de erros de causalidade local. O novo protocolo de simulação foi implementado e testado sobre um ambiente multicomputador de memória distribuída, e seus resultados foram comparados com dois outros simuladores, os quais adotaram as mesmas estratégias, com idênticas ferramentas e testados em um mesmo ambiente de execução. Um simulador implementado não utilizou paralelismo, tendo seus resultados sido utilizados como base para medir o speedup e a eficiência do novo protocolo. O outro simulador implementado utilizou um protocolo conservador tradicional, descrito na literatura, realizando as funções de comunicação e sincronização através de trocas de mensagens; serviu para uma comparação direta do desempenho do novo protocolo proposto, cujos resultados foram comparados e analisados.
|
20 |
Algoritmos paralelos e eficientes para consultas IP no Intel(R) Xeon Phi(tm) e CPUs Multi-CoreAlencar, Alexandre Lucchesi 29 June 2017 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2017. / Submitted by Priscilla Sousa (priscillasousa@bce.unb.br) on 2017-10-09T13:02:47Z
No. of bitstreams: 1
2017_AlexandreLucchesiAlencar.pdf: 1212791 bytes, checksum: d649afa5d4e58b36d30548964058710d (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2017-10-09T16:17:08Z (GMT) No. of bitstreams: 1
2017_AlexandreLucchesiAlencar.pdf: 1212791 bytes, checksum: d649afa5d4e58b36d30548964058710d (MD5) / Made available in DSpace on 2017-10-09T16:17:08Z (GMT). No. of bitstreams: 1
2017_AlexandreLucchesiAlencar.pdf: 1212791 bytes, checksum: d649afa5d4e58b36d30548964058710d (MD5)
Previous issue date: 2017-10-09 / Roteadores em software são uma solução promissora para lidar com o encaminhamento de pacotes devido ao seu bom custo-benefício e flexibilidade. Contudo, é desafiador o desenvolvimento de roteadores em software capazes de atingir as taxas de encaminhamento de pacotes necessárias. O uso de sistemas e técnicas de computação paralela pode ser uma abordagem viável para melhorar o desempenho dessas soluções. A fase de consulta IP constitui uma operação central no encaminhamento de pacotes, que é implementada através de um algoritmo de Casamento de Maior Prefixo (CMP). Assim, este trabalho propõe e avalia o uso de técnicas e processadores paralelos no desenvolvimento de um algoritmo otimizado que emprega filtros de Bloom (BFs) e tabelas hash para a execução de consultas IP. Especificamente, tem-se como alvo a implementação desse algoritmo no coprocessador many-core Intel® Xeon Phi™ (Intel Phi), mas também avalia-se o seu desempenho em CPUs multi-core e em um modelo de execução cooperativa que usa ambos os processadores com várias otimizações. Os resultados experimentais mostram que foi possível atingir altas taxas de consultas IP — até 182,7 Mlps (milhões de pacotes por segundo) ou 119,9 Gbps para pacotes IPv6 de 84B — em um único Intel Phi. Este desempenho indica que o Intel Phi é uma plataforma promissora para a implantação de algoritmos de consultas IP. Além disso, comparou-se o desempenho do algoritmo BFs com uma abordagem eficiente baseada na Multi-Index Hybrid Trie (MIHT), na qual o algoritmo BFs foi até 5,39x mais rápido. Esta comparação mostra que o algoritmo sequencial mais eficiente pode não ser a melhor opção em uma configuração paralela. Alternativamente, é necessário avaliar as características dos processadores, as demandas de computação/dados dos algoritmos e as estruturas de dados empregadas para analisar como os algoritmos podem se beneficiar de um dispositivo de computação paralelo, potenciais limitações na escalabilidade e oportunidades de otimização. Estas descobertas também são importantes para novos esforços no desenvolvimento de algoritmos nessa área, os quais têm sido, em sua maioria, focados em soluções sequenciais. / Software routers are a promising solution to deal with packet forwarding because of their good cost benefit and flexibility. However, it is challenging to develop software routers that can attain the required packet forwarding rates. The use of parallel computing systems and techniques may be a viable approach to improve the performance of these solutions. The IP lookup phase is a core operation in packet forwarding, which is implemented via a Longest Prefix Matching (LPM) algorithm to find the next hop address for every input packet. Therefore, this work proposes and evaluates the use of parallel processors and techniques in the development of an optimized algorithm that employs Bloom filters (BFs) and hash tables to the IP lookup problem. Specifically, we target the implementation on the Intel® Xeon Phi™ (Intel Phi) many-core coprocessor, but we also evaluate its performance on multi-core CPUs and on a cooperative execution model that uses both processors with several optimizations. The experimental results show that we were able to attain high IP lookup throughputs — up to 182.7 Mlps (million packets per second) or 119.9 Gbps for 84B IPv6 packets — on a single Intel Phi. This performance indicates that the Intel Phi is a very promising platform for deployment of IP lookup algorithms. We have also compared the BFs algorithm to an efficient approach based on the Multi-Index Hybrid Trie (MIHT) in which the BFs algorithm was up to 5.39x faster. This comparison shows that the most efficient sequential algorithm may not be the best option in a parallel setting. Instead, it is necessary to evaluate the processors characteristics, algorithms compute/data demands, and data structures employed to analyze how the algorithms will benefit from parallel computing devices, potential limitations on scalability and opportunities for optimizations. These findings are also important to new efforts in algorithmic developments in the topic, which have been highly focused on sequential solutions.
|
Page generated in 0.0747 seconds