Spelling suggestions: "subject:"arquitetura dde computador"" "subject:"arquitetura dee computador""
121 |
Explorando programa??o h?brida no contexto de clusters de m?quinas NUMARibeiro, Neumar Silva 29 March 2011 (has links)
Made available in DSpace on 2015-04-14T14:49:30Z (GMT). No. of bitstreams: 1
431674.pdf: 1334645 bytes, checksum: 55861ee97a2e33bdceeff48db81e493d (MD5)
Previous issue date: 2011-03-29 / Normalmente, utiliza-se o paradigma de troca de mensagens quando se est? programando uma arquitetura do tipo cluster. Por?m, quando se deseja programar uma m?quina multiprocessada, ? requirido o paradigma de mem?ria compartilhada. Recentemente, o surgimento de novas tecnologias possibilitou a cria??o de clusters com n?s multiprocessados. Nestas arquiteturas os n?s s?o compostos por mais de um processador ou core, e compartilham a mesma mem?ria. Este cen?rio, cria a possibilidade de usar novos modelos de programa??o h?brida. No amplo espectro de solu??es poss?veis para o desenvolvimento de c?digo h?brido para clusters de m?quinas multiprocessadas, a utiliza??o da dupla MPI e OpenMP est? emergindo como um padr?o de fato. A maioria dos c?digos h?bridos MPI e OpenMP s?o baseados em um modelo de estrutura hier?rquica, que torna poss?vel a explora??o de gr?os grandes e m?dios de paralelismo no n?vel de MPI, e gr?o fino no paralelismo no n?vel do OpenMP. O objetivo ? claramente tirar vantagens das melhores caracter?sticas de ambos os paradigmas de programa??o. Os n?s desses clusters podem ainda ser m?quinas NUMA (Non- Uniform Memory Access). Estas m?quinas com acesso n?o uniforme ? mem?ria possibilitam que o desenvolvedor explore afinidade de mem?ria, melhorando o desempenho da aplica??o. O objetivo principal deste trabalho ? investigar o uso de programa??o h?brida com MPI e OpenMP em clusters de m?quinas NUMA, explorando afinidade de mem?ria, visando identificar um conjunto de boas pr?ticas de programa??o h?brida a serem utilizadas neste contexto
|
122 |
K2 - uma arquitetura para a adapta??o de agentes de software ao contextoLemke, Ana Paula 28 March 2011 (has links)
Made available in DSpace on 2015-04-14T14:49:33Z (GMT). No. of bitstreams: 1
432344.pdf: 7745788 bytes, checksum: 549c47b2ba7b1705f384c25f11f7866d (MD5)
Previous issue date: 2011-03-28 / A tecnologia de agentes ? cada vez mais citada como uma abordagem atrativa para o desenvolvimento de aplica??es em ambientes pervasivos [Gun08b]. No entanto, a maioria das plataformas dispon?veis ap?ia apenas a cria??o de agentes capazes de lidar com um conjunto limitado de situa??es (os agentes precisam ser reprogramados quando se deparam com situa??es n?o previstas). A dificuldade de produzir software para ambientes complexos como o pervasivo vem justamente do fato de o projetista n?o poder prever todas as circunst?ncias em que a aplica??o poder? ser usada, e tomar todas as decis?es em tempo de projeto. Assim, ? necess?rio desenvolver agentes que consigam aprender e se adaptar de forma a satisfazer as condi??es de um novo ambiente, ou de um novo contexto. Considerando essa necessidade, o objetivo desta pesquisa ? propor uma arquitetura para a cria??o de agentes adaptativos ao contexto - a arquitetura K2. De fato, a id?ia ? disponibilizar uma arquitetura que permita a modifica??o de partes de elementos estruturais de um agente de software, adaptando o seu comportamento e estrutura de acordo com as mudan?as percebidas no contexto em que o agente est? inserido. Uma das caracter?sticas da arquitetura proposta ? a separa??o do comportamento adaptativo do comportamento padr?o do agente. Para tanto, s?o criados elementos chamados de adaptadores, cuja implanta??o ? feita com programa??o orientada a aspectos. Para demonstrar a aplicabilidade da arquitetura desenvolvida, tr?s exemplos de uso s?o apresentados
|
123 |
Integra??o de novos processadores em arquiteturas MPSOC : um estudo de casoW?chter, Eduardo Weber 23 March 2011 (has links)
Made available in DSpace on 2015-04-14T14:49:33Z (GMT). No. of bitstreams: 1
432517.pdf: 2009471 bytes, checksum: 7af39d41c4e0090b4409a5780eae532f (MD5)
Previous issue date: 2011-03-23 / Com o aumento da densidade de transistores em um mesmo circuito integrado, possibilitou-se o desenvolvimento de sistemas computacionais completos em um ?nico chip (Systems-on-Chip). Atualmente, o poder computacional exigido pelas aplica??es freq?entemente demanda uma arquitetura SoC com mais de um processador. Surgiram ent?o as arquiteturas multiprocessadas, denominadas MPSoCs (Multiprocessor Systems-on-Chip). As arquiteturas MPSoCs encontradas na literatura n?o apresentam grande variedade de tipos de n?cleo de processamento. Apesar deste fato, a literatura no tema de MPSoCs argumenta com freq??ncia que MPSoCs heterog?neos (mais de um tipo de n?cleo de processamento) apresentam um melhor desempenho. Um dos problemas para desenvolver arquiteturas heterog?neas ? a dificuldade de se integrar processadores em plataformas MPSoC. Este trabalho tem por objetivo suprir a lacuna de integra??o de processadores pr?-validados, adaptando uma plataforma de hardware e software para um novo processador. Como ponto de partida para o trabalho utiliza-se uma plataforma MPSoC estado-da-arte homog?nea. Esta plataforma ? modificada, tornando-se poss?vel a sua prototipa??o, resultando na primeira contribui??o desta Disserta??o. A segunda contribui??o reside no desenvolvimento de um novo elemento de processamento para o mesmo MPSoC, utilizando como estudo de caso o processador MB-Lite que adota a arquitetura Microblaze. Al?m do desenvolvimento deste m?dulo, o sistema operacional respons?vel pela execu??o multitarefa ? portado para este processador, identificando-se os mecanismos dependentes de arquitetura no mesmo. Por fim, s?o apresentados resultados da integra??o deste processador, e a avalia??o do MPSoC heterog?neo com aplica??es sint?ticas executando tarefas em processadores distintos (Plasma e MB-Lite), validando-se assim a proposta de integra??o de novos processadores em arquiteturas MPSoC.
|
124 |
Mapeamento din?mico de aplica??es para MPSOCS homog?neosMandelli, Marcelo Grandi 23 March 2011 (has links)
Made available in DSpace on 2015-04-14T14:49:40Z (GMT). No. of bitstreams: 1
435006.pdf: 1798120 bytes, checksum: e9da2fa29967e8e1d389bc264f9b5bef (MD5)
Previous issue date: 2011-03-23 / The advance in manufacturing technology of integrated circuits enables smaller transistors, making possible the development of SoCs (System-on-Chip). Many applications require multi-processor SoCs in order to meet their performance requirements. A SoC containing several processing elements (PEs) is called MPSoC. An MPSoC can be classified as homogeneous, when all their PEs has the same architecture; or heterogeneous, when they have different architectures. . As communication infrastructure, the MPSoC can use NoCs as a way to interconnect the PEs. NoCs may be used to replace busses, due to their advantages of higher scalability and communication parallelism. One of the main problems related to MPSoC projects is to define a PE of the system that will run each task. This problem is called task mapping. The mapping can be classified into static, which occurs at design time, and dynamic that occurs at runtime. The dynamic mapping approach requires firstly the mapping of the initial tasks of an application (which does not depend on any other task). The other tasks, in this approach, are mapped dynamically when requested. The mapping can be also classified by the number of tasks running in a PE. The mapping is classified as single task, when only one task is executed by a PE, and as multitask, when multiple tasks can be executed in a same PE. This work proposes new single task and multitask dynamic task mapping heuristics, in order to reduce communication energy. Results are evaluated using the MPSoC HeMPS, which executes application code generated from a model-based simulation environment. These heuristics are compared with mapping heuristic presented in literature, obtaining, in the evaluated scenarios, an average communication energy reduction of 9.8%, for the single task approach, and 18.6%, for the multitask approach. This work also evaluates the inclusion of dynamic load on the system, which makes necessary the implementation of an initial tasks mapping heuristic. This heuristic is an innovative contribution, since a similar approach is not found in any other work in literature. / O avan?o na tecnologia de fabrica??o de circuitos integrados permite obter transistores cada vez menores, tornando poss?vel o desenvolvimento de sistemas completos em um ?nico chip (System-on-Chip - SoC). Muitas aplica??es requerem SoCs com v?rios processadores para poder suprir seus requisitos de desempenho. Um SoC que cont?m diversos elementos de processamento (Processing Element - PEs) ? chamado de MPSoC. Um MPSoC pode ser classificado em homog?neo, quando todos seus PEs s?o iguais; ou heterog?neo, quando seus PEs s?o diferentes. Como infraestrutura de comunica??o, o MPSoC pode utilizar NoCs como forma de interconectar os PEs. O uso de NoCs deve-se a suas vantagens em rela??o a barramentos, entre as quais maior escalabilidade e paralelismo na comunica??o. Um dos principais problemas relativos ao projeto de MPSoCs ? a defini??o de qual dos PEs do sistema ser? respons?vel pela execu??o de cada tarefa de uma aplica??o. Este problema ? chamado de mapeamento de tarefas. O mapeamento pode ser classificado em est?tico, que ocorre em tempo de projeto, ou em din?mico que ocorre em tempo de execu??o. A abordagem de mapeamento din?mico requer primeiramente o mapeamento de tarefas iniciais de uma aplica??o (que n?o dependem de nenhuma outra tarefa) das aplica??es, sendo que as outras tarefas s?o mapeadas dinamicamente quando solicitadas. Tamb?m se pode classificar o mapeamento quanto ao n?mero de tarefas que executam em um PE do sistema. O mapeamento ? dito monotarefa, quando apenas uma tarefa ? executada por PE, e multitarefa, quando m?ltiplas tarefas podem ser executadas em um mesmo PE. Este trabalho prop?e novas heur?sticas de mapeamento din?mico monotarefa e multitarefa, visando ? redu??o de energia de comunica??o. Resultados s?o avaliados atrav?s do MPSoC HeMPS, que executa c?digos de aplica??es geradas a partir de um ambiente de simula??o baseado em modelos. Estas heur?sticas s?o comparadas com heur?sticas de mapeamento apresentadas na literatura, apresentando uma redu??o m?dia de energia de comunica??o nos cen?rios avaliados de at? 9,8% na abordagem monotarefa e 18,6% na multitarefa. Este trabalho tamb?m avalia a inser??o din?mica de carga no sistema, utilizando para isto a implementa??o de uma heur?stica de mapeamento din?mico de tarefas iniciais. Esta heur?stica ? uma contribui??o inovadora, visto que uma abordagem parecida n?o ? encontrada em nenhum outro trabalho da literatura.
|
125 |
Evaluation of system-level impacts of a persistent main memory architecturePerez, Taciano 15 March 2012 (has links)
Made available in DSpace on 2015-04-14T14:49:47Z (GMT). No. of bitstreams: 1
438861.pdf: 1222847 bytes, checksum: b54b23f85d4f13183371506695cec294 (MD5)
Previous issue date: 2012-03-15 / Por cerca de 30 anos, os sistemas de mem?ria computacional t?m sido essencialmente os mesmos: tecnologias de mem?ria vol?til de alta velocidade como SRAM e DRAM utilizadas para caches e mem?ria principal; discos magn?ticos para armazenamento persistente; e mem?ria flash, persistente e de baixa velocidade, para armazenamento com caracter?sticas de baixa capacidade e baixo consumo de energia, tais como dispositivos m?veis e embarcados. Hoje est?o emergindo novas tecnologias de mem?ria n?o-vol?til, que prometem mudar radicalmente o cen?rio de sistemas de mem?ria. Neste trabalho s?o avaliados impactos (em n?vel de sistema) de lat?ncia e energia supondo um computador com mem?ria principal persistente usando PCRAM e Memristor. Os resultados experimentais suportam a viabilidade de se empregar tecnologias emergentes de mem?ria n?o-vol?til como mem?ria principal persistente, indicando que as vantagens de consumo de energia com rela??o a DRAM devem ser significativas. Esse estudo tamb?m compara o desenvolvimento de aplica??es usando tanto uma abordagem tradicional usando sistema de arquivos quanto utilizando um framework espec?fico para persist?ncia em mem?ria. Conclui-se que, para colher os principais benef?cios potencialmente oferecidos por mem?ria principal persistente, ? necess?rio utilizar novas abordagens de programa??o que n?o estabelecem uma separa??o entre mem?ria vol?til e armazenamento secund?rio. / For almost 30 years, computer memory systems have been essentially the same: volatile, high speed memory technologies like SRAM and DRAM used for cache and main memory; magnetic disks for high-end data storage; and persistent, low speed flash memory for storage with low capacity/low energy consumption requirements such as embedded/mobile devices. Today we watch the emergence of new non-volatile memory (NVM) technologies that promise to radically change the landscape of memory systems. In this work we assess system-level latency and energy impacts of a computer with persistent main memory using PCRAM and Memristor. The experimental results support the feasibility of employing emerging non-volatile memory technologies as persistent main memory, indicating that energy improvements over DRAM should be significant. This study has also compared the development and execution of applications using both a traditional filesystem design and a framework specific of in-memory persistence (Mnemosyne). It concludes that in order to reap the major rewards potentially offered by persistent main memory, it is necessary to take new programming approaches that do not separate volatile memory from persistent secondary storage.
|
126 |
Reduction of energy consumption in MPSOCS through a dynamic frequency scaling techniqueRosa, Thiago Raupp da 27 March 2012 (has links)
Made available in DSpace on 2015-04-14T14:49:50Z (GMT). No. of bitstreams: 1
439390.pdf: 3101139 bytes, checksum: 42025c16dd319c48f3a185f5f4c5dbc5 (MD5)
Previous issue date: 2012-03-27 / NoC-based MPSoCs are employed in several embedded systems due to the high performance, achieved by using multiple processing elements (PEs). However, power and energy restrictions, especially in mobile applications, may render the design of MPSoCs over-constrained. Thus, the use of power management techniques is mandatory. Moreover, due to the high variability present in application workloads executed by these devices, this management must be performed dynamically. The use of traditional dynamic voltage and frequency scaling (DVFS) techniques proved to be useful in several scenarios to save energy. Nonetheless, due to technology scaling that limits the voltage variation and to the slow response of DVFS schemes, the use of such technique may become inadequate in newer DSM technology nodes. As alternative, the use of dynamic frequency scaling (DFS) may provide a good trade-off between power savings and power overhead. This work proposes a self-adaptable distributed DFS scheme for NoC-Based MPSoCs. Both NoC and PEs have an individual frequency control scheme. The DFS scheme for PEs takes into account the PE computation and communication loads to dynamically change the operating frequency. In the NoC, a DFS controller uses packet information and router activity to decide the router operating frequency. Also, the clock generation module is designed to provide a clock signal to PEs and NoC routers. The clock generation method is simple, based on local selective clock gating of a single global clock, provides a wide range of generated clocks, induces low area and power overheads and presents small response time. Synthetic and real applications were used to evaluate the proposed scheme. Results show that the number of executed instructions can be reduced by 65% (28% in average), with an execution time overhead up to only 14% (9% in average). The consequent power dissipation reduction in PEs reaches up to 52% (23% in average) and in the NoC up to 76% (71% in average). The power overhead induced by the proposed scheme is around 3% in PEs and around 10% in the NoC / MPSoCs baseados em NoC t?m sido empregados em sistemas embarcados devido ao seu alto desempenho, atingido atrav?s do uso de m?ltiplos elementos de processamento (PEs). Entretanto, a especifica??o da funcionalidade, agregada a especifica??o de requisitos de consumo de energia em aplica??es m?veis, pode comprometer o processo de projeto em termos de tempo e/ou custo. Dessa forma, a utiliza??o de t?cnicas para gerenciamento de consumo de energia ? essencial. Al?m disso, aplica??es que possuam carga de trabalho din?mica podem realizar esse gerenciamento dinamicamente. A utiliza??o de t?cnicas para escalonamento din?mico de tens?o e frequ?ncia (DVFS) mostrou-se adequada para a redu??o do consumo de energia em sistemas computacionais. No entanto, devido ? evolu??o da tecnologia, a varia??o m?nima de tens?o ? menor, e o tempo de resposta elevado dos m?todos de DVFS pode tornar esta t?cnica inadequada em tecnologias DSM (deep sub-micron). Como alternativa, a utiliza??o de t?cnicas para escalonamento din?mico de frequ?ncia (DFS) pode prover uma boa rela??o custo-benef?cio entre economia e consumo de energia. O presente trabalho apresenta um esquema de escalonamento din?mico de frequ?ncia distribu?do auto-adapt?vel para MPSoCs baseados em NoC. Ambos os elementos do MPSoC (NoC e PEs) possuem um esquema espec?fico. O esquema para os PEs leva em considera??o as cargas de computa??o e comunica??o do mesmo. Na NoC, o esquema ? controlado atrav?s de informa??es provenientes do pacote que trafega na rede e da atividade do roteador. Al?m disso, um m?dulo para gera??o local de rel?gio ? apresentado, o qual ? respons?vel por prover o sinal de rel?gio para PEs e roteadores da NoC. O esquema de gera??o do sinal de rel?gio ? simples, baseado em roubo de ciclo de um sinal de rel?gio global. Este ainda fornece uma ampla variedade de frequ?ncias, induz baixo custo adicional de ?rea e consumo e responde rapidamente a uma nova configura??o. Para avaliar o esquema proposto, aplica??es sint?ticas e reais foram simuladas. Os resultados mostram que a redu??o no n?mero de instru??es executadas ? de at? 65% (28% em m?dia), com um custo adicional de no m?ximo 14% no tempo de execu??o (9% em m?dia). Em rela??o ? dissipa??o de pot?ncia, os resultados mostram que a redu??o ? de at? 52% nos PEs (23% em m?dia) e de at? 76% na NoC (71% em m?dia). O overhead de consumo apresentado pelo esquema dos PEs ? de 3% e pelo esquema da NoC ? de 10%
|
127 |
Uma avalia??o comparativa de sistemas de mem?ria transacional de software e seus benchmarksRui, Fernando Furlan 29 March 2012 (has links)
Made available in DSpace on 2015-04-14T14:49:52Z (GMT). No. of bitstreams: 1
440021.pdf: 859301 bytes, checksum: 74c835c02a03141cc25fe26c323fab1d (MD5)
Previous issue date: 2012-03-29 / Transactional Memory is considered by many researchers to be one of the most promising solutions to address the problem of programming multicore processors. This model provides the scalability of fine-grained locking while avoiding common issues of tradicional mechanisms, such as deadlocks. During these almost twenty years of research, several studies were carried out to identify approaches in order to maximize the use of Transactional Memories in the Parallel Programming scenario. Furthermore, several TM systems have been developed in different types of implementations as well as new Benchmarks were proposed for evaluation and testing of TM systems. However, despite advances in the area, Transactional Memory is not considered yet a ready solution by the scientific community, due to unanswered questions in the literature, such as: How to identify if an application has an advantage using Transactional Memory? and Why some applications do not benefit from the use of Transactional Memories? , This work presents a comparative evaluation of a set of transactional applications and systems, introducing the field current state-of-the-art, understanding the existing problems and identifying growth opportunities in the STM systems in order to contribute to answer the questions that remain open in the scientific community. / Mem?rias Transacionais s?o consideradas por muitos pesquisadores como a mais promissora solu??o para resolver problemas de programa??o multicore. Esse modelo promete escalabilidade com pequena granularidade, enquanto elimina os problemas comuns nos mecanismos convencionais de locks, como deadlocks por exemplo. Durante esses quase vinte anos de pesquisas, diversos estudos foram realizados visando identificar abordagens para maximizar o uso de Mem?rias Transacionais no cen?rio de Programa??o Paralela. Al?m disso, diversos sistemas TM foram desenvolvidos em diferentes tipos de implementa??es, bem como novos Benchmarks foram propostos para avalia??o e testes de sistemas TM. Entretanto, apesar do avan?o da ?rea, Mem?ria Transacional n?o ? considerada uma solu??o pronta para comunidade cient?fica devido ?s perguntas ainda n?o respondidas na literatura, tais como: Como identificar se uma aplica??o ter? vantagem na utiliza??o de mem?rias transacionais? e Porque algumas aplica??es n?o se beneficiam com o uso de Mem?rias Transacionais?. Esse trabalho realiza uma avalia??o comparativa de um conjunto de sistemas e aplica??es transacionais, apresentando o estado da arte atual, compreendendo os problemas existentes e identificando oportunidades de crescimento nos sistemas STM de maneira a contribuir para responder as perguntas ainda em aberto na comunidade cient?fica.
|
128 |
Ger?ncia distribu?da de recursos em MPSoCs : mapeamento e migra??o de tarefasCastilhos, Guilherme Machado de 25 January 2013 (has links)
Made available in DSpace on 2015-04-14T14:49:58Z (GMT). No. of bitstreams: 1
446499.pdf: 3192902 bytes, checksum: af9202a54e6b226976f5b76a00764782 (MD5)
Previous issue date: 2013-01-25 / The design of MPSoCs is a clear trend in the semiconductor industry. Such MPSoCs are able to execute several applications in parallel, with support to dynamic workload, i.e., applications may start at any moment. Another important feature is QoS (quality of service), because multimedia and telecom applications have tight performance requirements that must be respected by the system. The constantly growth in the number of cores in MPSoCs implies in an important issue: scalability. Despite the scalability offered by NoCs and distributed processing, the MPSoC resources must be managed to deliver the expected performance. Management tasks include access to input/output devices, task mapping, task migration, monitoring, DVFS. One processing element (PE) responsible for resource management may become a bottleneck, since this PE will serve all other PEs of the system, increasing its computation load and creating a communication hot-spot region. An alternative to ensure scalability is to decentralize or distribute the management functions of the system. Two main approaches are discussed in the literature: one manager per application, and one manager per MPSoC region. The second approach is preferable, since the number of management resources remains constant, regardless the number of applications executing in the MPSoC. The regions are defined as clusters. All application tasks are executed in the cluster, if possible. Regarding the size of the cluster, it may have its size modifiable at runtime to allow the mapping of applications with a greater number of tasks than their available resources. This work proposes a distributed resource management in NoC-based MPSoCs, using a clustering method, enabling the modification of the cluster size at runtime. At system start-up each cluster has a fixed size, and at runtime clusters may borrow resources from neighbor clusters to map applications. Results are evaluated using the HeMPS MPSoC, comparing the performance of the centralized versus distributed management approaches. Results show an important reduction in the total execution time of applications, and a reduced number of hops between tasks (smaller communication energy). Results also evaluate the reclustering method, through monitoring and task migration. / O projeto de MPSoCs ? uma clara tend?ncia na ind?stria de semicondutores. Os MPSoCs s?o capazes de executar v?rias aplica??es em paralelo, suportando carga din?mica de trabalho, ou seja, aplica??es podem iniciar a qualquer momento. Outra caracter?stica importante em MPSoCs ? QoS (qualidade de servi?o), pois aplica??es multim?dia e de telecomunica??es possuem requisitos estritos de desempenho, os quais devem ser respeitados pelo sistema. O crescimento constante do n?mero de n?cleos em MPSoCs implica em uma quest?o importante: escalabilidade. Apesar da escalabilidade oferecida por NoCs, e o processamento distribu?do permitindo a execu??o de carga din?mica de trabalho, os recursos dos MPSoCs devem ser gerenciados para proporcionar o desempenho esperado. Tarefas de gerenciamento incluem acesso de entrada/sa?da a dispositivos externos ao MPSoC, mapeamento de tarefas, migra??o de tarefas, monitoramento, DVFS, dentre outras. Um ?nico elemento de processamento (PE), respons?vel pela ger?ncia dos recursos pode se tornar um gargalo no desempenho do sistema, j? que este PE vai servir a todos os PEs do sistema, aumentando sua carga de trabalho e criando regi?es com congestionamento de tr?fego (hot-spots). Uma alternativa para garantir escalabilidade ? descentralizar ou distribuir as fun??es de gerenciamento do sistema. Duas abordagens principais de ger?ncia s?o discutidas na literatura: um gerente por aplica??o, ou um gerente por regi?o do MPSoC. A segunda abordagem ? prefer?vel, j? que o n?mero de recursos utilizados no gerenciamento permanece constante, independentemente do n?mero de aplica??es em execu??o na MPSoC. As regi?es s?o definidas como clusters. Todas as tarefas das aplica??es s?o executadas em um cluster, se poss?vel. Em rela??o ao tamanho do cluster, ele pode ter seu tamanho modific?vel em tempo de execu??o para permitir o mapeamento de aplica??es com um n?mero de tarefas maior do que seus recursos dispon?veis. Este trabalho prop?e uma ger?ncia distribu?da de recursos em MPSoCs, utilizando um m?todo de clusteriza??o, permitindo que o tamanho do cluster seja modificado dinamicamente. Esse sistema inicializa cada cluster com um tamanho fixo, e durante a execu??o das aplica??es, os clusters podem requerer recursos a seus clusters vizinhos para mapear tarefas. Os testes foram executados utilizando a plataforma HeMPS, e foram comparados o desempenho do m?todo de ger?ncia centralizado contra o m?todo de ger?ncia distribu?do. Os resultados mostram uma importante redu??o no tempo total de execu??o das aplica??es e no n?mero de hops entre as tarefas (menor energia de comunica??o) utilizando o m?todo de ger?ncia distribu?da. Os resultados tamb?m avaliam o m?todo de reclusteriza??o, utilizando monitora??o de desempenho e migra??o de tarefas.
|
129 |
Uma explora??o do espa?o de projeto de processadores com hardware de ponto flutuante em FPGASRodolfo, Taciano Ares 15 March 2010 (has links)
Made available in DSpace on 2015-04-14T14:49:59Z (GMT). No. of bitstreams: 1
447663.pdf: 3152066 bytes, checksum: ada0593d3cfeecc7c99152d88798658e (MD5)
Previous issue date: 2010-03-15 / Arithmetic circuits are a fundamental part of digital systems, since every piece of information processed by them must first be encoded as numbers, and arithmetic is the ultimate way to systematically manipulate numbers. There exists a large number of available number encoding schemes, but three of these stand as useful in most situations: unsigned, integer and floating point. The first two are simpler and more universal, but some applications do require the recourse to the extended range of values, and the increased precision of floating point representations. Although the use of floating point hardware in FPGAs has long been considered unfeasible or relegated to use only in expensive devices and platforms, this is no longer the case. This work describes the design process, the implementation and a preliminary evaluation of single-precision floating point hardware units for an instance of the MIPS processor architecture. It explores several fully-fledged implementations that have the form of strongly coupled coprocessors. These coprocessors take as little room as 4% of a medium-sized FPGA, while the processor CPU may take only 3% of the same device. The space exploration process described here values area, performance and power metrics and considers variations on the choice of synthesis tool, floating point unit generation method and architectural issues such as clocking schemes. The conducted experiments show reductions of more than 20 times in clock cycles count for typical floating point application modules, when compared to the use of software-emulated floating point processing. / Circuitos aritm?ticos s?o parte fundamental de sistemas digitais, uma vez que cada por??o de informa??o processada por estes deve ter sido codificada previamente sob a forma de n?meros, e que a aritm?tica ? a forma por excel?ncia de proceder ? manipula??o sistem?tica de n?meros. Existe uma grande quantidade de esquemas de codifica??o usados em sistemas digitais, mas tr?s formas de representa??o se sobressaem por serem usadas na maioria maci?a das situa??es: n?meros sem sinal, n?meros inteiros e a representa??o de ponto flutuante. Os dois primeiros s?o mais simples e mais universais, mas algumas aplica??es exigem o recurso ? faixa estendida de valores e ? precis?o incrementada de representa??es de ponto flutuante. Embora o uso de hardware de ponto flutuante em FPGAs tenha sido por muito tempo considerado invi?vel ou relegado ao uso apenas em dispositivos e plataformas de alto custo, esta n?o ? mais a situa??o atual. Este trabalho descreve o processo de projeto, a implementa??o f?sica e uma avalia??o preliminar de unidades de processamento de ponto flutuante de precis?o simples em hardware para uma arquitetura de processador MIPS. Exploram-se v?rias implementa??es completas que t?m a forma de coprocessadores fortemente acoplados. Estes coprocessadores ocupam apenas 4% de um FPGA de tamanho m?dio, enquanto o processador em si ocupa 3% do mesmo dispositivo. O processo de explora??o do espa?o de solu??es de projeto descrito aqui considera as figuras de m?rito ?rea, desempenho e pot?ncia e considera varia??es na escolha da ferramenta de s?ntese, do m?todo de gera??o a unidade de ponto flutuante e quest?es arquiteturais tais como estrat?gias de uso de rel?gios. Os experimentos conduzidos mostram redu??es de mais de 20 vezes na contagem do n?mero de ciclos de rel?gio do processador, para m?dulos de aplica??o t?picos que usam ponto flutuante de forma intensiva, quando comparado com processamento de representa??es de ponto flutuante emulado em software.
|
130 |
Suporte para aplica??es din?micas em sistemas multiprocessados intra-chip homog?neosJohann Filho, Sergio 15 March 2012 (has links)
Made available in DSpace on 2015-04-14T14:50:02Z (GMT). No. of bitstreams: 1
449233.pdf: 5384117 bytes, checksum: e5e7f7074f9334b3b3534e2949e5bfe7 (MD5)
Previous issue date: 2012-03-15 / Modern MPSoC systems use resources previously available only in general purpose computers providing more functionalities for the applications. The architectural evolution enables more resources to be implemented on these embedded systems and determines an increased complexity of new hardware and software designs. In addition to the increased design complexity of current MPSoC systems, it is evident the difficulty in efficient use of computational resources found on such platforms. As well as the determinism and response time prioritized in many embedded systems, the programmability of MPSoCs is very relevant. Thus, well-defined software interfaces help developers to create applications that utilize optimally the computational resources found in these systems. Most embedded applications are divided into tasks and statically mapped to processing elements at design time, in order to optimize a set of pre-stablished metrics. However, the dynamic nature of new applications requires efficient strategies for the dynamic mapping and task migration to be implemented. In this context, this thesis presents a model for dynamic applications and distributed management of these in homogeneous MPSoC systems. The system management uses task migration concepts and timing constraints, where tasks characterization parameters are used in scheduling decision making and optimization at runtime. In this work we used a homogeneous MPSoC architecture, consisting of processing elements with a local memory interconected by a NoC. This environment allows the execution of applications managed by a distributed operating system that implements the proposed model and offers many services for the development and optimization of embedded applications. Many works in this field make use of a centralized manager to perform the system optimization at runtime, however such solutions tend to be not very scalable. Results show that the use of distributed managers present greater efficiency in systems with a large number of processing elements and tasks, with a reduction in the system stabilization time and reduction of deadline misses for applications with realtime constraints. / Sistemas MPSoC modernos fazem uso de recursos que eram disponibilizados apenas em computadores de prop?sito geral provendo mais funcionalidades para as aplica??es. A evolu??o arquitetural possibilita que mais recursos sejam implementados nestes sistemas embarcados e determina um aumento na complexidade dos novos projetos de hardware e software. Al?m do aumento da complexidade de projeto em sistemas MPSoC atuais, torna-se evidente a dificuldade na utiliza??o eficiente dos recursos computacionais encontrados em tais plataformas. Assim como o determinismo e o tempo de resposta priorizado em muitos sistemas embarcados, a programabilidade de MPSoCs ? muito relevante. Dessa forma, interfaces bem definidas de software ajudam o desenvolvedor a criar aplica??es que utilizam de maneira otimizada os recursos computacionais encontrados nestes sistemas. A maior parte das aplica??es embarcadas s?o divididas em tarefas e estaticamente mapeadas a elementos de processamento em tempo de projeto, de forma a otimizar um conjunto de m?tricas pr?-estabelecidas. No entanto, a natureza din?mica de novas aplica??es estabelece que estrat?gias eficientes de mapeamento din?mico e migra??o de tarefas sejam implementadas. Neste contexto, esta tese apresenta um modelo para aplica??es din?micas e gerenciamento distribu?do destas em sistemas MPSoC homog?neos. O gerenciamento do sistema faz uso dos conceitos de migra??o de tarefas e restri??es temporais, onde par?metros de caracteriza??o das tarefas s?o utilizados nas tomadas de decis?o de escalonamento e otimiza??o em tempo de execu??o. Neste trabalho ? utilizada uma arquitetura MPSoC homog?nea, composta por elementos de processamento com mem?rias locais interconectados por uma NoC. Este ambiente permite a execu??o de aplica??es gerenciadas por um sistema operacional distribu?do que implementa o modelo proposto e oferece diversos servi?os para o desenvolvimento e otimiza??o de aplica??es embarcadas. Muitos trabalhos na ?rea fazem uso de um gerente centralizado para realizar a otimiza??o do sistema em tempo de execu??o, no entanto tais solu??es tendem a ser pouco escal?veis. Os resultados obtidos mostram que o uso de gerentes distribu?dos apresentam maior efici?ncia para sistemas com um grande n?mero de elementos de processamento e tarefas, com redu??o nos tempos de estabiliza??o do sistema e redu??o nas perdas de deadline para aplica??es com restri??es de tempo real.
|
Page generated in 0.7365 seconds