• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 245
  • 12
  • 9
  • 9
  • 9
  • 8
  • 7
  • 7
  • 7
  • 7
  • 2
  • 1
  • 1
  • Tagged with
  • 259
  • 259
  • 87
  • 79
  • 77
  • 61
  • 59
  • 54
  • 52
  • 52
  • 52
  • 51
  • 45
  • 45
  • 37
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Evaluation of system-level impacts of a persistent main memory architecture

Perez, Taciano January 2012 (has links)
Made available in DSpace on 2013-08-07T18:43:30Z (GMT). No. of bitstreams: 1 000438861-Texto+Completo-0.pdf: 1222847 bytes, checksum: b54b23f85d4f13183371506695cec294 (MD5) Previous issue date: 2012 / For almost 30 years, computer memory systems have been essentially the same: volatile, high speed memory technologies like SRAM and DRAM used for cache and main memory; magnetic disks for high-end data storage; and persistent, low speed flash memory for storage with low capacity/low energy consumption requirements such as embedded/mobile devices. Today we watch the emergence of new non-volatile memory (NVM) technologies that promise to radically change the landscape of memory systems. In this work we assess system-level latency and energy impacts of a computer with persistent main memory using PCRAM and Memristor. The experimental results support the feasibility of employing emerging non-volatile memory technologies as persistent main memory, indicating that energy improvements over DRAM should be significant. This study has also compared the development and execution of applications using both a traditional filesystem design and a framework specific of in-memory persistence (Mnemosyne). It concludes that in order to reap the major rewards potentially offered by persistent main memory, it is necessary to take new programming approaches that do not separate volatile memory from persistent secondary storage. / Por cerca de 30 anos, os sistemas de memória computacional têm sido essencialmente os mesmos: tecnologias de memória volátil de alta velocidade como SRAM e DRAM utilizadas para caches e memória principal; discos magnéticos para armazenamento persistente; e memória flash, persistente e de baixa velocidade, para armazenamento com características de baixa capacidade e baixo consumo de energia, tais como dispositivos móveis e embarcados. Hoje estão emergindo novas tecnologias de memória não-volátil, que prometem mudar radicalmente o cenário de sistemas de memória. Neste trabalho são avaliados impactos (em nível de sistema) de latência e energia supondo um computador com memória principal persistente usando PCRAM e Memristor. Os resultados experimentais suportam a viabilidade de se empregar tecnologias emergentes de memória não-volátil como memória principal persistente, indicando que as vantagens de consumo de energia com relação a DRAM devem ser significativas. Esse estudo também compara o desenvolvimento de aplicações usando tanto uma abordagem tradicional usando sistema de arquivos quanto utilizando um framework específico para persistência em memória. Conclui-se que, para colher os principais benefícios potencialmente oferecidos por memória principal persistente, é necessário utilizar novas abordagens de programação que não estabelecem uma separação entre memória volátil e armazenamento secundário.
32

Modelo gerenciador de descoberta de serviços pervasivos ciente de contexto

Leithardt, Valderi Reis Quietinho January 2008 (has links)
Made available in DSpace on 2013-08-07T18:43:31Z (GMT). No. of bitstreams: 1 000419091-Texto+Completo-0.pdf: 1710212 bytes, checksum: fb252592a2b3a6d343bfe2c68ca40c20 (MD5) Previous issue date: 2008 / The pervasive computing allows a range of applications in which the user does not need to worry about the computer system and begins to focus on their task order, or even stop worrying about secondary tasks and focus on a primary task. This change is another step toward the concept of Ubiquitous Computing (ubiquitous / Pervasive Computing) introduced by Mark Weiser [WEI91]. Weiser therefore proposes a continuous integration between environment and technology in the task of assisting users in their most varied daily activities. However, there are a number of requirements to be analyzed and verified in the development of projects in pervasive computing. The development of pervasive computing devices become filled with electronic computing features that will be able to recognize and respond to contextual and individual needs of each person. For example, in a classroom, students have adapted to the context of the teacher, (discipline and content), so that it enters the room. For this to become reality, an important feature of this type of application is the ability to recognize the context of the user a more transparent way possible, making the electronic devices of the environment even less visible to the user. This pervasive computing environment consists of a variety of nodes of various types: fixed and mobile, interconnected applications and services. In this case, pervasive computing is also synonymous with pervasive connectivity, and reflects a highly dynamic and distributed computing. Today, the focus of research is to provide key technologies, to support this new computing environment. Within these needs, this paper presents a model manager discovered service pervasive (MgDsP) for use in mobile applications, sensitive to the context. / A computação pervasiva possibilita uma série de aplicações na qual o usuário não precisa se preocupar com o sistema computacional e passa a se focar na sua tarefa fim, ou até mesmo deixar de se preocupar com tarefas secundárias e se concentrar em uma tarefa principal. Esta mudança é mais um passo em direção ao conceito de Computação Ubíqua (Ubiquitous/Pervasive Computing) introduzido por Mark Weiser [WEI91]. Weiser propõe, assim, uma integração contínua entre ambiente e tecnologia na tarefa de auxiliar os usuários nas suas mais variadas atividades cotidianas. Entretanto, existe uma série de requisitos a serem analisados e verificados na elaboração de projetos de computação pervasiva. O desenvolvimento da computação pervasiva tornará os dispositivos eletrônicos repletos de funcionalidades computacionais que serão capazes de reconhecer e responder às necessidades contextuais e individuais de cada pessoa. Por exemplo, em uma sala de aula, os alunos se adaptariam ao contexto do professor, (disciplina e do conteúdo), assim que o mesmo entrar na sala. Para essa situação tornar-se realidade, uma característica importante desse tipo de aplicação é a capacidade de reconhecer o contexto do usuário de forma mais transparente possível, tornando os dispositivos eletrônicos do ambientes ainda menos perceptíveis para o usuário. Este ambiente computacional pervasivo consiste de uma grande variedade de nodos de diversos tipos: móveis e fixos, aplicações e serviços interconectados. Neste caso, computação pervasiva também é sinônimo de conectividade pervasiva, e reflete uma computação altamente dinâmica e distribuída. Hoje, a concentração das pesquisas está em disponibilizar tecnologias chave, para suportar este novo ambiente computacional. Dentro dessas necessidades, este trabalho apresenta um modelo gerenciador de descoberta de serviços pervasivos (MgDsP) para utilização em aplicações móveis, sensíveis ao contexto.
33

Proposta de um ambiente de gerência de redes de alta velocidade utilizando Corba, Java e HTML

Klauck, Hugo André January 2000 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. / Made available in DSpace on 2012-10-17T12:50:44Z (GMT). No. of bitstreams: 0Bitstream added on 2014-09-25T18:10:47Z : No. of bitstreams: 1 171566.pdf: 2453201 bytes, checksum: 1fe0fcddefec8082e822c67806360487 (MD5) / Atualmente os sistemas de gerência de redes são poderosos, porém possuem plataformas centralizadas e proprietárias, limitando com isso, o controle em decorrência do grande crescimento das redes de computadores. Este fator gera a necessidade de explorar-mos novas tecnologias que podem ser usadas para o projeto de um ambiente de gerência de redes.Os recentes avanços na área de objetos distribuídos utilizando o CORBA (Common Object Request Broker Architeture) e o grande crescimento da Internet e a grande utilização da linguagem de programação Java surgem como poderosos mecanismos para o desenvolvimento de aplicações distribuídas que podem ser utilizadas com grande sucesso neste projeto de gerência de redes. Este trabalho descreve a utilização dessas tecnologias para o projeto de um ambiente de gerência de redes de computadores distribuída, que é independente de plataforma e utiliza páginas Web para realizar a interface com o usuário final.
34

Uma MIB para aplicações Internet

Webber, Celso Kopp January 1997 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnologico / Made available in DSpace on 2016-01-08T22:31:21Z (GMT). No. of bitstreams: 1 108911.pdf: 2334964 bytes, checksum: 3f6d4cca893032568d7c6aaffe282914 (MD5) Previous issue date: 1997 / Este trabalho trata do gerenciamento de aplicações cliente de rede da arquitetura de redes Internet. Para isso, é proposta uma extensão à MIB-II padrão da Arquitetura de Gerenciamento de Redes Internet. O objetivo desta nova MIB é oferecer informações que permitam monitorar e controlar aplicações de rede Internet em estações clientes de rede. Para a construção do módulo da MIB proposta, vários aspectos são discutidos, estabelecendo uma metodologia para o desenvolvimento de novas MIBs SNMP. Em seguida, esta metodologia é utilizada para especificar o módulo de MIB para o gerenciamento de aplicações Internet. Algumas alternativas para a implementação de um agente SNMP para esta nova MIB são discutidos. O módulo de MIB especificado passa por uma etapa de verificação, através da utilização de um compilador de MIBs. Por fim são apresentadas as possibilidades de utilização do novo agente em um ambiente de redes típico, além dos resultados obtidos no ambiente de testes.
35

Experiências com tolerância a faltas no CORBA e extensões ao FT-CORBA para sistemas distribuidos de larga escala

Lung, Lau Cheuk January 2001 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia Elétrica. / Made available in DSpace on 2012-10-19T04:22:37Z (GMT). No. of bitstreams: 0Bitstream added on 2014-09-26T00:01:48Z : No. of bitstreams: 1 182432.pdf: 10495704 bytes, checksum: 518d7b1c8dbb14979ff1fce23323442b (MD5) / Esta tese apresenta nossas experiências com tolerância a faltas no CORBA e uma proposta de extensão das especificações Fault-Tolerant CORBA para sistemas distribuídos de larga escala. A motivação deste trabalho foi a inadequação ou a falta de definições nas especificações FT-CORBA que permitissem atender a requisitos de tolerância a falta para sistemas de larga escala, tal como a Internet. Neste trabalho é apresentado um conjunto de soluções, englobando detecção de falhas, membership e comunicação de grupo, que visam principalmente atender aspectos de escalabilidade, necessários quando são tratados sistemas desta natureza. A principal contribuição desta trabalho é a proposta de um modelo de hierarquia de domínios de tolerância a faltas que facilita o gerenciamento e comunicação de grupo interdomínio.
36

Compilação para arquitetura reconfigurável /

Silva, Antonio Carlos Fernandes da. January 2009 (has links)
Orientador: Renata Spolon Lobato / Banca: Aleardo Manacero Junior / Banca: Jorge Luiz e Silva / Resumo: A computação reconfigurável aparece como uma alternativa viável para a crescente demanda por desempenho em sistemas computacionais. Devido ao grande desenvolvimento de pesquisas nesta area, tornam-se cada vez mais necessárias ferramentas para auxílio ao desenvolvimento ou migraçõ de aplicativos para as arquiteturas que dão suporte a este novo paradigma. Dentro deste contexto, neste trabalho e apresentado o desenvolvimento de um compilador para arquitetura reconfigurável, desenvolvido com base no framework Phoenix, que tem como objetivo gerar c odigo para o Nios II. Nios II e um processador RISC virtual que pode ser executado sobre um FPGA. Os resultados obtidos durante o desenvolvimento do trabalho demonstram sua viabilidade e sua utilidade na geração de aplicativos para plataformas reconfiguráveis. / Abstract: The recon gurable computing appears as an possible alternative for the growing demand for performance in computing systems. Due to the large research's development in this area, it becomes increasingly necessary tools for development aiding or migration of applications for architectures that supports this new paradigm. In this context, this work presents the development of a compiler for recon gurable architecture. It was based on Phoenix framework, that aims to generate code for Nios II. Nios II is a virtual RISC processor that can be implemented on a FPGA. The results that was obtained while the work development evidences its practicability and utility to generate applications for recon gware. / Mestre
37

Increasing memory access efficiency through a two-level memory controller

Linck, Marcelo Melo January 2017 (has links)
Made available in DSpace on 2018-06-19T12:03:36Z (GMT). No. of bitstreams: 1 000488927-Texto+Completo-0.pdf: 4153250 bytes, checksum: 821a8f1e65f49c1b24a0b69b4f6e7f94 (MD5) Previous issue date: 2017 / Simultaneous accesses generated by memory clients in a System-on-Chip (SoC) to a single memory device impose challenges that require extra attention due to the performance bottleneck created. When considering these clients as processors, this issue becomes more evident, because the growth rate in speed for processors exceeds the same rate for memory devices, creating a performance gap. In this scenario, memory-controlling strategies are necessary to improve system performances. Studies have proven that the main cause of processor execution lagging is the memory communication. Therefore, the main contribution of this work is the implementation of a memory-controlling architecture composed of two levels: priority and memory. The priority level is responsible for interfacing with clients and scheduling memory requests according to a fixed-priority algorithm. The memory level is responsible for reordering requests and guaranteeing memory access isolation to high-priority clients. The main objective of this work is to provide latency reductions to high-priority clients in a scalable system. Experiments in this work have been conducted considering the behavioral simulation of the proposed architecture through a software simulator. The evaluation of the proposed work is divided into four parts: latency evaluation, row-hit evaluation, runtime evaluation and scalability evaluation. / Acessos simultâneos gerados por múltiplos clientes para um único dispositivo de memória em um Sistema-em-Chip (SoC) impõe desafios que requerem atenção extra devido ao gargalo gerado na performance. Considerando estes clientes como processadores, este problema torna-se mais evidente, pois a taxa de crescimento de velocidade para processadores excede a de dispositivos de memória, criando uma lacuna de desempenho. Neste cenário, estratégias de controle de memória são necessárias para aumentar o desempenho do sistema. Estudos provam que a comunicação com a memória é a maior causa de atrasos durante a execução de programas em processadores. Portanto, a maior contribuição deste trabalho é a implementação de uma arquitetura de controlador de memória composta por dois níveis: prioridade e memória. O nível de prioridade é responsável por interagir com os clientes e escalonar requisições de memória de acordo com um algoritmo de prioridade fixa. O nível de memória é responsável por reordenar as requisições e garantir o isolamento de acesso à memória para clientes de alta prioridade. O principal objetivo deste trabalho é apresentar um modelo que reduza as latências de acesso à memória para clientes de alta prioridade em um sistema altamente escalável. Os experimentos neste trabalho foram realizados através de uma simulação comportamental da estrutura proposta utilizando um programa de simulação. A análise dos resultados é dividida em quatro partes: análise de latência, análise de row-hit, análise de tempo de execução e análise de escalabilidade.
38

RADA: uma abordagem para a documentação de arquiteturas de referência através de linguagens de descrição arquiteturais

Brandes, Eduardo da Silva January 2010 (has links)
Made available in DSpace on 2014-08-27T02:01:46Z (GMT). No. of bitstreams: 1 000460611-Texto+Completo-0.pdf: 5773039 bytes, checksum: 467b60e5a0961be6d1d5fdcb576c8e52 (MD5) Previous issue date: 2010 / Reuse practices in the software development context, as well as other activities, contribute significantly for improving the quality of generated artifacts. Domain Engineering (DE) has been proposing methods and approaches that aim at supporting software reuse. In the design phase of DE methods artifacts may be created for the Reference Architecture (RA) creation. A RA constitutes structural models that represent the main concepts among the software architecture of a given domain. Although the majority of methods intend to support of RA creation, in fact this support is not enough. The goal of this research is to propose a systematic approach for reference architecture documentation, integrated to a DE process. / Práticas de reúso em um contexto de desenvolvimento de software, assim como em outras atividades, contribuem significativamente para a melhoria da qualidade dos artefatos gerados. Nesse sentido, pesquisas em Engenharia de Domínio (ED) vêm propondo métodos e abordagens com o intuito de apoiarem o reúso de software. A fase de projeto dos métodos de ED visa à criação de artefatos com o objetivo de construir uma Arquitetura de Referência (AR) que constituem modelos de organização estrutural que representam os conceitos mais importantes entre as arquiteturas de software em um domínio. Porém, mesmo que a maioria dos métodos preveja o apoio a construção de AR, na prática o suporte oferecido é insuficiente ou até mesmo inexistente. Nesse contexto, o objetivo dessa pesquisa é propor uma abordagem sistematizada para a documentação de Arquiteturas de Referência para Domínios de Aplicações, integrada a um processo de Engenharia de Domínio com foco em Reuso.
39

Explorando programação híbrida no contexto de clusters de máquinas NUMA

Ribeiro, Neumar Silva January 2011 (has links)
Made available in DSpace on 2013-08-07T18:43:39Z (GMT). No. of bitstreams: 1 000431674-Texto+Completo-0.pdf: 1334645 bytes, checksum: 55861ee97a2e33bdceeff48db81e493d (MD5) Previous issue date: 2011 / Typically, the message passing paradigm is the programming model used for cluster architectures. On the other hand, programming for multiprocessor architectures requires the shared memory paradigm. Recently, the emergence of new technologies enabled the creation of clusters with multiprocessor nodes. In these architectures, computing nodes are composed by more than one processor or core sharing the same memory. This scenario creates the possibility of using new hybrid programming models. In the spectrum of possible alternatives for hybrid programming for clusters of multiprocessors, the use of MPI along with OpenMP is emerging as a de-facto standard. Most hybrid MPI and OpenMP codes are based on hierarchical structure model, which allows exploring coarse and medium grain parallelism with MPI and fine grain parallelism with OpenMP. Clearly, the main idea is to take advantage of the best features of both programming paradigms. Additionally, the nodes of these clusters can be NUMA (Non-Uniform Memory Access) machines. These machines enable the developer to explore memory affinity, improving application performance. The main objective of this work is to investigate the use of hybrid programming with MPI and OpenMP in clusters of NUMA machines, exploiting memory affinity aiming at the identification of a set of good programming practices to be used in this context. / Normalmente, utiliza-se o paradigma de troca de mensagens quando se está programando uma arquitetura do tipo cluster. Porém, quando se deseja programar uma máquina multiprocessada, é requirido o paradigma de memória compartilhada. Recentemente, o surgimento de novas tecnologias possibilitou a criação de clusters com nós multiprocessados. Nestas arquiteturas os nós são compostos por mais de um processador ou core, e compartilham a mesma memória. Este cenário, cria a possibilidade de usar novos modelos de programação híbrida. No amplo espectro de soluções possíveis para o desenvolvimento de código híbrido para clusters de máquinas multiprocessadas, a utilização da dupla MPI e OpenMP está emergindo como um padrão de fato. A maioria dos códigos híbridos MPI e OpenMP são baseados em um modelo de estrutura hierárquica, que torna possível a exploração de grãos grandes e médios de paralelismo no nível de MPI, e grão fino no paralelismo no nível do OpenMP. O objetivo é claramente tirar vantagens das melhores características de ambos os paradigmas de programação. Os nós desses clusters podem ainda ser máquinas NUMA (Non- Uniform Memory Access). Estas máquinas com acesso não uniforme à memória possibilitam que o desenvolvedor explore afinidade de memória, melhorando o desempenho da aplicação. O objetivo principal deste trabalho é investigar o uso de programação híbrida com MPI e OpenMP em clusters de máquinas NUMA, explorando afinidade de memória, visando identificar um conjunto de boas práticas de programação híbrida a serem utilizadas neste contexto.
40

Aceleração da consulta a um grande banco de DNA forense: uma abordagem multiplataforma

FERREIRA, Antonyus Pyetro do Amaral 16 June 2016 (has links)
Submitted by Alice Araujo (alice.caraujo@ufpe.br) on 2018-05-02T22:57:02Z No. of bitstreams: 1 TESE Antonyus Pyetro do Amaral Ferreira.pdf: 4460667 bytes, checksum: 221231feaf54c8b316330bd4925f36e7 (MD5) / Made available in DSpace on 2018-05-02T22:57:02Z (GMT). No. of bitstreams: 1 TESE Antonyus Pyetro do Amaral Ferreira.pdf: 4460667 bytes, checksum: 221231feaf54c8b316330bd4925f36e7 (MD5) Previous issue date: 2016-06-16 / CNPQ / A comparação de cadeias de DNA é um problema clássico em biologia molecular. Uma aplicação forense dessas comparações é usada no problema de identificação pessoal. Por exemplo, nos EUA, o sistema CODIS dispõe, hoje em dia, de 14,5 milhões de perfis de DNA armazenados em seu banco de dados. Visando acelerar essa recorrente tarefa da consulta em banco de dados similares ao CODIS, este trabalho apresenta implementações em software e em hardware digital do algoritmo de Needleman-Wunsch, que representa uma técnica global ótima para se medir a similaridade entre cadeias de DNA. Implementações em Multi-Threads, SIMD (Single Instruction Multiple Data) e OpenCL são investigadas para a plataforma dos GPPs (General Purpose Processors). A infraestrutura de OpenCL também foi usada para analisar o desempenho das GPUs (Graphics Processing Units) para essa tarefa. Adicionalmente, uma arquitetura de hardware digital customizada explorou o paralelismo dos FPGAs (Field Programmable Gate Arrays), buscando-se otimizar o uso dos recursos de hardware e a banda de memória. Os experimentos foram conduzidos usando um banco de DNA sintético com 8 milhões de indivíduos, em que cada um deles é representado por 15 sequências do tamanho de 240 nucleotídeos. Nesse caso de uso, a implementação em um único FPGA Stratix IV, rodando a 280MHz atingiu o maior speed-up de 1885x, em comparação com a implementação canônica em software. Como resultados secundários, as versões em OpenCL (GPU e GPP) e a versão SIMD obtiveram menores tempos de execução comparados com os softwares SWIPE e FASTA que são amplamente utilizados na área. / The comparison of DNA sequences is a classic problem in molecular biology. A forensic application of this comparison is used in the personal identification problem. For instance, in the USA, the CODIS system has today 14.5 million DNA profiles stored on its database. In order to accelerate the recurrent task to query into similar databases, this work presents implementations in software and hardware of the Needleman-Wunsch algorithm, that represents an optimal global technique for measuring similarity between DNA sequences. Multi-threaded, SIMD (Single Instruction Multiple Data), and OpenCL implementations were investigated in a GPP (General Purpose Processor) platform. The OpenCL infrastructure was also used to analyze the performance of GPUs (Graphics Processing Units) for this task. Additionally, a customized digital hardware architecture explored the parallelism of the FPGAs (Field Programmable Gate Arrays), optimizing the use of hardware resources and memory bandwidth. The experiments were conducted using a synthetic DNA database with 8 million individuals, in which, each of them are represented as 15 sequences with length of 240 nucleotides. In this case study the implementation in a single Stratix IV FPGA, running at 280MHz achieved the highest speed-up of 1885x, in comparison with the canonic software implementation. As collateral results, the OpenCL (GPU and CPU) and SIMD versions outperformed consolidated software implementations like SWIPE and FASTA.

Page generated in 0.1132 seconds