• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4502
  • 203
  • 183
  • 183
  • 179
  • 125
  • 120
  • 63
  • 63
  • 55
  • 54
  • 53
  • 15
  • 6
  • 3
  • Tagged with
  • 4792
  • 2010
  • 1378
  • 953
  • 815
  • 792
  • 733
  • 725
  • 564
  • 538
  • 505
  • 491
  • 471
  • 462
  • 455
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Um simulador para validação de sistemas dependentes de tempo descritos em RT-LOTOS

Scheffel, Roberto Milton January 1997 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnologico / Made available in DSpace on 2016-01-08T22:28:04Z (GMT). No. of bitstreams: 1 108878.pdf: 2304607 bytes, checksum: 9e7404e6e48b5ebbcb49740813a04ab7 (MD5) Previous issue date: 1997 / Esta dissertação descreve uma ferramenta de simulação para sistemas dependentes de tempo descritos com a técnica de descrição formal (TDF) RT-LOTOS. Discute-se a verificação e validação de especificações de sistemas dependentes de tempo, bem como os principais aspectos da TDF utilizada. A arquitetura da ferramenta é descrita e também são apresentados os algoritmos utilizados no processo de simulação. As funcionalidades da ferramenta são descritas, demonstrando a sua utilidade na validação de especificações RT-LOTOS. Ao final, são apresentados alguns estudos de caso para ilustrar o uso da ferramenta.
82

Utilizando algoritmos de busca meta-heurística para estabelecer sequências de teste de integração para programas orientados a aspectos

Galvan, Rodrigo 29 August 2011 (has links)
Resumo: O uso de novos paradigmas, tais como os de orientação a objetos e a aspectos, trouxe novos desafios para o teste de software, atividade considerada fundamental na maioria das organizações de software. Estes desafios têm sido tema de pesquisa em diferentes trabalhos da literatura. No teste de integração de programas orientados a aspectos, similarmente ao teste de programas orientados a objetos, um problema que se destaca é o de estabelecer uma ordem de integração e teste para classes e aspectos que implique em um custo mínimo de criação de stubs. Algumas estratégias para este problema foram investigadas considerando um grafo específico para o contexto de programas orientados a aspectos que representa as relações de dependência entre classes e aspectos. Quando existem ciclos de dependência em tais grafos, o problema não é trivial e muitas estratégias levam a geração de soluções sub-ótimas. Outra desvantagem é que soluções baseadas em grafos geralmente não permitem o uso de diferentes medidas e fatores que podem influenciar no processo de criação de stubs tais como número de atributos, número de métodos, etc. Para reduzir estas limitações, este trabalho explora uma nova estratégia baseada em algoritmos de busca meta-heurísticos. Diferentes algoritmos de busca são investigados e comparados, além de diferentes funções objetivo que permitem lidar com objetivos múltiplos baseadas em agregação de funções e conceitos de dominância de Pareto. Os resultados obtidos nos experimentos mostram que os algoritmos introduzidos apresentam soluções com menor custo que as estratégias tradicionais.
83

Desenvolvimento e avaliação de uma ferramenta computacional multimeios utilizada no auxílio ao aprendizado de projetos de experimentos básicos

Leitão, Fábio Bauermann January 2000 (has links)
Esta dissertação trata do desenvolvimento e avaliação de uma ferramenta computacional multimeios utilizada no auxílio ao aprendizado de projetos de experimentos básicos. A busca da sociedade por novos produtos e processos, cada vez melhores e de forma mais rápida, determina a necessidade da aplicação de técnicas mais objetivas e eficientes para se alcançar estes desafios. O trabalho de execução visando contemplar o mencionado anteriormente, procedeu-se da seguinte forma: (i) revisão e descrição dos conceitos relativos à Engenharia da Qualidade e ao Planejamento, Projeto e Análise de Experimentos (PPAE); (ii) identificação e descrição de métodos ou regras de planejamento experimental; (iii) investigação e identificação dos projetos e análises de experimentos considerados básicos; (iv) desenvolvimento de uma ferramenta multimeios para o auxílio ao aprendizado de PPAE; (v) avaliação da ferramenta desenvolvida, através de um estudo de caso; (vi) conclusões relacionadas ao trabalho desenvolvido. A abordagem adotada para apresentar a técnica experimental, destacou o planejamento, do projeto e análise, detalhando separadamente os mesmos. Este passo almejou, de forma objetiva, identificar aqueles projetos e análises básicos, iniciais ao aprendizado. A elaboração e posterior avaliação da ferramenta multimeios permitiu perceber a potencialidade da mesma, como um meio instrucional para o tema específico de projetos de experimentos, sendo sua aplicação de relativa facilidade. A avaliação mostrou ainda que existe muito a se avançar nos meios físicos de apresentação/execução deste tipo de ferramenta multimeios. / This dissertation is about the development and evaluation of a computational multimedia tool for supporting the learning of basic design of experiments. The society’s search for new and improved products and faster processes creates the need for the application of more objective and efficient techniques. Therefore, the work that follows deals with the aforementioned issues through the following steps: (i) revision and description of concepts relative to the Quality Engineering and Planning, Design and Analysis of Experiments (DOE); (ii) identification and description of methods and rules for experimental planning; (iii) investigation and identification of basic designs and analyses of experiments; (iv) development of a multimedia tool to support the learning of DOE; (v) evaluation of the proposed tool, through a case study; (vi) conclusions. The adopted approach for presenting the design of experiments, highlighted the experimental planning, as much as the design and analysis, in order to identify in an objective way, those basic designs and analyses that introducing the learning. The elaboration and evaluation of the proposed multimedia tool was promising. The evaluation also showed that a lot could still be done for improving the presentation/execution of physical means for this type of multimedia tool.
84

Self-adaptive QOS at communication and computation levels for many-core system-on-chip

Ruaro, Marcelo January 2018 (has links)
Made available in DSpace on 2018-06-21T12:04:57Z (GMT). No. of bitstreams: 1 000488937-Texto+Completo-0.pdf: 4683751 bytes, checksum: 6eb242e44efbbffa6fa556ea81cdeace (MD5) Previous issue date: 2018 / Many-core systems-on-chip are the state-of-the-art in processing power, reaching from a dozen to thousands of processing elements (PE) in a single integrated circuit. General purpose many-cores assume a dynamic application admission, where the application set is unknown at design-time and applications may start their execution at any moment, inducing interference between them. Some applications may have real-time constraints to fulfill, requiring levels of quality of service (QoS) from the system. Due to the high degree of resource’s utilization unpredictability and the number of components to manage, self-adaptive properties become fundamental to support QoS at run-time. The literature provides several self-adaptive QoS proposals, targeting either communication (e.g., Network-on-Chip) or computation resources (e.g., CPU). However, to offer a complete QoS support, it is fundamental to provide a comprehensive self-awareness of the system’s resources, assuming adaptive techniques enabling to act simultaneously at the communication and computation levels to meet the applications' constraints. To cope with these requirements, this Thesis proposes a self-adaptive QoS infrastructure and management techniques, covering both the computation and communication levels. At the computation level, the QoS-driven infrastructure comprises a dynamic real-time task scheduler and a low overhead task migration protocol. These techniques ensure computation QoS by managing the CPU utilization and allocation.The novelty of the task scheduler is the support for dynamic real-time constraints, which leverage more flexibility to tasks to explore the CPU according to a variable workload. The novelty of the task migration protocol is its low execution time overhead compared to the state-of-the-art. At the communication level, the proposed technique is a Circuit-Switching (CS) approach based on the Software Defined Networking (SDN) paradigm. The SDN paradigm for NoCs is an innovation of this Thesis and is achieved through a generic software and hardware architecture. For communication QoS, SDN is used to define CS paths at run-time. A self-adaptive QoS management following the ODA (Observe Decide Act) paradigm controls these QoS-driven infrastructures in an integrated way, implementing a closed loop for run-time adaptations. The QoS management is self-aware of the system and running applications and can decide to take adaptations at computation or communication levels based on the task feedbacks, environment monitoring, and QoS fulfillment monitoring. The self-adaptation decides reactively as well as proactively. An online application profile learning technique is proposed to trace the behavior of the RT tasks and enabling the proactive actions. Results show that the proposed self-adaptive QoS management can restore the QoS level for the applications with a low overhead over the applications execution time. A broad evaluation, using known benchmarks, shows that even under severe QoS disturbances at computation and communication levels, the execution time of the application is restored near to the optimal scenario, mitigating 99.5% of deadline misses. / Sistemas multi-núcleos intra-chip são o estado-da-arte em termos de poder computacional, alcançando de dúzias a milhares de elementos de processamentos (PE) em um único circuito integrado. Sistemas multi-núcleos de propósito geral assumem uma admissão dinâmica de aplicações, onde o conjunto de aplicações não é conhecido em tempo de projeto e as aplicações podem iniciar sua execução a qualquer momento. Algumas aplicações podem ter requisitos de tempo real, requisitando níveis de qualidade de serviço (QoS) do sistema. Devido ao alto grau de imprevisibilidade do uso dos recursos e o grande número de componentes para se gerenciar, propriedades autoadaptativas tornam-se fundamentais para dar suporte a QoS em tempo de execução. A literatura fornece diversas propostas de QoS autoadaptativo, focado em recursos de comunicação (ex., redes intra-chip), ou computação (ex., CPU). Contudo, para fornecer um suporte de QoS completo, é fundamental uma autoconsciência abrangente dos recursos do sistema, e assumir técnicas adaptativas que permitem agir em ambos os níveis de comunicação e computação para atender os requisitos das aplicações. Para suprir essas demandas, essa Tese propõe uma infraestrutura e técnicas de gerenciamento de QoS autoadaptativo, cobrindo ambos os níveis de computação e comunicação. No nível de computação, a infraestrutura para QoS consiste em um escalonador dinâmico de tarefas de tempo real e um protocolo de migração de tarefas de baixo custo.Estas técnicas fornecem QoS de computação, devido ao gerenciamento da utilização e alocação da CPU. A novidade do escalonador de tarefas é o suporte a requisitos de tempo real dinâmicos, o que gera mais flexibilidade para as tarefas em explorar a CPU de acordo com uma carga de trabalho variável. A novidade do protocolo de migração de tarefas é o baixo custo no tempo de execução comparado a trabalhos do estado-da-arte. No nível de comunicação, a técnica proposta é um chaveamento por circuito (CS) baseado em redes definidas por software (SDN). O paradigma SDN para NoCs é uma inovação desta Tese, e é alcançado através de uma arquitetura genérica de software e hardware. Para QoS de comunicação, SDN é usado para definir caminhos CS em tempo de execução. Essas infraestruturas de QoS são gerenciadas de uma forma integrada por um gerenciamento de QoS autoadaptativo, o qual segue o paradigma ODA (Observar, Decidir, Agir), implementando um laço fechado de adaptações em tempo de execução. O gerenciamento de QoS é autoconsciente dos recursos do sistema e das aplicações em execução, e pode decidir por adaptações no nível de computação ou comunicação, baseado em notificações das tarefas, monitoramento do ambiente, e monitoramento de atendimento de QoS.A autoadaptação decide reativamente assim como proativamente. Uma técnica de aprendizagem do perfil das aplicações é proposta para traçar o comportamento das tarefas de tempo real, possibilitando ações proativas. Resultados gerais mostram que o gerenciamento de QoS autoadaptativo proposto pode restaurar os níveis de QoS para as aplicações com um baixo custo no tempo de execução das aplicações. Uma avaliação abrangente, assumindo diversos benchmarks mostra que, mesmo sob diversas interferências de QoS nos níveis de computação e comunicação, o tempo de execução das aplicações é restaurado próximo ao cenário ótimo, como 99,5% das violações de deadlines mitigadas.
85

Segmentação de imagens de profundidade por detecção de bordas

Silva, Luciano 31 March 2011 (has links)
Resumo: Esse trabalho é uma contribuição para a solução do problema da segmentação de imagens de profundidade. Para isso, foi desenvolvido um método de segmentação baseado em técnicas de deteção de bordas. Os objetivos principais do método desenvolvido são: preservar a topologia dos objetos observados na cena, ter bom desempenho na presença de ruídos e reduzir ao mínimo a dependência dos algoritmos utilizados em relação a valores rígidos de limiar. Esses objetivos foram direcionados de forma que a segmentação resultante possa ser adequadamente utilizada para processos de representação de objetos. Com isso, espera-se também contribuir para o desenvolvimento de sistemas que permitam a interpretação automática de objetos. Os resultados apresentados foram comparados com os resultados de outros 4 segmentadores avaliados que comprovaram algumas contribuições da metodologia desenvolvida baseada em deteção de bordas. Os principais pontos positivos do método desenvolvido podem ser observados nos resultados da segmentação de imagens de profundidade, que mostraram uma segmentação mais precisa, preservando a topologia das superfícies dos objetos. Nestes resultados a eliminação dos ruídos nas imagens segmentadas também pode ser considerada um ponto positivo neste método. Além disso, a eliminação de muitos limiares fixos ajuda na generalização do método para ser aplicado a diversos tipos de imagens de entrada. Finalmente, ressalta-se que o método não é restrito à aplicação em imagens compostas apenas por objetos poliédricos.
86

Utilização de Heurísticas de Planejamento no desdobramento de redes de Petri

Kultz, Rene 30 August 2010 (has links)
Resumo: Diversos trabalhos envolvema relação existente entre os problemas de Planejamento Clássico e os problemas de alcançabilidade de redes de Petri, em virtude da proximidade existente entre estes dois formalismos. Uma das técnicas que produz melhores resultados na solução de problemas de alcançabilidade é conhecida como “Desdobramento”. A rede resultante do desdobramento possui omplexidade exponencial em relação ao tamanho inicial da rede de Petri, ainda que produza uma rede menor do que o tamanho do grafo de alcançabilidade de redes de Petri. O objetivo deste trabalho é adaptar as heurísticas de Planejamento H1 e H2, baseadas na regressão de um estado objetivo, para guiar o processo de desdobramento da rede de Petri até que seja atingida uma marcação objetivo, permitindo que a solução possa ser extraída da rede de ocorrências gerada. Esta adaptação foi feita a partir de uma estrutura de dados chamada de vetor de cálculo, que enumera as regressões de todos os subconjuntos de tamanho menor ou igual a m, de acordo com a ordem da heurística, permitindo algumas otimizações no cálculo da heurística. Resultados experimentais foram obtidos a partir de redes de Petri geradas a partir do planejador Petrigraph, que converte problemas de planejamento clássico descritos em forma PDDL em forma de redes de Petri. Estas redes foram submetidas ao desdobramento com auxílio das heurísticas H1 e H2, sendo os resultados comparados com a heurística implementada por Töws e com o planejador Sat Plan. Também foram feitas análises envolvendo o número de expansões realizadas até ser encontrada a solução, o trabalho total realizado pela ferramenta Mole, a complexidade do vetor de cálculo e a profundidade atingida nas redes em que a solução não foi encontrada.
87

Metodologia para implementação de estratégias colaborativas mediadas por ferramentas de interação síncronas

Garcia, Luis Fernando Uria 19 September 2013 (has links)
Resumo: Neste trabalho é criada e proposta uma metodologia geral com um modelo de processos para a realização de sessões de aprendizagem, considerando um entorno colaborativo com interação síncrona mediada por ferramentas tecnológicas. Com a inclusão da tecnologia na educação, se observa que não é suficiente tornar as ferramentas disponíveis. Identificou-se uma carência de metodologias que guiem a criação de novas formas de projeto instrucional, baseado na interação por meio de ferramentas tecnológicas. Alem disso, evidenciou-se que as maiorias das plataformas de aprendizagem exploram somente uma interação assíncrona. Por isto é importante considerar fatores vantajosos como o feedback imediato de uma interação síncrona, para a realização de sessões de aprendizagem em um contexto colaborativo dentro de uma área do conhecimento. Assim, identificando ferramentas que permitem interação em tempo real e considerando as vantagens apregoadas de um enfoque sócio-interacionista para a construção de aprendizagens significativas, propõe-se um conjunto de fases, passos e atividades modelo, que guiam a implementação de atividades e estratégias colaborativas em tempo real dentro de sessões para o apoio ao processo de ensino-aprendizagem.
88

Exploration of runtime distributed mapping techniques for emerging large scale MPSoCs

Mandelli, Marcelo Grandi January 2015 (has links)
Made available in DSpace on 2015-09-19T02:04:34Z (GMT). No. of bitstreams: 1 000475052-Texto+Completo-0.pdf: 8325686 bytes, checksum: 5d74943dc9ee311c90eb182fb022e539 (MD5) Previous issue date: 2015 / MPSoCs with hundreds of cores are already available in the market. According to the ITRS roadmap, such systems will integrate thousands of cores by the end of the decade. The definition of where each task will execute in the system is a major issue in the MPSoC design. In the literature, this issue is defined as task mapping. The growth in the number of cores increases the complexity of the task mapping. The main concerns in task mapping in large systems include: (i) scalability; (ii) dynamic workload; and (iii) reliability. It is necessary to distribute the mapping decision across the system to ensure scalability. The workload of emerging large MPSoCs may be dynamic, i. e., new applications may start at any moment, leading to different mapping scenarios. Therefore, it is necessary to execute the mapping process at runtime to support a dynamic workload. Reliability is tightly connected to the system workload distribution. Load imbalance may generate hotspots zones and consequently thermal implications, which may result in unreliable system operation. In large scale MPSoCs, reliability issues get worse since the growing number of cores on the same die increases power densities and, consequently, the system temperature. The literature presents different task mapping techniques to improve system reliability. However, such approaches use a centralized mapping approach, which are not scalable. To address these three challenges, the main goal of this Thesis is to propose and evaluate distributed mapping heuristics, executed at runtime, ensuring scalability and a fair workload distribution. Distributing the workload and the traffic inside the NoC increases the system reliability in long-term, due to the minimization of hotspot regions. To enable the design space exploration of large MPSoCs the first contribution of the Thesis lies in a multi-level modeling framework, which supports different models and debugging capabilities that enrich and facilitate the design of MPSoCs. The simulation of lower level models (e. g. RTL) generates performance parameters used to calibrate abstract models (e. g. untimed models). The abstract models pave the way to explore mapping heuristics in large systems. Most mapping techniques focus on optimizing communication volume in the NoC, which may compromise reliability due to overload processors. On the other hand, a heuristic optimizing only the workload distribution may overload NoC links, compromising its reliability. The second significant contribution of the Thesis is the proposition of dynamic and distributed mapping heuristics, making a tradeoff between communication volume (NoC links) and workload distribution (CPU usage). Results related to execution time, communication volume, energy consumption, power traces and temperature distribution in large MPSoCs (144 processors) confirm the tradeoff hypothesis. Trading off workload and communication volume improves system reliably through the reduction of hotspots regions, without compromising system performance. / MPSoCs com centenas de processadores já estão disponíveis no mercado. De acordo com o ITRS, tais sistemas integrarão milhares de processadores até o final da década. A definição de onde cada tarefa será executada no sistema é um desafio importante na concepção de MPSoCs. Na literatura, tal desafio é definido como mapeamento de tarefas. O aumento do número de processadores aumenta a complexidade do mapeamento de tarefas. As principais preocupações em mapeamento de tarefas em grandes sistemas incluem: (i) escalabilidade; (ii) carga dinâmica de trabalho; e (iii) confiabilidade. É necessário distribuir a decisão do mapeamento pelo sistema para garantir escalabilidade. A carga de trabalho em MPSoCs pode ser dinâmica, ou seja, novas aplicações podem iniciar a execução a qualquer momento, levando a diferentes cenários de mapeamento. Portanto, é necessário executar o processo de mapeamento em tempo de execução para suportar uma carga de trabalho dinâmica. Confiabilidade é diretamente relacionada à distribuição da carga de trabalho no sistema. Desequilíbrio de carga pode gerar zonas de hotspots e implicações termais, que podem resultar em uma operação do sistema não confiável. Em MPSoCs de grande dimensão problemas de confiabilidade se agravam, uma vez que o crescente número de processadores no mesmo chip aumenta o consumo de energia e, consequentemente, a temperatura do sistema. A literatura apresenta diferentes técnicas de mapeamento de tarefas para melhorar a confiabilidade do sistema. No entanto, tais técnicas utilizam uma abordagem de mapeamento centralizado, a qual não é escalável. Em função destes três desafios, o principal objetivo desta Tese é propor e avaliar heurísticas de mapeamento distribuído, executadas em tempo de execução, garantindo escalabilidade e uma distribuição de carga de trabalho uniforme. Distribuir a carga de trabalho e o tráfego da NoC aumenta a confiabilidade do sistema no longo prazo, devido à minimização das regiões de hotspot. Para permitir a exploração do espaço de projeto em MPSoCs, a primeira contribuição desta Tese consiste em um ambiente de modelagem multi-nível, que suporta diferentes modelos e capacidades de depuração que enriquecem e facilitam o projeto de MPSoCs. A simulação de modelos de mais baixo nível (por exemplo, RTL) gera parâmetros de desempenho utilizados para calibrar modelos mais abstratos. Os modelos abstratos facilitam a exploração de heurísticas de mapeamento em grandes sistemas. A maioria das técnicas de mapeamento se concentram na otimização do volume comunicação na NoC, o que pode comprometer a confiabilidade, devido à sobrecarga de processadores. Por outro lado, uma heurística que visa a otimização apenas da distribuição de carga de trabalho pode sobrecarregar canais da NoC, comprometendo a sua confiabilidade. A segunda contribuição significativa desta Tese é a proposição de heurísticas de mapeamento dinâmico e distribuídos, fazendo um compromisso entre o volume de comunicação (canais da NoC) e distribuição de carga de trabalho (uso da CPU). Os resultados relacionados a tempo de execução, volume de comunicação, consumo de energia, distribuição de potência e temperatura em grandes MPSoCs (256 processadores) confirmam a hipótese deste compromisso. Fazer um compromisso entre carga de trabalho e volume de comunicação melhora a confiabilidade do sistema através da redução de regiões hotspots, sem comprometer o desempenho do sistema.
89

Layered approach for runtime fault recovery in NOC-Based MPSOCS

Wächter, Eduardo Weber January 2015 (has links)
Made available in DSpace on 2015-09-01T02:05:15Z (GMT). No. of bitstreams: 1 000474345-Texto+Completo-0.pdf: 3978955 bytes, checksum: aa0f35953c5bc355cef3bfc0576e2a44 (MD5) Previous issue date: 2015 / Mechanisms for fault-tolerance in MPSoCs are mandatory to cope with defects during fabrication or faults during product lifetime. For instance, permanent faults on the interconnect network can stall or crash applications, even though the MPSoCs’ network has alternative faultfree paths to a given destination. Runtime Fault Tolerance provide self-organization mechanisms to continue delivering their processing services despite defective cores due to the presence of permanent and/or transient faults throughout their lifetime. This Thesis presents a runtime layered approach to a fault-tolerant MPSoC, where each layer is responsible for solving one part of the problem. The approach is built on top of a novel small specialized network used to search fault-free paths. The first layer, named physical layer, is responsible for the fault detection and fault isolation of defective routers. The second layer, named the network layer, is responsible for replacing the original faulty path by an alternative fault-free path. A fault-tolerant routing method executes a path search mechanism and reconfigures the network to use the faulty-free path. The third layer, named transport layer, implements a fault-tolerant communication protocol that triggers the path search in the network layer when a packet does not reach its destination. The last layer, application layer, is responsible for moving tasks from the defective processing element (PE) to a healthy PE, saving the task’s internal state, and restoring it in case of fault while executing a task. Results at the network layer, show a fast path finding method. The entire process of finding alternative paths takes typically less than 2000 clock cycles or 20 microseconds. In the transport layer, different approaches were evaluated being capable of detecting a lost message and start the retransmission. The results show that the overhead to retransmit the message is 2. 46X compared to the time to transmit a message without fault, being all other messages transmitted with no overhead. For the DTW, MPEG, and synthetic applications the average-case application execution overhead was 0. 17%, 0. 09%, and 0. 42%, respectively. This represents less than 5% of the application execution overhead worst case. At the application layer, the entire fault recovery protocol executes fast, with a low execution time overhead with no faults (5. 67%) and with faults (17. 33% - 28. 34%). / Mecanismos de tolerância a falhas em MPSoCs são obrigatórios para enfrentar defeitos ocorridos durante a fabricação ou falhas durante a vida útil do circuito integrado. Por exemplo, falhas permanentes na rede de interconexão do MPSoC podem interromper aplicações mesmo que a rede tenha caminhos sem falha para um determinado destino. A tolerância a falhas em tempo de execução fornece mecanismos de auto-organização para continuar a oferecer serviços de processamento apesar de núcleos defeituosos devido à presença de falhas permanentes e/ou transitórias durante toda a vida dos chips. Esta Tese apresenta uma abordagem em camadas para um MPSoC tolerante a falhas, onde cada camada é responsável por resolver uma parte do problema. O método é construído sobre uma nova proposta de rede especializada utilizada para procurar caminhos livre de falha. A primeira camada, denominada camada física, é responsável pela detecção de falhas e isolamento das partes defeituosas da rede. A segunda camada, denominada camada de rede, é responsável por substituir um caminho defeituoso por um caminho alternativo livre de falhas. Um método de roteamento tolerante a falhas executa o mecanismo de busca de caminhos e reconfigura a rede para usar este caminho livre de falhas. A terceira camada, denominada camada de transporte, implementa um protocolo de comunicação tolerante a falhas que detecta quando pacotes não são entregues ao destino, acionando o método proposto na camada de rede.A última camada, camada de aplicação, é responsável por mover as tarefas do elemento de processamento (PE) defeituoso para um PE saudável, salvar o estado interno da tarefa, e restaurá-la em caso de falha durante a execução. Os resultados na camada de rede mostram um método rápido para encontrar caminhos livres de falhas. O processo de procura de caminhos alternativos leva tipicamente menos de 2000 ciclos de relógio (ou 20 microssegundos). Na camada de transporte, diferentes abordagens foram avaliadas para detectar uma mensagem não entregue e acionar a retransmissão. Os resultados mostram que a sobrecarga para retransmitir a mensagem é 2,46 vezes maior quando comparado com o tempo para transmitir uma mensagem sem falha, sendo que todas outras mensagens subsequentes são transmitidas sem sobrecarga. Para as aplicações DTW, MPEG e sintética, o caso médio de sobrecarga no tempo de execução da aplicação é de 0,17%, 0,09% e 0,42%, respectivamente. Isto representa menos do que 5% do tempo de execução de uma dada aplicação no pior caso. Na camada de aplicação, todo o protocolo de recuperação de falhas executa rapidamente, com uma baixa sobrecarga no tempo de execução sem falhas (5,67%) e com falhas (17,33% - 28,34%).
90

HC-MPSOC: plataforma do tipo cluster para sistemas embarcados

Magalhães, Felipe Göhring de January 2013 (has links)
Made available in DSpace on 2013-10-11T13:35:23Z (GMT). No. of bitstreams: 1 000449349-Texto+Completo-0.pdf: 2535064 bytes, checksum: 9bc52234ef8a5c4987806932ce5619c9 (MD5) Previous issue date: 2013 / Multiprocessor System-on-Chip (MPSoC) can be found in virtually all market branches and the design of such systems typically has several restrictions such as chip area used, which hampers. State-of-art MPSoCs uses networks-on-chip as the primary means of communication, and the trend is that systems based on networks intrachip continue to be used for a long time, thanks to greater flexibility in their design and also a high capacity communication. However, such systems also have certain restrictions on its use, such as the location of the tasks that compose it. Mapping and partitioning techiniques seek to solve these problem, or at least decrease it to a non critical point, but are not always successful in this job. In this context, cluster-based architectures emerges as a viable alternative to MPSoCs. Such systems typically have a hybrid architecture in its constitution, using more than one communication medium, thus being able to group elements by questions of "affinity" and still using high-speed communication medias, such as networks-on-chip. Thus, this work introduces the HC-MPSoC, an architecture for cluster-based intrachip systems, which uses buses and networks-on-chip in a joint way, forming groups of elements independently distributed throughout the system. The HellfireOS is also presented, a real time operating system adapted to run on the platform, counting with a full set of drivers throughout a high-level API. All HC-MPSoC modules as well as the HellfireOS modules, and the results obtained using the platform are presented along the text. / Sistemas intrachip multiprocessados (MPSoCs) podem ser encontrados em praticamente todos os ramos do mercado e o projeto desses sistemas normalmente apresenta diversas restrições, como por exemplo área do chip utilizada, o que o dificulta. MPSoCs do estado da arte utilizam redes intrachip como meio de comunicação principal, e a tendência é que sistemas baseados em redes intrachip continuem a ser utilizados por um longo tempo, graças a uma maior flexibilidade em seu projeto e também uma alta capacidade de comunicação. Porém, tais sistemas ainda apresentam certas restrições em seu uso, como por exemplo a localização das tarefas que o compõem. Técnicas de mapeamento e particionamento de tarefas de uma aplicação buscam solucionar tais problemas, ou ao menos diminui-los a um ponto não crítico, mas nem sempre são bem sucedidos. Neste contexto, arquiteturas do tipo cluster surgem como uma alternativa viável para MPSoCs, normalmente apresentando uma arquitetura híbrida em sua constituição, utilizando mais de um meio de comunicação, podendo assim agrupar elementos por questões de "afinidade" e ainda assim utilizando meios de comunicação com grande paralelismo, como redes intrachip. Desta maneira, este trabalho introduz o HC-MPSoC, uma arquitetura clusterizada para sistemas intrachip, que utiliza redes intrachip e barramentos de uma maneira conjunta, formando grupos de elementos distribuídos de forma independente por todo sistema. É apresentando ainda, o HellfireOS, sistema operacional de tempo real adaptado para executar sobre a arquitetura, com drivers disponibilizados para uso. Todos os módulos do HC-MPSoC, assim como do HellfireOS, e os resultados obtidos utilizando a arquitetura, são apresentados no decorrer do texto.

Page generated in 0.043 seconds