Spelling suggestions: "subject:"arquitetura dde computador"" "subject:"arquitetura dee computador""
71 |
Reconfiguração no t-node em caso de falhas / Reconfiguration on the t-node machine under faultNunes, Raul Ceretta January 1993 (has links)
Procedimentos de reconfiguração são usados em diversos sistemas para isolar módulos falhos e recuperar o sistema após a ocorrência de erros. Em ambientes multiprocessadores, onde existe redundância implícita de nodos processadores, vários algoritmos de reconfiguração já foram propostos. Entretanto a maior parte destes algoritmos destina-se a topologias específicas bastante exploradas como, por exemplo, arquiteturas na forma de arrays e árvores. Neste trabalho é apresentada uma estratégia de detecção/reconfiguração para tolerar falhas na máquina T-NODE. Esta máquina possui uma arquitetura multiprocessadora fracamente acoplada, que tem como processador base o transputer. Sua arquitetura de interconexão é definida pelo usuário; a organização de barramentos implementada com base em uma chave crossbar, a qual permite uma variada e fácil gama de opções. Assim, os algoritmos tradicionais de reconfiguração não se aplicam pois são excessivamente restritivos. A análise da arquitetura e do software de baixo nível existentes para a T-NODE revelou recursos praticamente inexistentes a nível de controle de falhas nos processadores e erros no processamento. Mesmo considerando-se que o principal objetivo desta máquina é a obtenção de alto desempenho, é possível implementar procedimentos que melhorem suas características de confiabilidade. Neste estudo é apresentada uma maneira de melhorar o nível de tolerância a falhas da máquina de modo que ela possa ser usada em tarefas mais exigentes do ponto de vista de confiabilidade, sem perda excessiva de desempenho. A estratégia definda usa a técnica de redundância dinâmica com detecção de falhas on-line e recuperação do sistema através do isolamento da falha por reconfiguração e conseqüente reinicialização do sistema. A validação da estratégia foi feita pela construção de um protótipo utilizando a linguagem OCCAM2 e um processador transputer conectado ao barramento de um microcomputador PC. No protótipo foram implementados três processos distintos: o testador, o supervisor e o reconfigurador. Estes processos têm respectivamente, as funções de testar os nodos processadores, supervisionar os resultados dos testes e reconfigurar o sistema quando da ocorrência de uma falha. / In many systems, reconfiguration strategies are used to remove failed components and to recuperate system from the resulting errors. Various reconfiguration algorithms have been proposed with the goal of covering faults in multiprocessing systems, but most of them support only specific architecture styles, as arrays or trees. In this study, a reconfiguration algorithm is proposed whose goal is to tolerate faults in the T-NODE machine. The T-NODE is a loosed coupled, multiprocessor machine based on transputers. The analysis of the architecture and of the system software existing for the T-NODE has shown that, in practice, there were not special resources aiming to control processor faults and processing errors. Even considering that the main goal of this machine is processing with high performance, it is possible to implement alternative procedures which result in better reliability characteristics. By other way, the interconnection architecture of this machine is defined by the user; its bus organization implemented with the aid of a crossbar switch allows choices among several possibilities. Consequently, traditional algorithms do not apply because they are too restrictive. Therefore, the research here related aims to improve the fault-tolerance parameters of this machine without changing significantly its original performance. The strategy here presented uses a dynamic redundancy technique with on-line fault detection; system recovery is get by logically isolating the faulty module, reconfiguring the others and restarting the system. The validation of the strategy has been done with the construction of a prototype using the OCCAM2 language and a transputer processor connected to the bus of a microcomputer (PC). Three different processes have been implemented in the prototype: the tester, the supervisior and the reconfigurator. These processes have respectively the functions of: testing the processing nodes, to supervise tests results and to reconfigure the system under fault occurrence.
|
72 |
WSPE : um ambiente de programação peer-to-peer para a computação em grade / WSPE : a peer-to-peer programming environment for grid computingRosinha, Rômulo Bandeira January 2007 (has links)
Um ambiente de programação é uma ferramenta de software resultante da associa ção de um modelo de programação a um sistema de execução. O objetivo de um ambiente de programação é simpli car o desenvolvimento e a execução de aplicações em uma determinada infra-estrutura computacional. Uma infra-estrutura de Computa ção em Grade apresenta características peculiares que tornam pouco e cientes ambientes de programação existentes para infra-estruturas mais tradicionais, como máquinas maciçamente paralelas ou clusters de computadores. Este trabalho apresenta o WSPE, um ambiente de programação peer-to-peer para Computação em Grade. O WSPE oferece suporte para aplicações grid-unaware que seguem o modelo de programação de tarefas paralelas. A interface de programação WSPE é de nida através de anotações da linguagem Java. O sistema de execu- ção segue um modelo peer-to-peer totalmente descentralizado com o propósito de obter robustez e escalabilidade. Embora um sistema de execução necessite abordar diversos aspectos para se tornar completo, a concepção do sistema de execução WSPE aborda aspectos de desempenho, portabilidade, escalabilidade e adaptabilidade. Para tanto foram desenvolvidos ou adaptados mecanismos para as funções de escalonamento, de construção da rede de sobreposição e de suporte ao paralelismo adaptativo. O mecanismo de escalonamento empregado pelo sistema de execução WSPE é baseado na idéia de roubo de trabalho e utiliza uma nova estratégia que resulta em uma e ciência até cinco vezes superior quando comparada com uma estrat égia mais tradicional. Experimentos realizados com um protótipo do WSPE e também por simulação demonstram a viabilidade do ambiente de programação proposto. / A programming environment is a software tool resulting from the association of a programming model to a runtime system. The goal of a programming environment is to simplify application development and execution on a given computational infrastructure. A Grid Computing infrastructure presents peculiar characteristics that make less e cient existing programming environments designed for more traditional infrastructures, such as massively parallel machines or clusters of computers. This work presents WSPE, a peer-to-peer programming environment for Grid Computing. WSPE provides support for grid-unaware applications following the task parallelism programming model. WSPE programming interface is de ned using annotations from the Java language. The runtime system follows a fully decentralized peer-to-peer model. Although several aspects must be considered in order for a runtime system to become complete, WSPE runtime system's conception considers only performance, portability, scalability and adaptability. For this purpose, mechanisms have been developed or adapted to handle scheduling, overlay network building and adaptive parallelism support functions. The scheduling mechanism employed by WSPE's runtime system is based on the idea of work stealing and uses a new strategy resulting on four times higher e ciency when compared to a more traditional strategy. Conducted experiments with WSPE's prototype and also using a simulation tool demonstrate the proposed programming environment feasibility.
|
73 |
Um estudo sobre processamento adaptativo de sinais utilizando redes neurais / A study about adaptive signal processing using neural netsDorneles, Ricardo Vargas January 1993 (has links)
Nos últimos anos muito tem se pesquisado na área de arquiteturas paralelas de computadores, devido ao fato da melhora de desempenho nas arquiteturas sequenciais não estar acompanhando as necessidades crescentes de capacidade de processamento. Entre as arquiteturas paralelas, um grupo que tem recebido especial atenção por parte dos pesquisadores é o de redes neurais. Uma rede neural é uma arquitetura baseada em paralelismo massivo, na interconexão de numerosos elementos simples de processamento segundo uma determinada topologia e com uma regra de aprendizagem. As redes neurais tem tido grande importância na área de reconhecimento de padrões e diversas aplicações em reconhecimento de caracteres, imagem e voz tem sido desenvolvidas. Outra área de aplicação das redes neurais é o processamento de sinais. A característica de adaptabilidade das redes neurais torna-as apropriadas à utilização em aplicações, onde as características do sinal, ou do meio, são variáveis ou não totalmente conhecidas, como filtros adaptativos. O objetivo deste trabalho é mostrar as aplicações de redes neurais nesta área. Na primeira parte do trabalho foram implementadas aplicações de redes neurais à filtragem utilizando diversas topologias e modelos de neurônios. Os modelos implementados são aqui apresentados juntamente com os resultados das simulações. A segunda parte do trabalho consiste na aplicação de um modelo de redes neurais a um problema bem específico, a separação de sinais a partir de diversas combinações destes sinais. A solução implementada foi baseada no algoritmo proposto por Jutten em [JUT 87]. Além da aplicação deste algoritmo, o problema envolve a análise espectral do sinal, e a reconstrução do sinal original a partir de suas componentes, após efetuada a separação. Neste trabalho é efetuado um estudo sobre este algoritmo, é proposta uma alteração para sua aplicação a sinais de voz, e são mostrados os resultados obtidos na aplicação deste sistema à separação de sinais de voz de diversos locutores. / A lot of research has recently been done in parallel architectures, due to the fact that the improvement in the performance of sequential architectures has not accompanied the growing needs of processing power. Among the parallel architectures, one that has received special attention of the researchers is neural nets. A neural net is an architecture based on massive parallelism, interconection of many processing elements according to one topology and a learning rule. This technology has acquired great importance in the area of pattern recognition and many apllications in recognition of characters, images and voice have been developed. Another area of application of neural nets is signal processing. The characteristic of adaptability of neural nets makes them appropriate to the use of applications where the characteristics of the signal or the environment are variable or not completely known, like adaptive filters. The goal of this work is showing some applications of neural nets in signal processing. In the first part of the work applications of neural nets to filtering using different topologies and models of neurons have been implemented. These models are presented here with the results of these simulations. The second part consists of the application of a neural network model to a very specific problem, the separation of signals from combinations of these signals. The solution implemented was based in the algorithm proposed by Jutten [JUT 87][HER 88]. This problem involves, besides the application of this algorithm, signal spectral analysis and reconstruction of the original signal from the components after the separation is accomplished. After describing the study of the algorithm which has been carried on, the work finishes with the proposal of a modification which would allow the enhancement of its range of applications, namely, to the field of voice signal processing. The results of this other kind of application are consequently shown.
|
74 |
Algoritmos paralelos para alocação e gerência de processadores em máquinas multiprocessadoras hipercúbicas / Parallel algorithms for processor allocation in hypercubesDe Rose, Cesar Augusto Fonticielha January 1993 (has links)
Nos últimos anos, máquinas maciçamente paralelas, compostas de centenas de processadores, vem sendo estudadas como uma alternativa para a construção de supercomputadores. Neste novo conceito de processamento de dados, grandes velocidades são alcançadas através da cooperação entre os diversos elementos processadores na resolução de um problema. Grande parte das máquinas maciçamente paralelas encontradas no mercado utilizam-se da topologia hipercúbica para a interconexão de seus múltiplos processadores, ou podem ser configuradas como tal. Uma alternativa interessante para o compartilhamento da capacidade de processamento destas máquinas é sua utilização como computador agregado a uma rede, servindo a diversos usuários [DUT 91]. Desta forma, a máquina hipercúbica se comporta como um banco de processadores, que permite que cada usuário aloque parte de seus processadores para seu uso pessoal. Isto resulta em um aumento no desempenho da rede ao nível de supercomputadores com um custo relativamente baixo e viabiliza a construção de máquinas hipercúbicas com altas dimensões, evitando que estas sejam sub-utilizadas. Neste tipo de contexto, cabe ao sistema operacional atender as requisições dos usuários do hipercubo compartilhado de forma eficiente, a fim de evitar uma rápida fragmentação do cubo e de não exceder o tempo máximo de espera de uma determinada aplicação. A partir dos algoritmos propostos é apresentada a definição de um servidor de processadores para o compartilhamento de uma máquina multiprocessadora hipercúbica em uma rede de estações de trabalho. Algumas funções deste servidor são implementadas por um protótipo denominado Sub-Cube RPC. Com o objetivo de analisar o comportamento da rede de estações em relação a inclusão de um novo recurso a ser compartilhado, foi desenvolvido, juntamente com o grupo de Avaliação de Desempenho ADMP, um simulador para o ambiente SUN/UNIX. Através desta ferramenta e dos tempos de resposta obtidos pelo protótipo do servidor desenvolvido é possível avaliar o custo que o tráfego gerado pelo servidor adiciona à rede, sendo possível a manipulação de parâmetros da rede e do servidor. Os resultados obtidos nas versões paralelas implementadas são comparados com o desempenho das versões seqüenciais. Para viabilizar esta comparação, todos os algoritmos seqüenciais encontrados na literatura também foram implementados na linguagem "C" no ambiente alvo UNIX e encontram-se em anexo. As versões paralelas foram implementadas utilizando-se recursos da própria rede de estações, através de diretivas socket, e também em Transputers na linguagem C paralela. O protótipo do servidor de processadores foi implementado como um servidor RPC para uma rede de estações UNIX também na linguagem "C". A ferramenta de simulação para o funcionamento do servidor foi implementada na linguagem "C" e seu sistema de entrada de dados e visualização utiliza a interface X-Windows. Com os resultados deste trabalho se pode ter uma boa idéia dos efeitos e das dificuldades encontradas na paralelização dos algoritmos de alocação e gerência de processadores para máquinas Hipercúbicas. As informações contidas no trabalho auxiliam na melhoria do tempo de resposta dos algoritmos seqüenciais atuais e no desenvolvimento de novos algoritmos com mais recursos e ainda assim viáveis em ambientes interativos, graças a utilização de paralelismo. O protótipo Sub-Cube RPC demonstra como os algoritmos estudados neste trabalho podem ser aplicados na construção de um servidor de processadores para máquinas multiprocessadas. O protótipo servirá como base para a implementação de um servidor semelhante no CPGCC/UFRGS, que colocará uma placa de Transputers à disposição da rede de estações do grupo de processamento paralelo. / In the last years massively parallel machines, build with hundreds of processors, are becoming an alternative for the construction of supercomputers. In this new concept of data processing, high performance is achieved by processor cooperation in the resolution of a problem. A great part of the commercial massively parallel machines utilizes the hypercubic topology to interconnect their multiple processors, or may be configured as hypercubes. A very interesting alternative for sharing the processing power of this machines is their utilization as aggregated computer in a network, serving various users [DUT 91]. In such environment, the hypercube behaves like a processor server, permitting the users to allocate part of its processors for local use. This result in a enhancement in the performance of workstation networks to the level of supercomputers and allow higher dimension hypercubes to be better utilized. In such environment the operating system is responsible for serving the users of a shared multiprocessor in a efficient way, not allowing a quick fragmentation of the hypercube and observing the maximal waiting time for the applications. The algorithms for processor allocation and management are responsible for obtention and control of one or more processors of the shared machine for the user's task execution. In this study, parallel versions of the most important algorithms for processor allocation and management in hypercubes found in the literature are proposed. The intention with this paralelization is to achieved a better response time of the more complex algorithms, making their use possible in a real time sharing environment. Because the allocation is considered the most important part of the processor server, the utilization of more complex algorithms allows a better utilization of the shared processors, resulting in a performance increase of the parallel machine. Based on the proposed algorithms, a processor server is defined for sharing a hypercubic multiprocessor in a workstation network. Some functions of this server are implemented in a prototype called Sub-Cube RPC. To analyze the behavior of the network, in relation to the inclusion of this new shared resource, a simulator for the SUN/UNIX environment has been developed together with the Performance Evaluation Group ADMP. With this tool and with the response times of the developed server prototype, it is possible to evaluate the cost of the additional network traffic generated by the server, with the possibility to change parameters of the server and network. The results obtained in the implemented parallel versions are compared with the performance of the sequential algorithms. To make this comparison possible all the sequential algorithms found in the literature are also implemented in the "C" language and can be found in annex. The parallel versions were implemented using network resources, through the socket directive, and also using Transputers in parallel "C". The processor server prototype was implemented as a RPC server for an UNIX network, also in the "C" language. The simulation tool was coded in "C" and the I/O interface use the X-Windows protocol. The results of this study may give a background about the effects and difficulties found in the pa ralelization of the allocation algorithms for the hypercubic machines. The information found in this study will help the operating system designer to obtain a better response time of the sequential algorithms found in the literature and in the development of new and more complex algorithms that will be still practicable in a real time environment due to parallelism utilization. The Sub-Cube RPC prototype demonstrates how the algorithms studied in this work can be applied in the construction of a processor server for multiprocessors. The prototype is the first step for the implementation of a similar server in the CPGCC/UFRGS that will share a Transputer board in a network of workstations from the parallel processing group.
|
75 |
Reconfiguração no t-node em caso de falhas / Reconfiguration on the t-node machine under faultNunes, Raul Ceretta January 1993 (has links)
Procedimentos de reconfiguração são usados em diversos sistemas para isolar módulos falhos e recuperar o sistema após a ocorrência de erros. Em ambientes multiprocessadores, onde existe redundância implícita de nodos processadores, vários algoritmos de reconfiguração já foram propostos. Entretanto a maior parte destes algoritmos destina-se a topologias específicas bastante exploradas como, por exemplo, arquiteturas na forma de arrays e árvores. Neste trabalho é apresentada uma estratégia de detecção/reconfiguração para tolerar falhas na máquina T-NODE. Esta máquina possui uma arquitetura multiprocessadora fracamente acoplada, que tem como processador base o transputer. Sua arquitetura de interconexão é definida pelo usuário; a organização de barramentos implementada com base em uma chave crossbar, a qual permite uma variada e fácil gama de opções. Assim, os algoritmos tradicionais de reconfiguração não se aplicam pois são excessivamente restritivos. A análise da arquitetura e do software de baixo nível existentes para a T-NODE revelou recursos praticamente inexistentes a nível de controle de falhas nos processadores e erros no processamento. Mesmo considerando-se que o principal objetivo desta máquina é a obtenção de alto desempenho, é possível implementar procedimentos que melhorem suas características de confiabilidade. Neste estudo é apresentada uma maneira de melhorar o nível de tolerância a falhas da máquina de modo que ela possa ser usada em tarefas mais exigentes do ponto de vista de confiabilidade, sem perda excessiva de desempenho. A estratégia definda usa a técnica de redundância dinâmica com detecção de falhas on-line e recuperação do sistema através do isolamento da falha por reconfiguração e conseqüente reinicialização do sistema. A validação da estratégia foi feita pela construção de um protótipo utilizando a linguagem OCCAM2 e um processador transputer conectado ao barramento de um microcomputador PC. No protótipo foram implementados três processos distintos: o testador, o supervisor e o reconfigurador. Estes processos têm respectivamente, as funções de testar os nodos processadores, supervisionar os resultados dos testes e reconfigurar o sistema quando da ocorrência de uma falha. / In many systems, reconfiguration strategies are used to remove failed components and to recuperate system from the resulting errors. Various reconfiguration algorithms have been proposed with the goal of covering faults in multiprocessing systems, but most of them support only specific architecture styles, as arrays or trees. In this study, a reconfiguration algorithm is proposed whose goal is to tolerate faults in the T-NODE machine. The T-NODE is a loosed coupled, multiprocessor machine based on transputers. The analysis of the architecture and of the system software existing for the T-NODE has shown that, in practice, there were not special resources aiming to control processor faults and processing errors. Even considering that the main goal of this machine is processing with high performance, it is possible to implement alternative procedures which result in better reliability characteristics. By other way, the interconnection architecture of this machine is defined by the user; its bus organization implemented with the aid of a crossbar switch allows choices among several possibilities. Consequently, traditional algorithms do not apply because they are too restrictive. Therefore, the research here related aims to improve the fault-tolerance parameters of this machine without changing significantly its original performance. The strategy here presented uses a dynamic redundancy technique with on-line fault detection; system recovery is get by logically isolating the faulty module, reconfiguring the others and restarting the system. The validation of the strategy has been done with the construction of a prototype using the OCCAM2 language and a transputer processor connected to the bus of a microcomputer (PC). Three different processes have been implemented in the prototype: the tester, the supervisior and the reconfigurator. These processes have respectively the functions of: testing the processing nodes, to supervise tests results and to reconfigure the system under fault occurrence.
|
76 |
WSPE : um ambiente de programação peer-to-peer para a computação em grade / WSPE : a peer-to-peer programming environment for grid computingRosinha, Rômulo Bandeira January 2007 (has links)
Um ambiente de programação é uma ferramenta de software resultante da associa ção de um modelo de programação a um sistema de execução. O objetivo de um ambiente de programação é simpli car o desenvolvimento e a execução de aplicações em uma determinada infra-estrutura computacional. Uma infra-estrutura de Computa ção em Grade apresenta características peculiares que tornam pouco e cientes ambientes de programação existentes para infra-estruturas mais tradicionais, como máquinas maciçamente paralelas ou clusters de computadores. Este trabalho apresenta o WSPE, um ambiente de programação peer-to-peer para Computação em Grade. O WSPE oferece suporte para aplicações grid-unaware que seguem o modelo de programação de tarefas paralelas. A interface de programação WSPE é de nida através de anotações da linguagem Java. O sistema de execu- ção segue um modelo peer-to-peer totalmente descentralizado com o propósito de obter robustez e escalabilidade. Embora um sistema de execução necessite abordar diversos aspectos para se tornar completo, a concepção do sistema de execução WSPE aborda aspectos de desempenho, portabilidade, escalabilidade e adaptabilidade. Para tanto foram desenvolvidos ou adaptados mecanismos para as funções de escalonamento, de construção da rede de sobreposição e de suporte ao paralelismo adaptativo. O mecanismo de escalonamento empregado pelo sistema de execução WSPE é baseado na idéia de roubo de trabalho e utiliza uma nova estratégia que resulta em uma e ciência até cinco vezes superior quando comparada com uma estrat égia mais tradicional. Experimentos realizados com um protótipo do WSPE e também por simulação demonstram a viabilidade do ambiente de programação proposto. / A programming environment is a software tool resulting from the association of a programming model to a runtime system. The goal of a programming environment is to simplify application development and execution on a given computational infrastructure. A Grid Computing infrastructure presents peculiar characteristics that make less e cient existing programming environments designed for more traditional infrastructures, such as massively parallel machines or clusters of computers. This work presents WSPE, a peer-to-peer programming environment for Grid Computing. WSPE provides support for grid-unaware applications following the task parallelism programming model. WSPE programming interface is de ned using annotations from the Java language. The runtime system follows a fully decentralized peer-to-peer model. Although several aspects must be considered in order for a runtime system to become complete, WSPE runtime system's conception considers only performance, portability, scalability and adaptability. For this purpose, mechanisms have been developed or adapted to handle scheduling, overlay network building and adaptive parallelism support functions. The scheduling mechanism employed by WSPE's runtime system is based on the idea of work stealing and uses a new strategy resulting on four times higher e ciency when compared to a more traditional strategy. Conducted experiments with WSPE's prototype and also using a simulation tool demonstrate the proposed programming environment feasibility.
|
77 |
DevC: uma linguagem de suporte ao desenvolvimento concorrente de device drives e modelos de controladores de entrada e saídaLISBOA, Edson Barbosa 31 January 2009 (has links)
Made available in DSpace on 2014-06-12T15:49:42Z (GMT). No. of bitstreams: 1
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2009 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Produtos eletrônicos modernos integram diversas funcionalidades, combinando
mobilidade, poder computacional, uma alta capacidade para comunicação e flexibilidade
de interfaceamento. No entanto, a integração dessas funcionalidades eleva a
complexidade do projeto.
O projeto de tais produtos inclui um sistema embarcado que, em geral,
implementa suas funcionalidades em uma solução integrada de hardware e software. Uma
plataforma de hardware baseada em processador permite a execução das funcionalidades
do software do sistema. Os seus principais componentes são: processadores, memória,
barramento e dispositivos periféricos. Modelos de simulação destes componentes podem
ser obtidos e conectados para compor um modelo de plataforma virtual. Este modelo
pode ser usado, ainda na fase inicial, para o desenvolvimento dos componentes de
software: código dependente da plataforma, device drivers, funcionalidades do sistema
operacional e aplicações do usuário.
Nesse contexto, os dispositivos periféricos e os respectivos device drivers têm um
papel importante, pois são responsáveis pelos diversos tipos de comunicação e
interfaceamento com o mundo exterior, requisitos obrigatórios na maioria dos sistemas
modernos. No entanto, o desenvolvimento de dispositivos periféricos não é uma tarefa
simples, ainda que seja um modelo de simulação. Por outro lado, o desenvolvimento do
driver depende da disponibilidade do modelo do dispositivo, além do tipo do processador
e do sistema operacional. Essas dependências, portanto, podem acarretar atraso no tempo
de desenvolvimento e afetar o custo do projeto. Assim, o desenvolvimento integrado e
concorrente do dispositivo e do driver facilita a depuração, contribuindo para a
eliminação de erro, além de reduzir o tempo total do projeto.
Esse trabalho propõe uma abordagem para dar suporte ao desenvolvimento
incremental e concorrente de device drivers e modelos de simulação do controlador de
dispositivos, considerando diferentes níveis de detalhes dos modelos, o tipo do
processador usado, bem como, a utilização de um sistema operacional. Para isso, uma
linguagem específica do domínio é proposta para descrever características dos controladores e do device driver e, a partir dessa descrição, possibilitar que o controlador
e os drivers sejam sintetizados.
Para validar a proposta, uma plataforma baseada no processador Sparc foi
desenvolvida e um porte do sistema operacional uclinux foi realizado. Alguns
dispositivos periféricos e seus respectivos device drivers foram sintetizados tais como,
UART, LCD display e dispositivos específicos para plataformas de computação
reconfigurável. Esses componentes foram integrados à plataforma base e simulados para
a validação dos componentes
|
78 |
Utilização de objetos de aprendizagem para melhoria da qualidade do ensino de hierarquia de memória / Use of learning objects to improve the quality of the memory hierarchyFernando Tiosso 24 March 2015 (has links)
O ensino e a aprendizagem do tema hierarquia de memória não são tarefas simples, pois muitos assuntos que são abordados em teoria podem desmotivar a aprendizagem em virtude de sua complexidade. Este projeto de mestrado apresenta a transformação do módulo de memória cache da ferramenta Amnesia em um objeto de aprendizagem, que visa facilitar a construção do conhecimento através da simulação da estrutura e da funcionalidade da hierarquia de memória na arquitetura von Neumann de uma maneira mais prática e didática. Este processo permitiu que funcionalidades existentes na ferramenta fossem readequadas e novas funcionalidades desenvolvidas. Aliado a isso, planos de aula e questionários de avaliação e usabilidade também foram concebidos, validados e implementados junto à elaboração de um tutorial para descrever o funcionamento do novo objeto. Os estudos experimentais realizados analisaram dois aspectos: o primeiro, se o objeto de aprendizagem melhorou, de fato, a aprendizagem dos alunos no assunto memória cache; o segundo, a opinião dos alunos em relação à utilização do objeto. Após a análise e avaliação dos resultados obtidos nos experimentos, foi possível demonstrar uma evolução na aprendizagem quando se fez o uso do objeto, além de se perceber que a motivação dos alunos em utilizar outros objetos de aprendizagem aumentou. / The teaching and learning of memory hierarchy are not simple tasks, because many subjects that are covered in theory may demotivate learning because of its complexity. This Master\'s thesis presents the process of transformation of the cache memory module of Amnesia tool in a learning object, aiming to facilitate the construction of knowledge by simulating the structure and functionality of memory hierarchy of von Neumann architecture in a more practice and didactic way. This process allowed existing features in the tool to be adequate and new features developed. In addition, lesson plans and questionnaires of assessment and usability have also been designed, validated and implemented and a tutorial to describe the operation of the new object was developed. Experimental studies have examined two aspects: the first, if the learning object improved, in fact, the students\' learning in the subject cache memory; the second, students\' opinions regarding the use of the object. After the analysis and evaluation of the results obtained in the experiments, was possible show an evolution in learning when it made the use of the object, and also to perceive that students\' motivation to use other learning objects increased.
|
79 |
Organização de conhecimento e informações para integração de componentes em um arcabouço de projeto orientado para a manufaturaRamos, André Luiz Tietböhl January 2015 (has links)
A constante evolução de métodos, tecnologias e ferramentas associadas na área de projeto fornece maior capacidade para o projetista. Entretanto, ela também aumenta os requisitos de interfaces e controle do conjunto de componentes de projeto consideravelmente. Tipicamente, este aspecto está presente na área de Projeto Orientado para a Manufatura (DFM) onde existem diversos distintos componentes. Cada um dos componentes existentes, ou futuros, pode ter foco diferente, consequentemente com requisitos de informação, utilização e execução distintos. Este trabalho propõe a utilização de padrões conceituais flexíveis de informação e controle de forma abrangente em uma arquitetura de Projeto Orientado para a Manufatura (DFM). O objetivo principal é auxiliar a análise e resolução de DFM, bem como dar suporte à atividade de projeto estruturando e propondo uma solução em relevantes aspectos em DFM: estruturação do contexto das informações (ou conhecimento) em DFM. A arquitetura utiliza as seguintes atividades de projeto em processos de usinagem: Tolerância, Custo, Acessibilidade da ferramenta, Disponibilidade de máquinas e ferramentas e Análise de materiais para demonstrar a relevância da correta contextualização e utilização da informação no domínio DFM . Sob forma geral, concomitantemente, as amplas necessidades de compreensão dos distintos tipos e formas da informação em DFM demandam que uma arquitetura de projeto tenha capacidade de gerenciar/administrar diferentes contextos de informações de projeto. Este é um tópico relevante tendo em vista que existem diferentes atividades DFM que eventualmente devem ser incluídas no ato de projetar. Tipicamente, cada uma delas tem requisitos distintos em termos de dados e conhecimento, ou contextualização do projeto, que idealmente poderiam ser gerenciados através da arquitetura de informação atual – STEP.Aarquitetura proposta gerencia contextos de informações de projeto através de ontologias direcionadas no domínio DFM. Através dela, será possível compreender e utilizar melhor as intrínsecas interfaces existentes nas informações deste domínio, além de, através disto, aumentar a flexibilidade e eficácia de sistemas DFM. / This work proposes the use of industry standards to support the utilization of Design for Manufacturing (DFM) techniques in a comprehensive scale in the design field. The specific aspect being considered in an architecture is the definition and structure of DFM information context. In order to demonstrate the research concepts, some design activities are implemented the framework (which is focused in machining processes): Tolerancing model, Cost model based on material remove processes, Tool Accessibility model taking into consideration the part being designed, Availability of Machines and Tools model, and Material analysis. The broad needs of design–based frameworks, in general, require that its architecture must have the capabilities to handle di erent framework design information utilization contexts, or information context concepts. This is a relevant aspect since there are severalDFMcomponents/activities that preferably should be included in the design process. Traditionally, each one of them might have distinct data & knowledge requirements, which can be handled by the current information architecture – STEP – only in part. Additionally, each one of them might have, or need, di erent forms of understanding DFM information (information context). The framework handles information context concepts through the use of the ontologies targeted to the DFMfield. It is expected that a better comprehension and usage of the intrinsic information interfaces existent in its domain be achieved. Through it, more flexible and e ective DFM systems information-wise can be obtained.
|
80 |
Organização de conhecimento e informações para integração de componentes em um arcabouço de projeto orientado para a manufaturaRamos, André Luiz Tietböhl January 2015 (has links)
A constante evolução de métodos, tecnologias e ferramentas associadas na área de projeto fornece maior capacidade para o projetista. Entretanto, ela também aumenta os requisitos de interfaces e controle do conjunto de componentes de projeto consideravelmente. Tipicamente, este aspecto está presente na área de Projeto Orientado para a Manufatura (DFM) onde existem diversos distintos componentes. Cada um dos componentes existentes, ou futuros, pode ter foco diferente, consequentemente com requisitos de informação, utilização e execução distintos. Este trabalho propõe a utilização de padrões conceituais flexíveis de informação e controle de forma abrangente em uma arquitetura de Projeto Orientado para a Manufatura (DFM). O objetivo principal é auxiliar a análise e resolução de DFM, bem como dar suporte à atividade de projeto estruturando e propondo uma solução em relevantes aspectos em DFM: estruturação do contexto das informações (ou conhecimento) em DFM. A arquitetura utiliza as seguintes atividades de projeto em processos de usinagem: Tolerância, Custo, Acessibilidade da ferramenta, Disponibilidade de máquinas e ferramentas e Análise de materiais para demonstrar a relevância da correta contextualização e utilização da informação no domínio DFM . Sob forma geral, concomitantemente, as amplas necessidades de compreensão dos distintos tipos e formas da informação em DFM demandam que uma arquitetura de projeto tenha capacidade de gerenciar/administrar diferentes contextos de informações de projeto. Este é um tópico relevante tendo em vista que existem diferentes atividades DFM que eventualmente devem ser incluídas no ato de projetar. Tipicamente, cada uma delas tem requisitos distintos em termos de dados e conhecimento, ou contextualização do projeto, que idealmente poderiam ser gerenciados através da arquitetura de informação atual – STEP.Aarquitetura proposta gerencia contextos de informações de projeto através de ontologias direcionadas no domínio DFM. Através dela, será possível compreender e utilizar melhor as intrínsecas interfaces existentes nas informações deste domínio, além de, através disto, aumentar a flexibilidade e eficácia de sistemas DFM. / This work proposes the use of industry standards to support the utilization of Design for Manufacturing (DFM) techniques in a comprehensive scale in the design field. The specific aspect being considered in an architecture is the definition and structure of DFM information context. In order to demonstrate the research concepts, some design activities are implemented the framework (which is focused in machining processes): Tolerancing model, Cost model based on material remove processes, Tool Accessibility model taking into consideration the part being designed, Availability of Machines and Tools model, and Material analysis. The broad needs of design–based frameworks, in general, require that its architecture must have the capabilities to handle di erent framework design information utilization contexts, or information context concepts. This is a relevant aspect since there are severalDFMcomponents/activities that preferably should be included in the design process. Traditionally, each one of them might have distinct data & knowledge requirements, which can be handled by the current information architecture – STEP – only in part. Additionally, each one of them might have, or need, di erent forms of understanding DFM information (information context). The framework handles information context concepts through the use of the ontologies targeted to the DFMfield. It is expected that a better comprehension and usage of the intrinsic information interfaces existent in its domain be achieved. Through it, more flexible and e ective DFM systems information-wise can be obtained.
|
Page generated in 0.0999 seconds