• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 146
  • 10
  • 9
  • Tagged with
  • 165
  • 165
  • 54
  • 48
  • 43
  • 28
  • 27
  • 22
  • 21
  • 20
  • 18
  • 18
  • 18
  • 18
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Projeto e implementação da distribuição de um simulador multinível / Design and implementation of the distribution of a multi-level simulator

Silva, Luis Fernando da January 1997 (has links)
O uso de ferramentas de simulação para validar projetos de sistemas digitais é uma prática comum, devido às vantagens que estas trazem ao desenvolvimento destes sistemas, tais como: custo, segurança, velocidade e acuracidade. Porém, a simulação seqüencial de alguns sistemas pode levar várias horas ou até mesmo dias, fazendo desta maneira surgir a necessidade de técnicas para acelerar tal procedimento. Uma solução encontrada para aumentar a velocidade de simulação pode estar no uso de técnicas de sistemas distribuídos, já que muitas vezes o próprio sistema real tem embutido em si um certo paralelismo, o que facilita os procedimentos de distribuição. Ao se tratar da simulação de sistemas distribuídos logo surge um dos grandes problemas inerentes a estes, o controle global do tempo, fazendo com que a sincronização entre os processos seja bastante complicada. Neste trabalho são estudados dois paradigmas de sincronização, o otimista e o conservativo. Tendo como base estes paradigmas, formularam-se duas técnicas para solucionar o problema de sincronização, no contexto da simulação multinível de sistemas digitais. Nos estudos realizados, utilizou-se como plataforma a API WinSock para Windows a fim de proporcionar a comunicação entre processos. Ao final é feita uma análise comparativa das versões desenvolvidas, as quais fizeram uso das técnicas de sincronização acima mencionadas. / The use of simulation tools to validate the design of digital systems is a common practice, due to the benefits these tools bring to the development of those systems: cost, security, velocity, and accuracy. However, the sequential simulation of some systems may take hours or even days, thus creating the need of techniques for speeding up this procedure. A solution for increasing the simulation speed may be the use of techniques based on distributed systems, since very often the real system has an implicit parallelism, which makes easier the aplication of distribution procedures. When dealing with the simulation of distributed systems, one of the big problems that arise is the global control of simulation time, which makes the synchronization among processes very complex. In this work two synchronization paradigms are studied: the optimist and the conservative ones. Based on these paradigms, two techniques for solving the problem of synchronization in the context of multi-level simulation of digital systems have been developed. In these studies, the API WinSock for Windows has been used for supporting the communication between processes. A comparative analysis of the versions we developed, that use the above mentioned synchronization techniques, is also presented.
42

Projeto e implementação da distribuição de um simulador multinível / Design and implementation of the distribution of a multi-level simulator

Silva, Luis Fernando da January 1997 (has links)
O uso de ferramentas de simulação para validar projetos de sistemas digitais é uma prática comum, devido às vantagens que estas trazem ao desenvolvimento destes sistemas, tais como: custo, segurança, velocidade e acuracidade. Porém, a simulação seqüencial de alguns sistemas pode levar várias horas ou até mesmo dias, fazendo desta maneira surgir a necessidade de técnicas para acelerar tal procedimento. Uma solução encontrada para aumentar a velocidade de simulação pode estar no uso de técnicas de sistemas distribuídos, já que muitas vezes o próprio sistema real tem embutido em si um certo paralelismo, o que facilita os procedimentos de distribuição. Ao se tratar da simulação de sistemas distribuídos logo surge um dos grandes problemas inerentes a estes, o controle global do tempo, fazendo com que a sincronização entre os processos seja bastante complicada. Neste trabalho são estudados dois paradigmas de sincronização, o otimista e o conservativo. Tendo como base estes paradigmas, formularam-se duas técnicas para solucionar o problema de sincronização, no contexto da simulação multinível de sistemas digitais. Nos estudos realizados, utilizou-se como plataforma a API WinSock para Windows a fim de proporcionar a comunicação entre processos. Ao final é feita uma análise comparativa das versões desenvolvidas, as quais fizeram uso das técnicas de sincronização acima mencionadas. / The use of simulation tools to validate the design of digital systems is a common practice, due to the benefits these tools bring to the development of those systems: cost, security, velocity, and accuracy. However, the sequential simulation of some systems may take hours or even days, thus creating the need of techniques for speeding up this procedure. A solution for increasing the simulation speed may be the use of techniques based on distributed systems, since very often the real system has an implicit parallelism, which makes easier the aplication of distribution procedures. When dealing with the simulation of distributed systems, one of the big problems that arise is the global control of simulation time, which makes the synchronization among processes very complex. In this work two synchronization paradigms are studied: the optimist and the conservative ones. Based on these paradigms, two techniques for solving the problem of synchronization in the context of multi-level simulation of digital systems have been developed. In these studies, the API WinSock for Windows has been used for supporting the communication between processes. A comparative analysis of the versions we developed, that use the above mentioned synchronization techniques, is also presented.
43

Análise da performance do algoritmo d / Performance analysis of D-algorithm

Dornelles, Edelweis Helena Ache Garcez January 1993 (has links)
A geração de testes para circuitos combinacionais com fan-outs recovergentes é um problema NP-completo. Com o rápido crescimento da complexidade dos circuitos fabricados, a geração de testes passou a ser um sério problema para a indústria de circuitos integrados. Muitos algoritmos de ATPG (Automatic Test Pattern Generation) baseados no algoritmo D, usam heurísticas para guiar o processo de tomada de decisão na propagação n e na justificação das constantes de forma a aumentar sua eficiencia. Existem heurísticas baseadas em medidas funcionais, estruturais e probabilísticas. Estas medidas são normalmente referidas como observabilidade e controlabilidade que fazem parte de um conceito mais geral, a testabilidade. As medidas que o algoritmo utiliza podem ser calculadas apenas uma vez, durante uma etapa de pré-processamento (medidas de testabilidade estáticas - STM's), ou dinamicamente, recalculando estas medidas durante o processamento sempre que elas forem necessárias (medidas de testabilidade dinâmicas — DTM's). Para alguns circuitos, o use de medidas dinâmicas ao invés de medidas estáticas diminui o número de backtrackings pcir vetor gerado. Apesar disto, o tempo total de CPU por vetor aumenta. Assim, as DTM's só devem ser utilizadas quando as STM's não apresentam uma boa performance. Isto pode ser feito utilizando-se as medidas estáticas ate um certo número de backtrackings. Se o padrão de teste não for encontrado, então medidas dinâmicas são utilizadas. Entretanto, a necessário ainda buscar formas de melhorar o processo dinâmico, diminuindo o custo computacional. A proposta original do calculo das DTM's apresenta algumas técnicas, baseadas em selective tracing, com o objetivo de reduzir o custo computacional. Este trabalho analisa o use combinado de heurísticas e propõe técnicas alternativas, na forma das heurísticas de recalculo parcial e recalculo de linhas não free, que visam minimizar o overhead do calculo das DTM's. E proposta ainda a técnica de Pré-implicação que transfere a complexidade do algoritmo para a memória. Isto é feito através de um preprocessamento que armazena informações necessárias para a geração de todos os vetores de teste. De outra forma estas informações teriam de ser calculadas na geração de cada um destes vetores. A implementação do algoritmo D com as várias heurísticas permitiu a realização de um experimento pratico. Isto possibilitou a análise quantitativa da performance do algoritmo D para vários tipos de circuitos e demonstrou a eficiência de uma das heurísticas propostas neste trabalho. / The test generation for combinational circuits that contain reconvergence is a NP-complete problem. With the rapid increase in the complexity of the fabricated circuits, the generation of test patterns poses a serious problem to the IC industry. A number of existing ATPG algorithms based on the D algorithm use heuristics to guide the decision process in the D-propagation and justification to improve the efficiency. The heuristics used by ATPG algorithm are based on structural, functional and probabilistics measures. These measures are commonly referred to as line controllability and observability and they are combined under the , more general notion of testability. The measures used by ATPG algorithms can be computed only once, during a preprocessing stage (static testability measures - STM's) or can be calculated dinamically, updating the testability measures during the test generation process (dymanic testability measures - DTM's). For some circuits, replacing STM's by DTM's decreases the average number of backtrackings per generated vector. Despite these decrease, the total CPU time per generated vector is greater when using DTM's instead of STM's. So, DTM's only must be used if the STM's don't present a good performance. This can be done by STM's until a certain number of backtrackings. If a test pattern has still not been found, then DTM's are used. Therefore, it is yet necessary to search for ways to improve the dynamic process and decrease the CPU time requirements. In the original approach some techniques for reducing the computational overhead of DTM's based on the well-know technique of selective path tracing are presented. In this work, the combined use of heuristics are analised and alternative techniques — the heuristics of partial recalculus and not free lines recalculus — are proposed. These alternative techniques were developed in order to minimize the overhead of the DTM's calculus. It is yet proposed the pre-implication technique which transfers to memory the algorithm complexity. It includes a preprocessing stage which storages all necesary informations to the generation of all test vectors. So, these informations don't need be computed in the generation of each test vector. The implementation of the D-Algorithm with diferent heuristics has possibilited a practical experiment. It was possible to analise the performance of the D-Algorithm on diferent circuit types and to demonstrate the efficiency of one of the proposed heuristics.
44

Análise da performance do algoritmo d / Performance analysis of D-algorithm

Dornelles, Edelweis Helena Ache Garcez January 1993 (has links)
A geração de testes para circuitos combinacionais com fan-outs recovergentes é um problema NP-completo. Com o rápido crescimento da complexidade dos circuitos fabricados, a geração de testes passou a ser um sério problema para a indústria de circuitos integrados. Muitos algoritmos de ATPG (Automatic Test Pattern Generation) baseados no algoritmo D, usam heurísticas para guiar o processo de tomada de decisão na propagação n e na justificação das constantes de forma a aumentar sua eficiencia. Existem heurísticas baseadas em medidas funcionais, estruturais e probabilísticas. Estas medidas são normalmente referidas como observabilidade e controlabilidade que fazem parte de um conceito mais geral, a testabilidade. As medidas que o algoritmo utiliza podem ser calculadas apenas uma vez, durante uma etapa de pré-processamento (medidas de testabilidade estáticas - STM's), ou dinamicamente, recalculando estas medidas durante o processamento sempre que elas forem necessárias (medidas de testabilidade dinâmicas — DTM's). Para alguns circuitos, o use de medidas dinâmicas ao invés de medidas estáticas diminui o número de backtrackings pcir vetor gerado. Apesar disto, o tempo total de CPU por vetor aumenta. Assim, as DTM's só devem ser utilizadas quando as STM's não apresentam uma boa performance. Isto pode ser feito utilizando-se as medidas estáticas ate um certo número de backtrackings. Se o padrão de teste não for encontrado, então medidas dinâmicas são utilizadas. Entretanto, a necessário ainda buscar formas de melhorar o processo dinâmico, diminuindo o custo computacional. A proposta original do calculo das DTM's apresenta algumas técnicas, baseadas em selective tracing, com o objetivo de reduzir o custo computacional. Este trabalho analisa o use combinado de heurísticas e propõe técnicas alternativas, na forma das heurísticas de recalculo parcial e recalculo de linhas não free, que visam minimizar o overhead do calculo das DTM's. E proposta ainda a técnica de Pré-implicação que transfere a complexidade do algoritmo para a memória. Isto é feito através de um preprocessamento que armazena informações necessárias para a geração de todos os vetores de teste. De outra forma estas informações teriam de ser calculadas na geração de cada um destes vetores. A implementação do algoritmo D com as várias heurísticas permitiu a realização de um experimento pratico. Isto possibilitou a análise quantitativa da performance do algoritmo D para vários tipos de circuitos e demonstrou a eficiência de uma das heurísticas propostas neste trabalho. / The test generation for combinational circuits that contain reconvergence is a NP-complete problem. With the rapid increase in the complexity of the fabricated circuits, the generation of test patterns poses a serious problem to the IC industry. A number of existing ATPG algorithms based on the D algorithm use heuristics to guide the decision process in the D-propagation and justification to improve the efficiency. The heuristics used by ATPG algorithm are based on structural, functional and probabilistics measures. These measures are commonly referred to as line controllability and observability and they are combined under the , more general notion of testability. The measures used by ATPG algorithms can be computed only once, during a preprocessing stage (static testability measures - STM's) or can be calculated dinamically, updating the testability measures during the test generation process (dymanic testability measures - DTM's). For some circuits, replacing STM's by DTM's decreases the average number of backtrackings per generated vector. Despite these decrease, the total CPU time per generated vector is greater when using DTM's instead of STM's. So, DTM's only must be used if the STM's don't present a good performance. This can be done by STM's until a certain number of backtrackings. If a test pattern has still not been found, then DTM's are used. Therefore, it is yet necessary to search for ways to improve the dynamic process and decrease the CPU time requirements. In the original approach some techniques for reducing the computational overhead of DTM's based on the well-know technique of selective path tracing are presented. In this work, the combined use of heuristics are analised and alternative techniques — the heuristics of partial recalculus and not free lines recalculus — are proposed. These alternative techniques were developed in order to minimize the overhead of the DTM's calculus. It is yet proposed the pre-implication technique which transfers to memory the algorithm complexity. It includes a preprocessing stage which storages all necesary informations to the generation of all test vectors. So, these informations don't need be computed in the generation of each test vector. The implementation of the D-Algorithm with diferent heuristics has possibilited a practical experiment. It was possible to analise the performance of the D-Algorithm on diferent circuit types and to demonstrate the efficiency of one of the proposed heuristics.
45

Projeto e implementação da distribuição de um simulador multinível / Design and implementation of the distribution of a multi-level simulator

Silva, Luis Fernando da January 1997 (has links)
O uso de ferramentas de simulação para validar projetos de sistemas digitais é uma prática comum, devido às vantagens que estas trazem ao desenvolvimento destes sistemas, tais como: custo, segurança, velocidade e acuracidade. Porém, a simulação seqüencial de alguns sistemas pode levar várias horas ou até mesmo dias, fazendo desta maneira surgir a necessidade de técnicas para acelerar tal procedimento. Uma solução encontrada para aumentar a velocidade de simulação pode estar no uso de técnicas de sistemas distribuídos, já que muitas vezes o próprio sistema real tem embutido em si um certo paralelismo, o que facilita os procedimentos de distribuição. Ao se tratar da simulação de sistemas distribuídos logo surge um dos grandes problemas inerentes a estes, o controle global do tempo, fazendo com que a sincronização entre os processos seja bastante complicada. Neste trabalho são estudados dois paradigmas de sincronização, o otimista e o conservativo. Tendo como base estes paradigmas, formularam-se duas técnicas para solucionar o problema de sincronização, no contexto da simulação multinível de sistemas digitais. Nos estudos realizados, utilizou-se como plataforma a API WinSock para Windows a fim de proporcionar a comunicação entre processos. Ao final é feita uma análise comparativa das versões desenvolvidas, as quais fizeram uso das técnicas de sincronização acima mencionadas. / The use of simulation tools to validate the design of digital systems is a common practice, due to the benefits these tools bring to the development of those systems: cost, security, velocity, and accuracy. However, the sequential simulation of some systems may take hours or even days, thus creating the need of techniques for speeding up this procedure. A solution for increasing the simulation speed may be the use of techniques based on distributed systems, since very often the real system has an implicit parallelism, which makes easier the aplication of distribution procedures. When dealing with the simulation of distributed systems, one of the big problems that arise is the global control of simulation time, which makes the synchronization among processes very complex. In this work two synchronization paradigms are studied: the optimist and the conservative ones. Based on these paradigms, two techniques for solving the problem of synchronization in the context of multi-level simulation of digital systems have been developed. In these studies, the API WinSock for Windows has been used for supporting the communication between processes. A comparative analysis of the versions we developed, that use the above mentioned synchronization techniques, is also presented.
46

LAGO : Linguagem de Acesso Global ao sistema AMPLO

Luzzardi, Paulo Roberto Gomes January 1991 (has links)
Este trabalho descreve LAGO - Linguagem de Acesso Global ao sistema AMPLO AMPLO é um ambiente de projeto de sistemas digitais que consiste de uma base de dados orientada a objetos e diversas ferramentas de projeto, como editores de texto, editores gráficos, compiladores e simuladores de sistemas digitais. LAGO é a interface de alto nível de AMPLO, sendo responsável pelo controle de acesso aos recursos do sistema. Através desta interface, os usuários de AMPLO podem ativar funções de administração, gerência de projeto, projeto propriamente dito e consulta a base de dados. O acesso as diversas funções do sistema esta vinculado a classificação do usuário. Um - administrador geral - responsável pelo cadastro de usuários e de grupos de usuários. Grupos de usuários são criados Para realizar projetos, sob a liderança de um - administrador de grupo - Este indicado pelo administrador geral quando da criação do grupo e realiza funções de gerência de grupo e da base de dados associada ao grupo. Usuários - projetistas - tem acesso as funções de ativação de ferramentas (editores de texto, editores gráficos, compiladores e simuladores) e as func6es de administração de tarefas (uma tarefa corresponde a uma transação longa, a nível de banco de dados, por exemplo, a criação de objetos em varias sess6es de edição). A cada tarefa esta associada uma base de dados temporária, privativa do projetista, removida após o término da tarefa. Portanto, a base de dados de AMPLO e dividida em três níveis: base de dados pública, bases de dados por projeto e bases de dados dos projetistas. Permanentemente, LAGO oferece facilidades de consulta a base de dados. Estas funções de consulta estão disponíveis quando o usuário inicializa o sistema ou, posteriormente, pela seleção de uma função de consulta. A navegação pelos objetos da base de dados rode ser feita de forma gráfica ou textual. Na forma gráfica, os objetos são apresentados através de arvores representando os diversos tipos de relacionamentos existentes. Na forma textual, LAGO apresenta listas com nomes de objetos. / This work describes LAGO - a language for accessing the AMPLO system. AMPLO is a design environment of digital systems which is composed of an object oriented data base and of several design tools, such as text editors, graphics editors, compilers and simulators of digital systems LAGO is the high-level interface of AMPLO, and it is responsible for controlling the access to the system's resources. With this interface, the users of AMPLO may activate administratation and, design management functions, data base queries, and design tasks. The access to the several system functions is in accordance to the user classification. A "general administrator" is responsible for creating users and groups of users. Groups of users create designs, under the leadership of a "group administrator", who is indicated by the general administrator when the group is created. The "grou p administrator" has private functions for managing the group and the data base associated to the group. Designers activate design tools as text editors, graphic editors, compilers and simulators. Also they can use task management functions (a task corresponds to a long transaction at the data base level, like the creation of objects in several editing sessions, for example). A temporary data base which is a designer private data base is associated to each task, and is removed at the end of the task. Thus, the data base of AMPLO is divided into three levels: p ublic data base, group data base and designer data base LAGO permanently, offers facilities of data base ueries. These q uery functions are available when the user inicializes the system and later on, when the query function is selected. The navigation through the data base objects can be done in a gra p hical or textual form. In the graphical form, the objects are presented by trees representing the several types of relationships. In the textual form, LAGO presents lists with the name of objects.
47

LAGO : Linguagem de Acesso Global ao sistema AMPLO

Luzzardi, Paulo Roberto Gomes January 1991 (has links)
Este trabalho descreve LAGO - Linguagem de Acesso Global ao sistema AMPLO AMPLO é um ambiente de projeto de sistemas digitais que consiste de uma base de dados orientada a objetos e diversas ferramentas de projeto, como editores de texto, editores gráficos, compiladores e simuladores de sistemas digitais. LAGO é a interface de alto nível de AMPLO, sendo responsável pelo controle de acesso aos recursos do sistema. Através desta interface, os usuários de AMPLO podem ativar funções de administração, gerência de projeto, projeto propriamente dito e consulta a base de dados. O acesso as diversas funções do sistema esta vinculado a classificação do usuário. Um - administrador geral - responsável pelo cadastro de usuários e de grupos de usuários. Grupos de usuários são criados Para realizar projetos, sob a liderança de um - administrador de grupo - Este indicado pelo administrador geral quando da criação do grupo e realiza funções de gerência de grupo e da base de dados associada ao grupo. Usuários - projetistas - tem acesso as funções de ativação de ferramentas (editores de texto, editores gráficos, compiladores e simuladores) e as func6es de administração de tarefas (uma tarefa corresponde a uma transação longa, a nível de banco de dados, por exemplo, a criação de objetos em varias sess6es de edição). A cada tarefa esta associada uma base de dados temporária, privativa do projetista, removida após o término da tarefa. Portanto, a base de dados de AMPLO e dividida em três níveis: base de dados pública, bases de dados por projeto e bases de dados dos projetistas. Permanentemente, LAGO oferece facilidades de consulta a base de dados. Estas funções de consulta estão disponíveis quando o usuário inicializa o sistema ou, posteriormente, pela seleção de uma função de consulta. A navegação pelos objetos da base de dados rode ser feita de forma gráfica ou textual. Na forma gráfica, os objetos são apresentados através de arvores representando os diversos tipos de relacionamentos existentes. Na forma textual, LAGO apresenta listas com nomes de objetos. / This work describes LAGO - a language for accessing the AMPLO system. AMPLO is a design environment of digital systems which is composed of an object oriented data base and of several design tools, such as text editors, graphics editors, compilers and simulators of digital systems LAGO is the high-level interface of AMPLO, and it is responsible for controlling the access to the system's resources. With this interface, the users of AMPLO may activate administratation and, design management functions, data base queries, and design tasks. The access to the several system functions is in accordance to the user classification. A "general administrator" is responsible for creating users and groups of users. Groups of users create designs, under the leadership of a "group administrator", who is indicated by the general administrator when the group is created. The "grou p administrator" has private functions for managing the group and the data base associated to the group. Designers activate design tools as text editors, graphic editors, compilers and simulators. Also they can use task management functions (a task corresponds to a long transaction at the data base level, like the creation of objects in several editing sessions, for example). A temporary data base which is a designer private data base is associated to each task, and is removed at the end of the task. Thus, the data base of AMPLO is divided into three levels: p ublic data base, group data base and designer data base LAGO permanently, offers facilities of data base ueries. These q uery functions are available when the user inicializes the system and later on, when the query function is selected. The navigation through the data base objects can be done in a gra p hical or textual form. In the graphical form, the objects are presented by trees representing the several types of relationships. In the textual form, LAGO presents lists with the name of objects.
48

LAGO : Linguagem de Acesso Global ao sistema AMPLO

Luzzardi, Paulo Roberto Gomes January 1991 (has links)
Este trabalho descreve LAGO - Linguagem de Acesso Global ao sistema AMPLO AMPLO é um ambiente de projeto de sistemas digitais que consiste de uma base de dados orientada a objetos e diversas ferramentas de projeto, como editores de texto, editores gráficos, compiladores e simuladores de sistemas digitais. LAGO é a interface de alto nível de AMPLO, sendo responsável pelo controle de acesso aos recursos do sistema. Através desta interface, os usuários de AMPLO podem ativar funções de administração, gerência de projeto, projeto propriamente dito e consulta a base de dados. O acesso as diversas funções do sistema esta vinculado a classificação do usuário. Um - administrador geral - responsável pelo cadastro de usuários e de grupos de usuários. Grupos de usuários são criados Para realizar projetos, sob a liderança de um - administrador de grupo - Este indicado pelo administrador geral quando da criação do grupo e realiza funções de gerência de grupo e da base de dados associada ao grupo. Usuários - projetistas - tem acesso as funções de ativação de ferramentas (editores de texto, editores gráficos, compiladores e simuladores) e as func6es de administração de tarefas (uma tarefa corresponde a uma transação longa, a nível de banco de dados, por exemplo, a criação de objetos em varias sess6es de edição). A cada tarefa esta associada uma base de dados temporária, privativa do projetista, removida após o término da tarefa. Portanto, a base de dados de AMPLO e dividida em três níveis: base de dados pública, bases de dados por projeto e bases de dados dos projetistas. Permanentemente, LAGO oferece facilidades de consulta a base de dados. Estas funções de consulta estão disponíveis quando o usuário inicializa o sistema ou, posteriormente, pela seleção de uma função de consulta. A navegação pelos objetos da base de dados rode ser feita de forma gráfica ou textual. Na forma gráfica, os objetos são apresentados através de arvores representando os diversos tipos de relacionamentos existentes. Na forma textual, LAGO apresenta listas com nomes de objetos. / This work describes LAGO - a language for accessing the AMPLO system. AMPLO is a design environment of digital systems which is composed of an object oriented data base and of several design tools, such as text editors, graphics editors, compilers and simulators of digital systems LAGO is the high-level interface of AMPLO, and it is responsible for controlling the access to the system's resources. With this interface, the users of AMPLO may activate administratation and, design management functions, data base queries, and design tasks. The access to the several system functions is in accordance to the user classification. A "general administrator" is responsible for creating users and groups of users. Groups of users create designs, under the leadership of a "group administrator", who is indicated by the general administrator when the group is created. The "grou p administrator" has private functions for managing the group and the data base associated to the group. Designers activate design tools as text editors, graphic editors, compilers and simulators. Also they can use task management functions (a task corresponds to a long transaction at the data base level, like the creation of objects in several editing sessions, for example). A temporary data base which is a designer private data base is associated to each task, and is removed at the end of the task. Thus, the data base of AMPLO is divided into three levels: p ublic data base, group data base and designer data base LAGO permanently, offers facilities of data base ueries. These q uery functions are available when the user inicializes the system and later on, when the query function is selected. The navigation through the data base objects can be done in a gra p hical or textual form. In the graphical form, the objects are presented by trees representing the several types of relationships. In the textual form, LAGO presents lists with the name of objects.
49

SISTEMA DIGITAL PARA SIMULAÇÃO DOS PARÂMETROS NEUTRÔNICOS DO REATOR NUCLEAR DE PESQUISA TRIGA IPR-1 / DIGITAL SIMULATION SYSTEM OF NEUTRON PARAMETERS OF THE TRIGA IPR-R1 NUCLEAR RESEARCH REACTOR

Antonio Juscelino Pinto 29 July 2010 (has links)
Nenhuma / The IPR-R1 TRIGA Mark I nuclear research reactor, at the Nuclear Technology Development Center (CDTN), is a pool type reactor cooling by light water. TRIGA reactors (Training, Research, Isotope, General Atomics) were designed for research, training and radioisotope production. The International Atomic Energy Agency (IAEA) recommends the use of safety and friendly interfaces for monitoring and controlling the operational parameters of the nuclear reactors. In this context, a system to simulate the neutron evolution flux of the TRIGA IPR-R1 reactor (TRIGA Simulator System - Sistema Simulador TRIGA) was developed using the LabVIEW software, considering the modern concept of virtual instruments (VIs) using electronic processor and visual interface in video monitor, with the objective of assisting the reactor operator training, allowing to study, to observe, and to analyze the behavior, and the tendency of some processes occurring in the reactor. Consequently the reactor operation parameters can be simulated and their relations can be visualized, supporting on the understanding of the interrelation of these parameters and their behavior, promoting a better knowledge of TRIGA IPR-R1 reactor processes. Some scenarios are presented to demonstrate that it is possible to use predetermined values in any parameters to verify its effect in the other ones. Therefore the TRIGA Simulator System (Sistema Simulador TRIGA) will allow the study of parameters, which affect the reactor operation, without the necessity of using the facility, avoiding risk, and reducing costs and operation time. / O reator nuclear de pesquisa TRIGA IPR-R1 Mark I, do Centro de Desenvolvimento da Tecnologia Nuclear (CDTN), é um reator do tipo piscina refrigerado à água leve. Os reatores TRIGA (Training, Research, Isotope, General Atomics) foram projetados para pesquisa, treinamento e produção de radioisótopos. A Agência Internacional de Energia Atômica (AIEA) recomenda o uso de interfaces amigáveis e seguras para o monitoramento e controle dos parâmetros operacionais dos reatores nucleares. Inserido neste contexto, um sistema para simulação da evolução do fluxo de nêutrons do reator nuclear de pesquisa TRIGA IPR-R1 (Sistema Simulador TRIGA) foi desenvolvido, utilizando o software LabVIEW, considerando o moderno conceito de instrumentos virtuais (VIs) por meio de processador eletrônico e interface visual em monitor de vídeo, cujo objetivo é auxiliar no treinamento de operadores de reatores, permitindo estudar, observar e analisar o comportamento e a tendência de alguns dos processos que acontecem em um reator. Deste modo, os parâmetros de operação do reator podem ser simulados e seus relacionamentos visualizados, auxiliando no entendimento de como estas variáveis estão interligadas e se comportam, promovendo melhor conhecimento dos processos do reator TRIGA IPR-R1. São apresentados cenários de utilização do Sistema, demonstrando que se podem usar valores determinados em qualquer um dos parâmetros, verificando seu efeito nos demais. Portanto o Sistema Simulador TRIGA possibilitará o estudo de parâmetros que afetam a operação do reator, sem a necessidade de usar a instalação, evitando riscos e minimizando custos e tempo de operação
50

SECCODES - Secure Communication Development System.

Mario Tadashi Shimanuki 00 December 2003 (has links)
In the history of telecommunications, there has been no single piece of terminal equipment so widely used as the telephone. In many parts of the world, the characteristics of being simple to operate, cheap to purchase and inexpensive to use, and the freedom to access almost any other terminal across the globe, have made the fixed line telephone a basic need in life. As far as the telephone is concerned, there is little personal privacy on telephone conversations; it is easy for an agency or an individual to monitor private telephone lines. If there is a need to protect the telephone communication, there are several steps to be taken and technologies to be employed. In this sense, this thesis concerns the study and implementation of a Secure Communication Development System (SECCODES), so two parts can exchange classified or sensitive information via a telephone line. The analog voice is digitized and encoded by the VC-20 AMBE-MR voice codec into a 4.8 kbps data bit stream; it is processed and encrypted by a Nec V25 processor to be transmitted to a telephone line by a modem. If one has a need or desire to protect his/her telephone communication, SECCODES is suitable to have a secure speech (confidentiality), in this context, the cipher and decipher blocks were designed focusing the easiness to change the parameters and the cryptography algorithm.

Page generated in 0.4682 seconds