• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 12
  • Tagged with
  • 12
  • 12
  • 12
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Projeto e implementação da distribuição de um simulador multinível / Design and implementation of the distribution of a multi-level simulator

Silva, Luis Fernando da January 1997 (has links)
O uso de ferramentas de simulação para validar projetos de sistemas digitais é uma prática comum, devido às vantagens que estas trazem ao desenvolvimento destes sistemas, tais como: custo, segurança, velocidade e acuracidade. Porém, a simulação seqüencial de alguns sistemas pode levar várias horas ou até mesmo dias, fazendo desta maneira surgir a necessidade de técnicas para acelerar tal procedimento. Uma solução encontrada para aumentar a velocidade de simulação pode estar no uso de técnicas de sistemas distribuídos, já que muitas vezes o próprio sistema real tem embutido em si um certo paralelismo, o que facilita os procedimentos de distribuição. Ao se tratar da simulação de sistemas distribuídos logo surge um dos grandes problemas inerentes a estes, o controle global do tempo, fazendo com que a sincronização entre os processos seja bastante complicada. Neste trabalho são estudados dois paradigmas de sincronização, o otimista e o conservativo. Tendo como base estes paradigmas, formularam-se duas técnicas para solucionar o problema de sincronização, no contexto da simulação multinível de sistemas digitais. Nos estudos realizados, utilizou-se como plataforma a API WinSock para Windows a fim de proporcionar a comunicação entre processos. Ao final é feita uma análise comparativa das versões desenvolvidas, as quais fizeram uso das técnicas de sincronização acima mencionadas. / The use of simulation tools to validate the design of digital systems is a common practice, due to the benefits these tools bring to the development of those systems: cost, security, velocity, and accuracy. However, the sequential simulation of some systems may take hours or even days, thus creating the need of techniques for speeding up this procedure. A solution for increasing the simulation speed may be the use of techniques based on distributed systems, since very often the real system has an implicit parallelism, which makes easier the aplication of distribution procedures. When dealing with the simulation of distributed systems, one of the big problems that arise is the global control of simulation time, which makes the synchronization among processes very complex. In this work two synchronization paradigms are studied: the optimist and the conservative ones. Based on these paradigms, two techniques for solving the problem of synchronization in the context of multi-level simulation of digital systems have been developed. In these studies, the API WinSock for Windows has been used for supporting the communication between processes. A comparative analysis of the versions we developed, that use the above mentioned synchronization techniques, is also presented.
2

Análise da performance do algoritmo d / Performance analysis of D-algorithm

Dornelles, Edelweis Helena Ache Garcez January 1993 (has links)
A geração de testes para circuitos combinacionais com fan-outs recovergentes é um problema NP-completo. Com o rápido crescimento da complexidade dos circuitos fabricados, a geração de testes passou a ser um sério problema para a indústria de circuitos integrados. Muitos algoritmos de ATPG (Automatic Test Pattern Generation) baseados no algoritmo D, usam heurísticas para guiar o processo de tomada de decisão na propagação n e na justificação das constantes de forma a aumentar sua eficiencia. Existem heurísticas baseadas em medidas funcionais, estruturais e probabilísticas. Estas medidas são normalmente referidas como observabilidade e controlabilidade que fazem parte de um conceito mais geral, a testabilidade. As medidas que o algoritmo utiliza podem ser calculadas apenas uma vez, durante uma etapa de pré-processamento (medidas de testabilidade estáticas - STM's), ou dinamicamente, recalculando estas medidas durante o processamento sempre que elas forem necessárias (medidas de testabilidade dinâmicas — DTM's). Para alguns circuitos, o use de medidas dinâmicas ao invés de medidas estáticas diminui o número de backtrackings pcir vetor gerado. Apesar disto, o tempo total de CPU por vetor aumenta. Assim, as DTM's só devem ser utilizadas quando as STM's não apresentam uma boa performance. Isto pode ser feito utilizando-se as medidas estáticas ate um certo número de backtrackings. Se o padrão de teste não for encontrado, então medidas dinâmicas são utilizadas. Entretanto, a necessário ainda buscar formas de melhorar o processo dinâmico, diminuindo o custo computacional. A proposta original do calculo das DTM's apresenta algumas técnicas, baseadas em selective tracing, com o objetivo de reduzir o custo computacional. Este trabalho analisa o use combinado de heurísticas e propõe técnicas alternativas, na forma das heurísticas de recalculo parcial e recalculo de linhas não free, que visam minimizar o overhead do calculo das DTM's. E proposta ainda a técnica de Pré-implicação que transfere a complexidade do algoritmo para a memória. Isto é feito através de um preprocessamento que armazena informações necessárias para a geração de todos os vetores de teste. De outra forma estas informações teriam de ser calculadas na geração de cada um destes vetores. A implementação do algoritmo D com as várias heurísticas permitiu a realização de um experimento pratico. Isto possibilitou a análise quantitativa da performance do algoritmo D para vários tipos de circuitos e demonstrou a eficiência de uma das heurísticas propostas neste trabalho. / The test generation for combinational circuits that contain reconvergence is a NP-complete problem. With the rapid increase in the complexity of the fabricated circuits, the generation of test patterns poses a serious problem to the IC industry. A number of existing ATPG algorithms based on the D algorithm use heuristics to guide the decision process in the D-propagation and justification to improve the efficiency. The heuristics used by ATPG algorithm are based on structural, functional and probabilistics measures. These measures are commonly referred to as line controllability and observability and they are combined under the , more general notion of testability. The measures used by ATPG algorithms can be computed only once, during a preprocessing stage (static testability measures - STM's) or can be calculated dinamically, updating the testability measures during the test generation process (dymanic testability measures - DTM's). For some circuits, replacing STM's by DTM's decreases the average number of backtrackings per generated vector. Despite these decrease, the total CPU time per generated vector is greater when using DTM's instead of STM's. So, DTM's only must be used if the STM's don't present a good performance. This can be done by STM's until a certain number of backtrackings. If a test pattern has still not been found, then DTM's are used. Therefore, it is yet necessary to search for ways to improve the dynamic process and decrease the CPU time requirements. In the original approach some techniques for reducing the computational overhead of DTM's based on the well-know technique of selective path tracing are presented. In this work, the combined use of heuristics are analised and alternative techniques — the heuristics of partial recalculus and not free lines recalculus — are proposed. These alternative techniques were developed in order to minimize the overhead of the DTM's calculus. It is yet proposed the pre-implication technique which transfers to memory the algorithm complexity. It includes a preprocessing stage which storages all necesary informations to the generation of all test vectors. So, these informations don't need be computed in the generation of each test vector. The implementation of the D-Algorithm with diferent heuristics has possibilited a practical experiment. It was possible to analise the performance of the D-Algorithm on diferent circuit types and to demonstrate the efficiency of one of the proposed heuristics.
3

Projeto e implementação da distribuição de um simulador multinível / Design and implementation of the distribution of a multi-level simulator

Silva, Luis Fernando da January 1997 (has links)
O uso de ferramentas de simulação para validar projetos de sistemas digitais é uma prática comum, devido às vantagens que estas trazem ao desenvolvimento destes sistemas, tais como: custo, segurança, velocidade e acuracidade. Porém, a simulação seqüencial de alguns sistemas pode levar várias horas ou até mesmo dias, fazendo desta maneira surgir a necessidade de técnicas para acelerar tal procedimento. Uma solução encontrada para aumentar a velocidade de simulação pode estar no uso de técnicas de sistemas distribuídos, já que muitas vezes o próprio sistema real tem embutido em si um certo paralelismo, o que facilita os procedimentos de distribuição. Ao se tratar da simulação de sistemas distribuídos logo surge um dos grandes problemas inerentes a estes, o controle global do tempo, fazendo com que a sincronização entre os processos seja bastante complicada. Neste trabalho são estudados dois paradigmas de sincronização, o otimista e o conservativo. Tendo como base estes paradigmas, formularam-se duas técnicas para solucionar o problema de sincronização, no contexto da simulação multinível de sistemas digitais. Nos estudos realizados, utilizou-se como plataforma a API WinSock para Windows a fim de proporcionar a comunicação entre processos. Ao final é feita uma análise comparativa das versões desenvolvidas, as quais fizeram uso das técnicas de sincronização acima mencionadas. / The use of simulation tools to validate the design of digital systems is a common practice, due to the benefits these tools bring to the development of those systems: cost, security, velocity, and accuracy. However, the sequential simulation of some systems may take hours or even days, thus creating the need of techniques for speeding up this procedure. A solution for increasing the simulation speed may be the use of techniques based on distributed systems, since very often the real system has an implicit parallelism, which makes easier the aplication of distribution procedures. When dealing with the simulation of distributed systems, one of the big problems that arise is the global control of simulation time, which makes the synchronization among processes very complex. In this work two synchronization paradigms are studied: the optimist and the conservative ones. Based on these paradigms, two techniques for solving the problem of synchronization in the context of multi-level simulation of digital systems have been developed. In these studies, the API WinSock for Windows has been used for supporting the communication between processes. A comparative analysis of the versions we developed, that use the above mentioned synchronization techniques, is also presented.
4

Análise da performance do algoritmo d / Performance analysis of D-algorithm

Dornelles, Edelweis Helena Ache Garcez January 1993 (has links)
A geração de testes para circuitos combinacionais com fan-outs recovergentes é um problema NP-completo. Com o rápido crescimento da complexidade dos circuitos fabricados, a geração de testes passou a ser um sério problema para a indústria de circuitos integrados. Muitos algoritmos de ATPG (Automatic Test Pattern Generation) baseados no algoritmo D, usam heurísticas para guiar o processo de tomada de decisão na propagação n e na justificação das constantes de forma a aumentar sua eficiencia. Existem heurísticas baseadas em medidas funcionais, estruturais e probabilísticas. Estas medidas são normalmente referidas como observabilidade e controlabilidade que fazem parte de um conceito mais geral, a testabilidade. As medidas que o algoritmo utiliza podem ser calculadas apenas uma vez, durante uma etapa de pré-processamento (medidas de testabilidade estáticas - STM's), ou dinamicamente, recalculando estas medidas durante o processamento sempre que elas forem necessárias (medidas de testabilidade dinâmicas — DTM's). Para alguns circuitos, o use de medidas dinâmicas ao invés de medidas estáticas diminui o número de backtrackings pcir vetor gerado. Apesar disto, o tempo total de CPU por vetor aumenta. Assim, as DTM's só devem ser utilizadas quando as STM's não apresentam uma boa performance. Isto pode ser feito utilizando-se as medidas estáticas ate um certo número de backtrackings. Se o padrão de teste não for encontrado, então medidas dinâmicas são utilizadas. Entretanto, a necessário ainda buscar formas de melhorar o processo dinâmico, diminuindo o custo computacional. A proposta original do calculo das DTM's apresenta algumas técnicas, baseadas em selective tracing, com o objetivo de reduzir o custo computacional. Este trabalho analisa o use combinado de heurísticas e propõe técnicas alternativas, na forma das heurísticas de recalculo parcial e recalculo de linhas não free, que visam minimizar o overhead do calculo das DTM's. E proposta ainda a técnica de Pré-implicação que transfere a complexidade do algoritmo para a memória. Isto é feito através de um preprocessamento que armazena informações necessárias para a geração de todos os vetores de teste. De outra forma estas informações teriam de ser calculadas na geração de cada um destes vetores. A implementação do algoritmo D com as várias heurísticas permitiu a realização de um experimento pratico. Isto possibilitou a análise quantitativa da performance do algoritmo D para vários tipos de circuitos e demonstrou a eficiência de uma das heurísticas propostas neste trabalho. / The test generation for combinational circuits that contain reconvergence is a NP-complete problem. With the rapid increase in the complexity of the fabricated circuits, the generation of test patterns poses a serious problem to the IC industry. A number of existing ATPG algorithms based on the D algorithm use heuristics to guide the decision process in the D-propagation and justification to improve the efficiency. The heuristics used by ATPG algorithm are based on structural, functional and probabilistics measures. These measures are commonly referred to as line controllability and observability and they are combined under the , more general notion of testability. The measures used by ATPG algorithms can be computed only once, during a preprocessing stage (static testability measures - STM's) or can be calculated dinamically, updating the testability measures during the test generation process (dymanic testability measures - DTM's). For some circuits, replacing STM's by DTM's decreases the average number of backtrackings per generated vector. Despite these decrease, the total CPU time per generated vector is greater when using DTM's instead of STM's. So, DTM's only must be used if the STM's don't present a good performance. This can be done by STM's until a certain number of backtrackings. If a test pattern has still not been found, then DTM's are used. Therefore, it is yet necessary to search for ways to improve the dynamic process and decrease the CPU time requirements. In the original approach some techniques for reducing the computational overhead of DTM's based on the well-know technique of selective path tracing are presented. In this work, the combined use of heuristics are analised and alternative techniques — the heuristics of partial recalculus and not free lines recalculus — are proposed. These alternative techniques were developed in order to minimize the overhead of the DTM's calculus. It is yet proposed the pre-implication technique which transfers to memory the algorithm complexity. It includes a preprocessing stage which storages all necesary informations to the generation of all test vectors. So, these informations don't need be computed in the generation of each test vector. The implementation of the D-Algorithm with diferent heuristics has possibilited a practical experiment. It was possible to analise the performance of the D-Algorithm on diferent circuit types and to demonstrate the efficiency of one of the proposed heuristics.
5

Projeto e implementação da distribuição de um simulador multinível / Design and implementation of the distribution of a multi-level simulator

Silva, Luis Fernando da January 1997 (has links)
O uso de ferramentas de simulação para validar projetos de sistemas digitais é uma prática comum, devido às vantagens que estas trazem ao desenvolvimento destes sistemas, tais como: custo, segurança, velocidade e acuracidade. Porém, a simulação seqüencial de alguns sistemas pode levar várias horas ou até mesmo dias, fazendo desta maneira surgir a necessidade de técnicas para acelerar tal procedimento. Uma solução encontrada para aumentar a velocidade de simulação pode estar no uso de técnicas de sistemas distribuídos, já que muitas vezes o próprio sistema real tem embutido em si um certo paralelismo, o que facilita os procedimentos de distribuição. Ao se tratar da simulação de sistemas distribuídos logo surge um dos grandes problemas inerentes a estes, o controle global do tempo, fazendo com que a sincronização entre os processos seja bastante complicada. Neste trabalho são estudados dois paradigmas de sincronização, o otimista e o conservativo. Tendo como base estes paradigmas, formularam-se duas técnicas para solucionar o problema de sincronização, no contexto da simulação multinível de sistemas digitais. Nos estudos realizados, utilizou-se como plataforma a API WinSock para Windows a fim de proporcionar a comunicação entre processos. Ao final é feita uma análise comparativa das versões desenvolvidas, as quais fizeram uso das técnicas de sincronização acima mencionadas. / The use of simulation tools to validate the design of digital systems is a common practice, due to the benefits these tools bring to the development of those systems: cost, security, velocity, and accuracy. However, the sequential simulation of some systems may take hours or even days, thus creating the need of techniques for speeding up this procedure. A solution for increasing the simulation speed may be the use of techniques based on distributed systems, since very often the real system has an implicit parallelism, which makes easier the aplication of distribution procedures. When dealing with the simulation of distributed systems, one of the big problems that arise is the global control of simulation time, which makes the synchronization among processes very complex. In this work two synchronization paradigms are studied: the optimist and the conservative ones. Based on these paradigms, two techniques for solving the problem of synchronization in the context of multi-level simulation of digital systems have been developed. In these studies, the API WinSock for Windows has been used for supporting the communication between processes. A comparative analysis of the versions we developed, that use the above mentioned synchronization techniques, is also presented.
6

Análise da performance do algoritmo d / Performance analysis of D-algorithm

Dornelles, Edelweis Helena Ache Garcez January 1993 (has links)
A geração de testes para circuitos combinacionais com fan-outs recovergentes é um problema NP-completo. Com o rápido crescimento da complexidade dos circuitos fabricados, a geração de testes passou a ser um sério problema para a indústria de circuitos integrados. Muitos algoritmos de ATPG (Automatic Test Pattern Generation) baseados no algoritmo D, usam heurísticas para guiar o processo de tomada de decisão na propagação n e na justificação das constantes de forma a aumentar sua eficiencia. Existem heurísticas baseadas em medidas funcionais, estruturais e probabilísticas. Estas medidas são normalmente referidas como observabilidade e controlabilidade que fazem parte de um conceito mais geral, a testabilidade. As medidas que o algoritmo utiliza podem ser calculadas apenas uma vez, durante uma etapa de pré-processamento (medidas de testabilidade estáticas - STM's), ou dinamicamente, recalculando estas medidas durante o processamento sempre que elas forem necessárias (medidas de testabilidade dinâmicas — DTM's). Para alguns circuitos, o use de medidas dinâmicas ao invés de medidas estáticas diminui o número de backtrackings pcir vetor gerado. Apesar disto, o tempo total de CPU por vetor aumenta. Assim, as DTM's só devem ser utilizadas quando as STM's não apresentam uma boa performance. Isto pode ser feito utilizando-se as medidas estáticas ate um certo número de backtrackings. Se o padrão de teste não for encontrado, então medidas dinâmicas são utilizadas. Entretanto, a necessário ainda buscar formas de melhorar o processo dinâmico, diminuindo o custo computacional. A proposta original do calculo das DTM's apresenta algumas técnicas, baseadas em selective tracing, com o objetivo de reduzir o custo computacional. Este trabalho analisa o use combinado de heurísticas e propõe técnicas alternativas, na forma das heurísticas de recalculo parcial e recalculo de linhas não free, que visam minimizar o overhead do calculo das DTM's. E proposta ainda a técnica de Pré-implicação que transfere a complexidade do algoritmo para a memória. Isto é feito através de um preprocessamento que armazena informações necessárias para a geração de todos os vetores de teste. De outra forma estas informações teriam de ser calculadas na geração de cada um destes vetores. A implementação do algoritmo D com as várias heurísticas permitiu a realização de um experimento pratico. Isto possibilitou a análise quantitativa da performance do algoritmo D para vários tipos de circuitos e demonstrou a eficiência de uma das heurísticas propostas neste trabalho. / The test generation for combinational circuits that contain reconvergence is a NP-complete problem. With the rapid increase in the complexity of the fabricated circuits, the generation of test patterns poses a serious problem to the IC industry. A number of existing ATPG algorithms based on the D algorithm use heuristics to guide the decision process in the D-propagation and justification to improve the efficiency. The heuristics used by ATPG algorithm are based on structural, functional and probabilistics measures. These measures are commonly referred to as line controllability and observability and they are combined under the , more general notion of testability. The measures used by ATPG algorithms can be computed only once, during a preprocessing stage (static testability measures - STM's) or can be calculated dinamically, updating the testability measures during the test generation process (dymanic testability measures - DTM's). For some circuits, replacing STM's by DTM's decreases the average number of backtrackings per generated vector. Despite these decrease, the total CPU time per generated vector is greater when using DTM's instead of STM's. So, DTM's only must be used if the STM's don't present a good performance. This can be done by STM's until a certain number of backtrackings. If a test pattern has still not been found, then DTM's are used. Therefore, it is yet necessary to search for ways to improve the dynamic process and decrease the CPU time requirements. In the original approach some techniques for reducing the computational overhead of DTM's based on the well-know technique of selective path tracing are presented. In this work, the combined use of heuristics are analised and alternative techniques — the heuristics of partial recalculus and not free lines recalculus — are proposed. These alternative techniques were developed in order to minimize the overhead of the DTM's calculus. It is yet proposed the pre-implication technique which transfers to memory the algorithm complexity. It includes a preprocessing stage which storages all necesary informations to the generation of all test vectors. So, these informations don't need be computed in the generation of each test vector. The implementation of the D-Algorithm with diferent heuristics has possibilited a practical experiment. It was possible to analise the performance of the D-Algorithm on diferent circuit types and to demonstrate the efficiency of one of the proposed heuristics.
7

LAGO : Linguagem de Acesso Global ao sistema AMPLO

Luzzardi, Paulo Roberto Gomes January 1991 (has links)
Este trabalho descreve LAGO - Linguagem de Acesso Global ao sistema AMPLO AMPLO é um ambiente de projeto de sistemas digitais que consiste de uma base de dados orientada a objetos e diversas ferramentas de projeto, como editores de texto, editores gráficos, compiladores e simuladores de sistemas digitais. LAGO é a interface de alto nível de AMPLO, sendo responsável pelo controle de acesso aos recursos do sistema. Através desta interface, os usuários de AMPLO podem ativar funções de administração, gerência de projeto, projeto propriamente dito e consulta a base de dados. O acesso as diversas funções do sistema esta vinculado a classificação do usuário. Um - administrador geral - responsável pelo cadastro de usuários e de grupos de usuários. Grupos de usuários são criados Para realizar projetos, sob a liderança de um - administrador de grupo - Este indicado pelo administrador geral quando da criação do grupo e realiza funções de gerência de grupo e da base de dados associada ao grupo. Usuários - projetistas - tem acesso as funções de ativação de ferramentas (editores de texto, editores gráficos, compiladores e simuladores) e as func6es de administração de tarefas (uma tarefa corresponde a uma transação longa, a nível de banco de dados, por exemplo, a criação de objetos em varias sess6es de edição). A cada tarefa esta associada uma base de dados temporária, privativa do projetista, removida após o término da tarefa. Portanto, a base de dados de AMPLO e dividida em três níveis: base de dados pública, bases de dados por projeto e bases de dados dos projetistas. Permanentemente, LAGO oferece facilidades de consulta a base de dados. Estas funções de consulta estão disponíveis quando o usuário inicializa o sistema ou, posteriormente, pela seleção de uma função de consulta. A navegação pelos objetos da base de dados rode ser feita de forma gráfica ou textual. Na forma gráfica, os objetos são apresentados através de arvores representando os diversos tipos de relacionamentos existentes. Na forma textual, LAGO apresenta listas com nomes de objetos. / This work describes LAGO - a language for accessing the AMPLO system. AMPLO is a design environment of digital systems which is composed of an object oriented data base and of several design tools, such as text editors, graphics editors, compilers and simulators of digital systems LAGO is the high-level interface of AMPLO, and it is responsible for controlling the access to the system's resources. With this interface, the users of AMPLO may activate administratation and, design management functions, data base queries, and design tasks. The access to the several system functions is in accordance to the user classification. A "general administrator" is responsible for creating users and groups of users. Groups of users create designs, under the leadership of a "group administrator", who is indicated by the general administrator when the group is created. The "grou p administrator" has private functions for managing the group and the data base associated to the group. Designers activate design tools as text editors, graphic editors, compilers and simulators. Also they can use task management functions (a task corresponds to a long transaction at the data base level, like the creation of objects in several editing sessions, for example). A temporary data base which is a designer private data base is associated to each task, and is removed at the end of the task. Thus, the data base of AMPLO is divided into three levels: p ublic data base, group data base and designer data base LAGO permanently, offers facilities of data base ueries. These q uery functions are available when the user inicializes the system and later on, when the query function is selected. The navigation through the data base objects can be done in a gra p hical or textual form. In the graphical form, the objects are presented by trees representing the several types of relationships. In the textual form, LAGO presents lists with the name of objects.
8

Gerente de configurações para o ambiente STAR / Configuration manager to STAR framework

Ribeiro, Helena Grazziotin January 1993 (has links)
Este trabalho apresenta os mecanismos de gerencia de configurações para o ambiente STAR. STAR é uma plataforma para o desenvolvimento de ambientes para projetos de circuitos e sistemas eletrônicos que está sendo desenvolvido na Universidade Federal do Rio Grande do Sul em cooperação com o Centro Científico da IBM no Rio de Janeiro. Seus objetos de projeto caracterizam-se como sistemas complexos e são representados através de um modelo de dados hierárquico, que tem por base a composição de objetos. Para expressar a evolução dos objetos de projeto no tempo utiliza-se versões, que mantêm as descrições dos objetos num determinado instante de tempo. O mecanismo de gerência de versões é fortemente relacionado à representação dos dados, suportando as diferentes dimensões que essa representação permite: visões, alternativas e revisões. A utilização de versões associada à composição de objetos faz com que se possa ter diversas possibilidades de descrição para um mesmo sistema complexo, em função da combinação das versões. Para que se possa submeter um objeto de projeto a uma ferramenta, como um simulador, épreciso selecionar versões de modo a obter uma descrição única, que é a sua configuração. A existência de um gerente de configurações dá agilidade a essa tarefa, pois ele oferece recursos para facilitar e tornar mais rápida a construção de configurações, através de manipulação e consultas a informações obtidas junto ao ambiente sobre os objetos de projeto. As configurações no STAR são determinadas a partir do atributo de referência dos componentes ou através da definição de um objeto - configuração. O gerente de configurações proposto para o ambiente neste trabalho suporta o estabelecimento de configurações estáticas, dinâmicas e abertas. Elas podem ser estabelecidas manualmente, através de escolhas do usuário, automaticamente, através da escolha entre um dos critérios pré-estabelecidos, ou de modo semi-automático, através da definição de uma expressão de configuração. Os critérios pré-estabelecidos têm por base a versão corrente e a versão mais recente. A utilização de expressões de configuração permite que se selecione versões com mais objetividade, uma vez que sua construção é feita a partir de características dos objetos, dadas por seus atributos, que permitem restringir as versões selecionadas àquelas cujas características são desejadas. A linguagem que permite a definição de expressões de configuração é um dos recursos estabelecidos que facilitam a tarefa do usuário. Outro recurso provido é a possibilidade de armazenar configurações. Isso torna possível sua reutilização em outros momentos e também por outros objetos, e preserva a flexibilidade de mantê-las como dinâmicas, ou abertas, apesar de já ter-se escolhido versões para complementá-las. Para tanto, tem-se como parte do modelo de dados os objetos-configuração, sobre os quais foram estabelecidas operações de criação, alteração, cópia, remoção, consulta e escolha de objetos. O funcionamento destas operações é a base do processo de configuração. / This work presents the mechanisms for configuration management in the STAR framework. STAR is an electronic design automation framework, under development at the University of Rio Grande do Sul in cooperation with the IBM Rio Scientific Center at Rio de Janeiro, Brazil. The design objects supported are complex systems and they are represented through a hierarchical data model. Versions are used to express the evolution process of design objects. The version management mechanism developed is strongly related with the data representation, and it supports the different dimensions of versions: views, alternatives and revisions. The use of versions associated with composite objects allows the existence of many possibilities of description for the same complex system, as a consequence of different versions combination. When submitting a design object to a design tool, like a simulator, it is necessary to select versions for components in order to obtain a single object description, called the object configuration. A configuration manager offers resources, as manipulation and query on design objects in the framework, to make version selection in configuration construction easy and fast. STAR configurations are established through component reference attributes or through a configuration object definition. The configuration management mechanism developed for the STAR framework in this work supports static, dynamic and open configurations. They are established in a manual, automatic or semi-automatic way. In the manual way, the user is responsible for choosing the selected versions. In the automatic way, it is possible to choose between the current version and the most recent version, which are pre-defined criteria. The user can define and use configuration expressions in a semi-automatic way. These expressions make the version selection objective, due to use of objects attributes, representing objects characteristics in the expression. The use of configuration expressions allows the selection of versions with specific characteristics. A language is available for the definition of configuration expressions. The possibility to store configurations is provided. Configurations may be reused in another time and by other objects. The possibility to store configurations allows them remain either dynamic or open, even if the choose of versions to complement them had been done. To make this possible, configuration objects are integrated in the data model. Operations on configuration objects are: create, update, copy, delete, query and select. These operations are the basis of the configuration process.
9

Gerente de configurações para o ambiente STAR / Configuration manager to STAR framework

Ribeiro, Helena Grazziotin January 1993 (has links)
Este trabalho apresenta os mecanismos de gerencia de configurações para o ambiente STAR. STAR é uma plataforma para o desenvolvimento de ambientes para projetos de circuitos e sistemas eletrônicos que está sendo desenvolvido na Universidade Federal do Rio Grande do Sul em cooperação com o Centro Científico da IBM no Rio de Janeiro. Seus objetos de projeto caracterizam-se como sistemas complexos e são representados através de um modelo de dados hierárquico, que tem por base a composição de objetos. Para expressar a evolução dos objetos de projeto no tempo utiliza-se versões, que mantêm as descrições dos objetos num determinado instante de tempo. O mecanismo de gerência de versões é fortemente relacionado à representação dos dados, suportando as diferentes dimensões que essa representação permite: visões, alternativas e revisões. A utilização de versões associada à composição de objetos faz com que se possa ter diversas possibilidades de descrição para um mesmo sistema complexo, em função da combinação das versões. Para que se possa submeter um objeto de projeto a uma ferramenta, como um simulador, épreciso selecionar versões de modo a obter uma descrição única, que é a sua configuração. A existência de um gerente de configurações dá agilidade a essa tarefa, pois ele oferece recursos para facilitar e tornar mais rápida a construção de configurações, através de manipulação e consultas a informações obtidas junto ao ambiente sobre os objetos de projeto. As configurações no STAR são determinadas a partir do atributo de referência dos componentes ou através da definição de um objeto - configuração. O gerente de configurações proposto para o ambiente neste trabalho suporta o estabelecimento de configurações estáticas, dinâmicas e abertas. Elas podem ser estabelecidas manualmente, através de escolhas do usuário, automaticamente, através da escolha entre um dos critérios pré-estabelecidos, ou de modo semi-automático, através da definição de uma expressão de configuração. Os critérios pré-estabelecidos têm por base a versão corrente e a versão mais recente. A utilização de expressões de configuração permite que se selecione versões com mais objetividade, uma vez que sua construção é feita a partir de características dos objetos, dadas por seus atributos, que permitem restringir as versões selecionadas àquelas cujas características são desejadas. A linguagem que permite a definição de expressões de configuração é um dos recursos estabelecidos que facilitam a tarefa do usuário. Outro recurso provido é a possibilidade de armazenar configurações. Isso torna possível sua reutilização em outros momentos e também por outros objetos, e preserva a flexibilidade de mantê-las como dinâmicas, ou abertas, apesar de já ter-se escolhido versões para complementá-las. Para tanto, tem-se como parte do modelo de dados os objetos-configuração, sobre os quais foram estabelecidas operações de criação, alteração, cópia, remoção, consulta e escolha de objetos. O funcionamento destas operações é a base do processo de configuração. / This work presents the mechanisms for configuration management in the STAR framework. STAR is an electronic design automation framework, under development at the University of Rio Grande do Sul in cooperation with the IBM Rio Scientific Center at Rio de Janeiro, Brazil. The design objects supported are complex systems and they are represented through a hierarchical data model. Versions are used to express the evolution process of design objects. The version management mechanism developed is strongly related with the data representation, and it supports the different dimensions of versions: views, alternatives and revisions. The use of versions associated with composite objects allows the existence of many possibilities of description for the same complex system, as a consequence of different versions combination. When submitting a design object to a design tool, like a simulator, it is necessary to select versions for components in order to obtain a single object description, called the object configuration. A configuration manager offers resources, as manipulation and query on design objects in the framework, to make version selection in configuration construction easy and fast. STAR configurations are established through component reference attributes or through a configuration object definition. The configuration management mechanism developed for the STAR framework in this work supports static, dynamic and open configurations. They are established in a manual, automatic or semi-automatic way. In the manual way, the user is responsible for choosing the selected versions. In the automatic way, it is possible to choose between the current version and the most recent version, which are pre-defined criteria. The user can define and use configuration expressions in a semi-automatic way. These expressions make the version selection objective, due to use of objects attributes, representing objects characteristics in the expression. The use of configuration expressions allows the selection of versions with specific characteristics. A language is available for the definition of configuration expressions. The possibility to store configurations is provided. Configurations may be reused in another time and by other objects. The possibility to store configurations allows them remain either dynamic or open, even if the choose of versions to complement them had been done. To make this possible, configuration objects are integrated in the data model. Operations on configuration objects are: create, update, copy, delete, query and select. These operations are the basis of the configuration process.
10

LAGO : Linguagem de Acesso Global ao sistema AMPLO

Luzzardi, Paulo Roberto Gomes January 1991 (has links)
Este trabalho descreve LAGO - Linguagem de Acesso Global ao sistema AMPLO AMPLO é um ambiente de projeto de sistemas digitais que consiste de uma base de dados orientada a objetos e diversas ferramentas de projeto, como editores de texto, editores gráficos, compiladores e simuladores de sistemas digitais. LAGO é a interface de alto nível de AMPLO, sendo responsável pelo controle de acesso aos recursos do sistema. Através desta interface, os usuários de AMPLO podem ativar funções de administração, gerência de projeto, projeto propriamente dito e consulta a base de dados. O acesso as diversas funções do sistema esta vinculado a classificação do usuário. Um - administrador geral - responsável pelo cadastro de usuários e de grupos de usuários. Grupos de usuários são criados Para realizar projetos, sob a liderança de um - administrador de grupo - Este indicado pelo administrador geral quando da criação do grupo e realiza funções de gerência de grupo e da base de dados associada ao grupo. Usuários - projetistas - tem acesso as funções de ativação de ferramentas (editores de texto, editores gráficos, compiladores e simuladores) e as func6es de administração de tarefas (uma tarefa corresponde a uma transação longa, a nível de banco de dados, por exemplo, a criação de objetos em varias sess6es de edição). A cada tarefa esta associada uma base de dados temporária, privativa do projetista, removida após o término da tarefa. Portanto, a base de dados de AMPLO e dividida em três níveis: base de dados pública, bases de dados por projeto e bases de dados dos projetistas. Permanentemente, LAGO oferece facilidades de consulta a base de dados. Estas funções de consulta estão disponíveis quando o usuário inicializa o sistema ou, posteriormente, pela seleção de uma função de consulta. A navegação pelos objetos da base de dados rode ser feita de forma gráfica ou textual. Na forma gráfica, os objetos são apresentados através de arvores representando os diversos tipos de relacionamentos existentes. Na forma textual, LAGO apresenta listas com nomes de objetos. / This work describes LAGO - a language for accessing the AMPLO system. AMPLO is a design environment of digital systems which is composed of an object oriented data base and of several design tools, such as text editors, graphics editors, compilers and simulators of digital systems LAGO is the high-level interface of AMPLO, and it is responsible for controlling the access to the system's resources. With this interface, the users of AMPLO may activate administratation and, design management functions, data base queries, and design tasks. The access to the several system functions is in accordance to the user classification. A "general administrator" is responsible for creating users and groups of users. Groups of users create designs, under the leadership of a "group administrator", who is indicated by the general administrator when the group is created. The "grou p administrator" has private functions for managing the group and the data base associated to the group. Designers activate design tools as text editors, graphic editors, compilers and simulators. Also they can use task management functions (a task corresponds to a long transaction at the data base level, like the creation of objects in several editing sessions, for example). A temporary data base which is a designer private data base is associated to each task, and is removed at the end of the task. Thus, the data base of AMPLO is divided into three levels: p ublic data base, group data base and designer data base LAGO permanently, offers facilities of data base ueries. These q uery functions are available when the user inicializes the system and later on, when the query function is selected. The navigation through the data base objects can be done in a gra p hical or textual form. In the graphical form, the objects are presented by trees representing the several types of relationships. In the textual form, LAGO presents lists with the name of objects.

Page generated in 0.1078 seconds