• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 22
  • 11
  • 5
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 49
  • 49
  • 22
  • 20
  • 10
  • 8
  • 8
  • 8
  • 8
  • 7
  • 6
  • 5
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Ferramentas e metodologia para consolidação de dados de usinas hidreletricas brasileiras / Tools and methodology for data consolidation from Brazilian hydroelectric plants

Hidalgo, Ieda Geriberto, 1976- 14 August 2018 (has links)
Orientadores: Secundino Soares Filho, João Eduardo Gonçalves Lopes, Marcelo Augusto Cicogna / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-14T06:05:46Z (GMT). No. of bitstreams: 1 Hidalgo_IedaGeriberto_D.pdf: 4414053 bytes, checksum: 69d7171a07cccbc47514404dbb69fb94 (MD5) Previous issue date: 2009 / Resumo: Este trabalho apresenta ferramentas e procedimentos para a consolidação de dados de usinas hidrelétricas brasileiras. O objetivo é melhorar a qualidade dos dados que servem como entrada aos modelos computacionais utilizados no planejamento e na programação da operação energética. Como ferramentas de suporte à aplicação da metodologia, são descritos: o gerenciador de dados HydroData, o construtor de consultas HydroConsulta e o simulador da operação de usinas hidrelétricas HydroSim. A seqüência de procedimentos está dividida em duas etapas: análise da coerência da base de dados e consolidação efetiva das funções. No estudo de caso a metodologia foi aplicada a uma usina hidrelétrica que faz parte do Sistema Interligado Nacional e cuja operação está sob a coordenação e controle do Operador Nacional do Sistema Elétrico. A fim de avaliar os procedimentos, foram feitos estudos de reprodução da operação hidrelétrica, para o curtíssimo e curto prazo, alternando dados oficiais e dados consolidados de acordo com a técnica apresentada. Os resultados mostram que a melhoria da qualidade dos dados, obtida com a aplicação da metodologia proposta, aproxima a operação simulada da operação real. Dessa forma, ela contribui para a eficiência, confiabilidade e análise de desempenho dos modelos computacionais em uso no setor elétrico brasileiro. / Abstract: This work presents tools and procedures for the data consolidation from Brazilian hydroelectric plants. The objective is to improve the quality of the input data to the computational models used in the mid and short term operation planning. As support tool to the application of the methodology, are described: the data manager HydroData, the queries builder HydroConsulta and the simulator of the hydroelectric plants operation HydroSim. The procedures sequence is divided into two steps: analysis of the database coherency and effective consolidation of the functions. In the case study the methodology was applied to a hydroelectric plant which is part of the National Interconnected System and whose operation is under the coordination and control of the Independent System Operator. In order to evaluate the procedures, were made studies of hydroelectric operation reproduction, to the mid and short term, alternating official data and consolidated data in accordance with the technique presented. The results show that the improvement of the data quality, obtained with the application of the proposed methodology, brings the simulated and real operation closer. This way, it contributes to the efficiency, reliability and performance analysis of the computational models in use in the Brazilian electric sector. / Doutorado / Energia Eletrica / Doutor em Engenharia Elétrica
22

Busca de Inibidores Naturais Contra o Veneno de Apis Mellifera / A Search for Natural Inhibithiros Against Apis mellifera Venom

Daniel Macedo de Melo Jorge 31 October 2008 (has links)
Os insetos são os mais numerosos animais encontrados no mundo, com mais de 675 mil espécies conhecidas. Pertencentes à ordem Hymenoptera, da superfamília Apoidea, as abelhas são encontradas distribuídas em aproximadamente 20 mil espécies. No Brasil estima-se que existam 1.700 espécies. Uma das principais espécies é a Apis mellifera, com ocorrência cosmopolita. A Apis mellifera, popularmente conhecida como abelha africanizada, é agressiva, enxameia várias vezes ao ano e utiliza uma grande variedade de locais para nidificar. Esse comportamento aumenta o contato direto entre o inseto e a população, aumentando o número de acidentes. Os acidentes com abelhas representam um problema de saúde pública em diversos países do mundo pela freqüência com que ocorrem e pela mortalidade que ocasionam. O presente estudo propõe a busca por inibidores naturais contra o veneno de abelhas. Um sistema e uma base de dados foram desenvolvidos para a integração entre dados de plantas medicinais antivenenos e os venenos de abelhas. As atividades anti-hemorrágica, anti-proteolítica, anti-miotóxica, antifosfolipase e anti-edema de plantas medicinais antiveneno foram analisadas por meio de ensaios farmacológicos. As possíveis interações entre as toxinas Melitina e Fosfolipase A2 com inibidores foram avaliadas, através do docking virtual. O banco de dados, denominado Bee Venom, foi implementado e os dados de bancos de dados públicos foram inseridos no sistema. O sistema foi liberado para acesso público no endereço eletrônico http://gbi.fmrp.usp.br/beevenom/. Durante a análise da proteína Melitina foram encontradas as regiões da proteína em que os possíveis inibidores devem interagir e identificadas as propriedades químicas que os inibidores devem possuir para interagir corretamente com a Melitina. Nas análises in silico foi possível identificar 10 possíveis inibidores que interagiram corretamente com o sítio ativo da Fosfolipase A2. Algumas espécies do Banco de Germoplasma da FMRP/USP foram obtidas e utilizadas nos experimentos de atividade fosfolipásica indireta e de Edema, sendo possível observar inibição do veneno total e da proteína Fosfolipase A2. Os compostos sintéticos e inibidores avaliados não causaram inibição em todos os experimentos avaliados. Já as plantas obtidas no laboratório de Toxinas Animais e Inibidores Naturais e Sintéticos causaram inibição do veneno total e da proteína Fosfolipase A2. / Insects are the most numerous animals worldwide, with more than 675 thousand known species. Belonging to Hymenoptera order, Apoidea, superfamily, bees are found distributed in approximately 20 thousand species. In Brazil there are about 1,700 species. One of the major species is Apis mellifera, with cosmopolitan occurrence. Apis mellifera, popularly known as Africanized bee, is aggressive, swarm several times per year and uses a great variety of locals to nidificate. This behavior raises the contact between the insect and the population, increasing the accidents numbers. Bee accidents represent a public health problem in many countries because of their frequency and mortality. The present study proposes to search for natural inhibitors of bee venom. A system and a data base have been developed to integrate anti-venom medicinal plants data and bee venoms. Plants activities against venom have been evaluated by farmacological assays, such as anti-hemorraghic, anti-proteolitic, anti-myotoxicity, anti-Phospholipase and anti-edema. The possible interactions between Melittin and Phospholipase A2 toxins with inhibitors have been evaluated by virtual docking. The data base, denominated Bee Venom, was implemented and the data from public data bases have been inserted in the system. The system was released to public access in the following address http://gbi.fmrp.usp.br/beevenom/. In Melittin analysis the protein regions which the inhibitors may act have been found and also the chemical properties that the inhibitors must have to interact with Melitina have been identified. During in silico analysis it was possible to identify 10 possible inhibitors that interacted well with Phospholipase A2 active site. Some plants species from FMRP/USP Germoplam Bank have been obtained and used in the indirect Phospholipase activity and edema, being possible to observe inhibitions of total venom and Phospholipase A2 protein. The synthetic compounds and inhibitors evaluated did not cause inhibition in any experiments. However, the plants obtained on Animals Toxins and Natural and synthetic Inhibitors laboratory have caused inhibition of total venom and Phospholipase A2 protein.
23

Análise cientométrica das práticas científicas na área de solos / Bibliometric analysis of scientific activity in bioprospection (1986-2006)

Lima, Ricardo Arcanjo de, 1981- 12 April 2012 (has links)
Orientadores: Lea Maria Leme Strini Velho, Leandro Innocentini Lopes de Faria / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Geociencias / Made available in DSpace on 2018-08-21T20:39:47Z (GMT). No. of bitstreams: 1 Lima_RicardoArcanjode_D.pdf: 3362296 bytes, checksum: 6c06e52f2ce3174ff33ceda90aa4aebe (MD5) Previous issue date: 2012 / Resumo: A Ciência do Solo seguiu um longo caminho na sua evolução de uma disciplina com fortes raízes na Geologia para uma área com forte aplicação agrícola e ambiental e, nas últimas décadas, viveu uma situação de grande incerteza: em todo o mundo houve queda de investimentos na área, com consequente redução do interesse do governo e da sociedade pelos solos e pela agricultura. No entanto, identifica-se atualmente um novo período de interesse e de crescimento da área de solos com foco em questões de agricultura, segurança alimentar, produção de fibras e energia renovável, além dos serviços ambientais. Tendo em vista essa percepção de renascimento da disciplina, esta tese tem como objetivo principal analisar a dinâmica da atividade científica da área em uma região específica (América Latina), através do tratamento cientométrico em registros indexados na base de dados Scopus, contribuindo para as atividades de investigação científica e tecnológica e aportando indicadores para o estudo da produção, colaboração científica e impacto nesta disciplina. No estudo foram recuperados, através de processo de delimitação da área na base Scopus, registros relativos ao período de 1999-2010, 1983-2012 e 1975-2009 que, após tratamento bibliométrico, geraram indicadores que permitiram caracterizar a evolução temporal da produção de artigos científicos, a contribuição por área temática, países, instituições e suas relações através da co-autoria. O estudo aponta para uma disciplina consolidada e que vem ganhando espaço no cenário internacional com contribuição científica relevante para os desafios globais. Contudo, a dinâmica da área está concentrada nas principais economias da região, o que explicita a urgência do estabelecimento de políticas visando à solução de gargalos como integração regional e o fortalecimento dos países que apresentaram atividade científica débil / Abstract: The Soil Sciences have trailed a long path in its evolution from a discipline with strong roots in geology to an area with strong environmental and agricultural applications and, in recent decades, it has experienced a situation of great uncertainty: worldwide there has been a significant decrease of investments in the area reflecting a reduction of governmental interest in soils and agriculture. A new period of growth and interest in the area of soils, however, can be clearly identified. One that is focused on questions relating to agriculture, food security, fiber production and renewable energy, in addition to environmental services. With this revival of the discipline in mind, this thesis seeks mainly to analyze the dynamics of the area's scientific activity in a specific region (Latin America) through the scientometric treatment of records indexed in the Scopus database, contributing to scientific and technological research and providing support to indicators for the study of production, scientific collaboration and impact in this discipline. Though the process of delimitation of the area in the Scopus database, this study retrieved records for the period 1999-2010, 1983-2012 and 1975-2009, which, after bibliometric treatment, generated indicators that enabled the characterization of the temporal evolution of scientific article production, the contribution by subject area, country, institution and their relationships through co-authoring. The study points to a consolidated discipline that has been gaining ground in the international arena with important scientific contributions to global challenges. The dynamics of the area, however, are concentrated in the major economies of the region. This makes urgent the establishment of policies aimed at solving bottleneck, such as regional integration and the strengthening of countries with weak scientific activity / Doutorado / Politica Cientifica e Tecnologica / Doutor em Política Científica e Tecnológica
24

Evolução de esquemas em bancos de dados orientados a objetos utilizando versões / Schema evolution in object oriented data bases using versions

Fornari, Miguel Rodrigues January 1993 (has links)
Este trabalho apresenta um mecanismo para evolução de esquemas para bancos de dados orientados a objetos. A necessidade de alteração do esquema conceitual de dados pode surgir em qualquer momento da vida de um sistema, por motivos como incorporar novas especificações e necessidades do usuário, reaproveitamento de classes em outros sistemas a correção de falhas de modelagem. Uma ferramenta deste tipo deve permitir ao usuário a maior variedade possível de alterações e, ao mesmo tempo, possibilitar um alto grau de independência lógica de dados, para reduzir ao máximo possível a necessidade de alteração dos programas de aplicação que utilizam o esquema. O modelo de dados utilizado está baseado nos modelos de outros sistemas orientados a objetos, como Orion é O2. Ele permite a definição de classes, atributos simples e construídos pelo usuário, métodos, como forma de encapsular os objetos e herança múltipla de atributos e métodos para subclasses. Além disso, para manter o histórico de modificações realizadas, versões de instâncias, classes e métodos são utilizadas. Versões de um objeto formam um grafo acíclico, sendo a versão mais recente a "default". Como forma de manter a coerência no uso de versões de diferentes objetos, o conceito de contextos de esquemas é definido. A proposta baseia-se no conceito de invariantes, condições básicas para a base de dados ser considerada válida e consistente pelo sistema. Invariantes estruturais e comportamentais são definidos e mantidos. Diversas operações que podem ser realizadas sobre um esquema são descritas, detalhando para cada uma as suas opções e efeitos. Alguns mecanismos auxiliares para aumentar a transparência de alterações de esquemas são esboçados. Como uma aplicação específica do mecanismo genérico apresentado, outro é desenvolvido para o ambiente STAR. Seu modelo de dados e os gerentes de versões e metodologia são explicados, tendo suas características mais relevantes para este trabalho detalhadas. Tomando o esquema de objeto como um esquema de dados e as tarefas do gerente de metodologias como métodos, o mecanismo também se baseia em invariantes que são utilizados para validar a correção das modificações realizadas, cuja semântica está descrita detalhadamente. O mecanismo definido revelou-se extremamente flexível e capaz de manter não só o histórico do desenvolvimento de determinada aplicação, como também alternativas de um mesmo sistema que esteja sendo construído utilizando um banco de dados orientado a objetos, tendo atendido satisfatoriamente aos requisitos básicos definidos inicialmente. / This work presents a schema evolution mechanism, based on an object oriented data model. Conceptual schema modifications are needed al any moment in the life cycle of a system, for example, to incorporate new specifications and users' solicitations, to reuse classes developed for other system and to correct modeling errors. This mechanism has to allow a great number of different operations and, at the same time, a high data logic independence to reduce the number of changes in applications programs. For this proposal we are considering an object oriented data model, similar to those existing in Orion and O2. Class definitions, simple attributes and attributes constructed by the user, methods to encapsulate objects and multiple inheritance of attributes and methods to subclasses are allowed. Instances, classes and methods are versionable. Connected directed acyclic graphs organize the versions of an object. There is one current version, which either is the most recent (the default) or one defined by the user. Schema contexts are introduced to keep track of the correspondence that exists among all the versions created, assuring the selection of a method version adequate for a version instance. The mechanism is based on schema invariants, that are basic conditions that always must be satisfied in order to insure that the schema is in a correct state. Structural and behavioral invariants are defined and checked by the system. The designer can use a complete set of operations to change the schema. The semantic of all operations is described, with its options and effects. Some auxiliary mechanisms are incorporated to facilitate schema change transparency. As an application, a generic mechanism for schema evolution is developed to the STAR framework. The data model, version and methodology managers of STAR are explained. The mechanism is based on invariants to validated changes considering an object schema as conceptual schema. and the methodology manager tasks like methods. The mechanism is extremely flexible and capable of maintaining the history of schema development and alternatives of classes ; methods and instances' descriptions. The previously defined characteristics are allowed in a satisfactorily way, resulting in a very useful tool for software design.
25

Détermination spectroscopique automatique de paramètres atmosphériques stellaires / Automatic spectroscopic determination of stellar atmospheric parameters

Wu, Yue 28 June 2011 (has links)
Les études Galactiques nécessitent de grands échantillons d'étoiles dont la masse, l'âge, les abondances, la vitesse et la distance sont connues. Les observations spectroscopiques permettent de mesurer certains de ces paramètres et les autres sont soit déterminés par d'autres moyens, ou dérivés par le calcul. Le besoin d'échantillons statistiquement représentatifs a motivé la construction d'instruments, et la réalisation de grands relevés comme le SDSS, LAMOST et GAIA... Ces projets génèrent une énorme quantité de données que les méthodes d'analyse interactives traditionnelles ne peuvent pas gérer. Cela a motivé des efforts pour concevoir des méthodes automatiques. Mon travail a commencé dans ce contexte, et les objectifs étaient de développer et tester une méthode automatique, puis de l'appliquer à des spectres stellaires à moyenne résolution. La thèse comporte quatre sections : 1. Je présente le package informatique ULySS, et en particulier son application à la détermination des paramètres atmosphériques des étoiles. 2. Nous avons utilisé ULySS pour déterminer les paramètres atmosphériques des 1273 étoiles de la bibliothèque CFLIB. 3. Nous avons appliqué la même méthode sur des observations obtenus pendant la mise en service de LAMOST et nous avons préparé une base de données de spectres de références pour les relevés futurs avec cet instrument. 4. Nous avons cherché des étoiles présumées pauvres en métaux (MP) en se servant des données de vérification scientifique de LAMOST. Cette étude contribue à l'étude des étoiles MP dans la Voie Lactée et montre la faisabilité de ces recherches avec LAMOST et ULySS / Galactic studies require large samples of stars with known mass, age, abundance, spatial velocity and distance etc. Spectroscopic observations allow ones to measure some of these parameters and to derive the others. The need for statistically representative samples motivated the construction of instruments and the realization of large surveys like SDSS, LAMOST and GAIA... These projects bring an enormous quantity of data that the traditional interactive spectral analysis methods cannot handle. This triggered efforts to design automatic methods. My work started in this context, and the goals were to develop and test an automatic method and to apply it to medium resolution stellar spectra. The thesis contains four sections: 1. The ULySS package, and in particular its application to the determination of the atmospheric parameters of stars is presented. 2. We used ULySS to determine the atmospheric parameters of the 1273 stars of the CFLIB library. 3. We applied the same method on LAMOST commissioning observations and we prepared stellar spectral templates for the future surveys. 4. We searched new metal-poor (hearafter MP) stellar candidates from LAMOST commissioning observations. The result of these MP star candidates is a prelude to the feasibility of LAMOST's capability on searching and enlarging the sample of MP stars in the Milky Way
26

Metodologías de calibración de bases de datos de reanálisis de clima marítimo

Tomás Sampedro, Antonio 26 June 2009 (has links)
En esta tesis se propone y desarrolla una completa metodología de calibración de bases de datos de reanálisis de oleaje, en la que se que define el tratamiento de los datos disponibles más adecuado para la información que es necesario caracterizar, particularizado a cada caso concreto de diseño de una obra marítima.En una primera clasificación general se divide en calibraciones puntuales y espaciales. Las metodologías de calibración puntual se utilizan cuando existe información instrumental para calibrar los datos de reanálisis en una posición con un clima marítimo similar, en profundidades indefinidas, al de la localización de la obra en estudio. En cambio, se ha definido una metodología de calibración espacial para calibrar los datos de reanálisis en una zona, a partir de la información instrumental de otras zonas con diferentes climas marítimos al de la localización de la obra en estudio.Todas las metodologías de calibración han sido aplicadas al ámbito costero español, calibrando la base de datos de reanálisis SIMAR-44 (Organismo Público Puertos del Estado) con información instrumental (boyas y satélites). / This thesis proposes and develops a complete calibration methodology of wave hindcast databases, in which it is defined how to right process the available data for the information that it is necessary to characterize, as a function of the individual case of coastal structure design.In a first general classification, the methodology is composed by point-to-point and spatial calibration. The point-to-point calibration methodologies are used when there is instrumental data to calibrate hindcast data in a position where the wave climate is similar to the study location. Instead, we have defined a spatial calibration to calibrate the hincast data in an area, with instrumental data from other position that have different wave climate to the location under study.All calibration methodologies have been applied to the Spanish coastal area, it is calibrated the SIMAR-44 hindcast database (Spanish National Ports and Harbours Authority, OPPE) with instrumental data (buoys and satellites).
27

Optimisation des requêtes distribuées par apprentissage / Learning-based distributed query optimization

Martinez Medina, Lourdes 07 January 2014 (has links)
Les systèmes de gestion de données distribuées deviennent de plus en plus complexes. Ils interagissent avec des réseaux de dispositifs fixes et/ou mobiles, tels que des smartphones ou des tablettes, dispositifs hétérogènes, autonomes et possédant des limitations physiques. Ces dispositifs exécutent des applications permettant l'interaction des usagers (i.e. jeux virtuels, réseaux sociaux). Ces applications produisent et consomment des données à tout moment voire même en continu. Les caractéristiques de ces systèmes ajoutent des dimensions au problème de l'optimisation de requêtes, telles que la variabilité des objectifs d'optimisation, l'absence d'information sur les données (métadonnées) ou le manque d'une vision globale du système. Les techniques traditionnelles d'optimisation des requêtes n'abordent pas (ou très peu) les systèmes autonomes. Elles se basent sur les métadonnées et font des hypothèses très fortes sur le comportement du système. En plus, la majorité de ces techniques d'optimisation ciblent uniquement l'optimisation du temps d'exécution. La difficulté d'évaluation des requêtes dans les applications modernes incite à revisiter les techniques traditionnelles d'optimisation. Cette thèse fait face aux défis décris précédemment par l'adaptation du paradigme du Raisonnement à partir de cas (CBR pour Case-Based Reasoning) au problème de l'optimisation des requêtes. Cette adaptation, associée à une exploration pseudo-aléatoire de l'espace de solutions fournit un moyen pour optimiser des requêtes dans les contextes possédant très peu voire aucune information sur les données. Cette approche se concentre sur l'optimisation de requêtes en utilisant les cas générés précédemment dans l'évaluation de requêtes similaires. Un cas de requête et composé par : (i) la requête (le problème), (ii) le plan d'exécution (la solution) et (iii) les mesures de ressources utilisés par l'exécution du plan (l'évaluation de la solution). Cette thèse aborde également la façon que le processus CBR interagit avec le processus de génération de plan d'exécution de la requête qui doit permettre d'explorer l'espace des solutions. Ce processus utilise les heuristiques classiques et prennent des décisions de façon aléatoire lorsque les métadonnées viennent à manquer (e.g. pour l'ordre des jointures, la sélection des algorithmes, voire même le choix des protocoles d'acheminement de messages). Ce processus exploite également le CBR pour générer des plans pour des sous-requêtes, accélérant ainsi l'apprentissage de nouveaux cas. Les propositions de cette thèse ont été validées à l'aide du prototype CoBRA développé dans le contexte du projet UBIQUEST. / Distributed data systems are becoming increasingly complex. They interconnect devices (e.g. smartphones, tablets, etc.) that are heterogeneous, autonomous, either static or mobile, and with physical limitations. Such devices run applications (e.g. virtual games, social networks, etc.) for the online interaction of users producing / consuming data on demand or continuously. The characteristics of these systems add new dimensions to the query optimization problem, such as multi-optimization criteria, scarce information on data, lack of global system view, among others. Traditional query optimization techniques focus on semi (or not at all) autonomous systems. They rely on information about data and make strong assumptions about the system behavior. Moreover, most of these techniques are centered on the optimization of execution time only. The difficulty for evaluating queries efficiently on nowadays applications motivates this work to revisit traditional query optimization techniques. This thesis faces these challenges by adapting the Case Based Reasoning (CBR) paradigm to query processing, providing a way to optimize queries when there is no prior knowledge of data. It focuses on optimizing queries using cases generated from the evaluation of similar past queries. A query case comprises: (i) the query, (ii) the query plan and (iii) the measures (computational resources consumed) of the query plan. The thesis also concerns the way the CBR process interacts with the query plan generation process. This process uses classical heuristics and makes decisions randomly (e.g. when there are no statistics for join ordering and selection of algorithms, routing protocols). It also (re)uses cases (existing query plans) for similar queries parts, improving the query optimization, and therefore evaluation efficiency. The propositions of this thesis have been validated within the CoBRa optimizer developed in the context of the UBIQUEST project .
28

Evolução de esquemas em bancos de dados orientados a objetos utilizando versões / Schema evolution in object oriented data bases using versions

Fornari, Miguel Rodrigues January 1993 (has links)
Este trabalho apresenta um mecanismo para evolução de esquemas para bancos de dados orientados a objetos. A necessidade de alteração do esquema conceitual de dados pode surgir em qualquer momento da vida de um sistema, por motivos como incorporar novas especificações e necessidades do usuário, reaproveitamento de classes em outros sistemas a correção de falhas de modelagem. Uma ferramenta deste tipo deve permitir ao usuário a maior variedade possível de alterações e, ao mesmo tempo, possibilitar um alto grau de independência lógica de dados, para reduzir ao máximo possível a necessidade de alteração dos programas de aplicação que utilizam o esquema. O modelo de dados utilizado está baseado nos modelos de outros sistemas orientados a objetos, como Orion é O2. Ele permite a definição de classes, atributos simples e construídos pelo usuário, métodos, como forma de encapsular os objetos e herança múltipla de atributos e métodos para subclasses. Além disso, para manter o histórico de modificações realizadas, versões de instâncias, classes e métodos são utilizadas. Versões de um objeto formam um grafo acíclico, sendo a versão mais recente a "default". Como forma de manter a coerência no uso de versões de diferentes objetos, o conceito de contextos de esquemas é definido. A proposta baseia-se no conceito de invariantes, condições básicas para a base de dados ser considerada válida e consistente pelo sistema. Invariantes estruturais e comportamentais são definidos e mantidos. Diversas operações que podem ser realizadas sobre um esquema são descritas, detalhando para cada uma as suas opções e efeitos. Alguns mecanismos auxiliares para aumentar a transparência de alterações de esquemas são esboçados. Como uma aplicação específica do mecanismo genérico apresentado, outro é desenvolvido para o ambiente STAR. Seu modelo de dados e os gerentes de versões e metodologia são explicados, tendo suas características mais relevantes para este trabalho detalhadas. Tomando o esquema de objeto como um esquema de dados e as tarefas do gerente de metodologias como métodos, o mecanismo também se baseia em invariantes que são utilizados para validar a correção das modificações realizadas, cuja semântica está descrita detalhadamente. O mecanismo definido revelou-se extremamente flexível e capaz de manter não só o histórico do desenvolvimento de determinada aplicação, como também alternativas de um mesmo sistema que esteja sendo construído utilizando um banco de dados orientado a objetos, tendo atendido satisfatoriamente aos requisitos básicos definidos inicialmente. / This work presents a schema evolution mechanism, based on an object oriented data model. Conceptual schema modifications are needed al any moment in the life cycle of a system, for example, to incorporate new specifications and users' solicitations, to reuse classes developed for other system and to correct modeling errors. This mechanism has to allow a great number of different operations and, at the same time, a high data logic independence to reduce the number of changes in applications programs. For this proposal we are considering an object oriented data model, similar to those existing in Orion and O2. Class definitions, simple attributes and attributes constructed by the user, methods to encapsulate objects and multiple inheritance of attributes and methods to subclasses are allowed. Instances, classes and methods are versionable. Connected directed acyclic graphs organize the versions of an object. There is one current version, which either is the most recent (the default) or one defined by the user. Schema contexts are introduced to keep track of the correspondence that exists among all the versions created, assuring the selection of a method version adequate for a version instance. The mechanism is based on schema invariants, that are basic conditions that always must be satisfied in order to insure that the schema is in a correct state. Structural and behavioral invariants are defined and checked by the system. The designer can use a complete set of operations to change the schema. The semantic of all operations is described, with its options and effects. Some auxiliary mechanisms are incorporated to facilitate schema change transparency. As an application, a generic mechanism for schema evolution is developed to the STAR framework. The data model, version and methodology managers of STAR are explained. The mechanism is based on invariants to validated changes considering an object schema as conceptual schema. and the methodology manager tasks like methods. The mechanism is extremely flexible and capable of maintaining the history of schema development and alternatives of classes ; methods and instances' descriptions. The previously defined characteristics are allowed in a satisfactorily way, resulting in a very useful tool for software design.
29

Evolução de esquemas em bancos de dados orientados a objetos utilizando versões / Schema evolution in object oriented data bases using versions

Fornari, Miguel Rodrigues January 1993 (has links)
Este trabalho apresenta um mecanismo para evolução de esquemas para bancos de dados orientados a objetos. A necessidade de alteração do esquema conceitual de dados pode surgir em qualquer momento da vida de um sistema, por motivos como incorporar novas especificações e necessidades do usuário, reaproveitamento de classes em outros sistemas a correção de falhas de modelagem. Uma ferramenta deste tipo deve permitir ao usuário a maior variedade possível de alterações e, ao mesmo tempo, possibilitar um alto grau de independência lógica de dados, para reduzir ao máximo possível a necessidade de alteração dos programas de aplicação que utilizam o esquema. O modelo de dados utilizado está baseado nos modelos de outros sistemas orientados a objetos, como Orion é O2. Ele permite a definição de classes, atributos simples e construídos pelo usuário, métodos, como forma de encapsular os objetos e herança múltipla de atributos e métodos para subclasses. Além disso, para manter o histórico de modificações realizadas, versões de instâncias, classes e métodos são utilizadas. Versões de um objeto formam um grafo acíclico, sendo a versão mais recente a "default". Como forma de manter a coerência no uso de versões de diferentes objetos, o conceito de contextos de esquemas é definido. A proposta baseia-se no conceito de invariantes, condições básicas para a base de dados ser considerada válida e consistente pelo sistema. Invariantes estruturais e comportamentais são definidos e mantidos. Diversas operações que podem ser realizadas sobre um esquema são descritas, detalhando para cada uma as suas opções e efeitos. Alguns mecanismos auxiliares para aumentar a transparência de alterações de esquemas são esboçados. Como uma aplicação específica do mecanismo genérico apresentado, outro é desenvolvido para o ambiente STAR. Seu modelo de dados e os gerentes de versões e metodologia são explicados, tendo suas características mais relevantes para este trabalho detalhadas. Tomando o esquema de objeto como um esquema de dados e as tarefas do gerente de metodologias como métodos, o mecanismo também se baseia em invariantes que são utilizados para validar a correção das modificações realizadas, cuja semântica está descrita detalhadamente. O mecanismo definido revelou-se extremamente flexível e capaz de manter não só o histórico do desenvolvimento de determinada aplicação, como também alternativas de um mesmo sistema que esteja sendo construído utilizando um banco de dados orientado a objetos, tendo atendido satisfatoriamente aos requisitos básicos definidos inicialmente. / This work presents a schema evolution mechanism, based on an object oriented data model. Conceptual schema modifications are needed al any moment in the life cycle of a system, for example, to incorporate new specifications and users' solicitations, to reuse classes developed for other system and to correct modeling errors. This mechanism has to allow a great number of different operations and, at the same time, a high data logic independence to reduce the number of changes in applications programs. For this proposal we are considering an object oriented data model, similar to those existing in Orion and O2. Class definitions, simple attributes and attributes constructed by the user, methods to encapsulate objects and multiple inheritance of attributes and methods to subclasses are allowed. Instances, classes and methods are versionable. Connected directed acyclic graphs organize the versions of an object. There is one current version, which either is the most recent (the default) or one defined by the user. Schema contexts are introduced to keep track of the correspondence that exists among all the versions created, assuring the selection of a method version adequate for a version instance. The mechanism is based on schema invariants, that are basic conditions that always must be satisfied in order to insure that the schema is in a correct state. Structural and behavioral invariants are defined and checked by the system. The designer can use a complete set of operations to change the schema. The semantic of all operations is described, with its options and effects. Some auxiliary mechanisms are incorporated to facilitate schema change transparency. As an application, a generic mechanism for schema evolution is developed to the STAR framework. The data model, version and methodology managers of STAR are explained. The mechanism is based on invariants to validated changes considering an object schema as conceptual schema. and the methodology manager tasks like methods. The mechanism is extremely flexible and capable of maintaining the history of schema development and alternatives of classes ; methods and instances' descriptions. The previously defined characteristics are allowed in a satisfactorily way, resulting in a very useful tool for software design.
30

Um modelo discricionário de delegação e revogação / A discretionary model of delegation and revocation

Negrello, Fabio 14 May 2007 (has links)
Orientador: Jacques Wainer / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-08T19:38:38Z (GMT). No. of bitstreams: 1 Negrello_Fabio_M.pdf: 913255 bytes, checksum: eed18216c9a5ecc1e0eadf834fed5bc5 (MD5) Previous issue date: 2007 / Resumo: Esta dissertação apresenta um modelo discricionário de delegação que permite controlar a formação de cadeias de delegações, tanto através da limitação no comprimento de tais cadeias, como através da definição de condições para utilização e aceitação de novas delegações. Juntamente com o mecanismo de delegação proposto, é apresentado um mecanismo de revogação que considera o máximo comprimento de cada cadeia de delegações, e a relação de força entre delegações, permitindo assim que os sujeitos existentes permaneçam com o maior conjunto de direitos após uma revogação. Uma das principais vantagens em relação à definição de condições associadas à cada delegação é possibilidade de reforçar restrições por conteúdo e contexto. Enquanto o controle de acesso por conteúdo permite que o acesso a determinado objeto, ou recurso, seja controlado com base em atributos e características do próprio objeto em questão, o controle de acesso por contexto considera características de contexto relativas ao sistema como um todo, ou referentes ao contexto em que o usuário solicitou determinado acesso. Será apresentado um mecanismo que permite a utilização deste tipo de informação na definição de condições em delegações. Será apresentado um mecanismo para definição de proibições, que torna possível proibir que usuários utilizem determinadas direitos, mesmo que estes usuários tenham recebido, tais direitos através de delegaçõesde outros usuários do sistema. Através da utilização de condições também é possível a definição de delegações temporais, que são delegações que devem ser consideradas válidas somente durante determinados períodos de tempo, ou enquanto condições de dependência em relação a outras delegações forem atendidas, como será discutido. Finalmente, será apresentado um arcabouço de um servidor de autorizações, que permitiu avaliar o modelo proposto. Neste arcabouço foram implementados os principais algoritmos apresentados, e foi formulada uma arquitetura unificada para criação e revogação de delegações, bem como para verificação de autorizações / Abstract: This thesis presents a model of delegation that makes it possible to control the creation of delegation chains, both by limiting the lenght of such chains, and by defining restrictions for the use and acceptance of new delegations. Together with the proposed delegation mechanism, it is presented a revocation mechanism that considers the maximum length of each delegation chain, and the strength relation between delegations, allowing the existing subjects to retain the maximum set of rights after a revocation. One of the biggest advantages regarding the definition of conditions associated with each delegation is the possibility of enforcing context and content based restrictions. While the content based access control allows the access to a specific object to be controlled based on its attributes and characteristics, the context based access control considers context information related to the system as a whole, or regarding the context in which a user made an access request. It will be presented a mechanism that allows the use of this type of information in the definition of conditions in delegations. A prohibition mechanism will be presented, which prevents users from using certain rights, even though these users have received such rights through other users delegations. As it will be discussed, it is also possible, through the use of conditions, to define temporal delegations, which are delegations that must be considered valid only during specific periods of time, or while dependency condition regarding other delegations are met. Finally, it will be presented a prototype of an authorization server, that was used to validate the proposed model. In this prototype, the main algorithms were implemented, and a unified architecture was formulated both for the creation and recation of delegations, as well as for the verification of authorizations / Mestrado / Mestre em Ciência da Computação

Page generated in 0.048 seconds