• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 33
  • 12
  • Tagged with
  • 46
  • 27
  • 27
  • 24
  • 19
  • 19
  • 19
  • 16
  • 13
  • 8
  • 7
  • 7
  • 7
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

CONCEPTION ET REALISATION D'UN GLANEUR DE CELLULES ADAPTE AUX SGBDO CLIENT-SERVEUR /

AMSALEG, LAURENT. VALDURIEZ, P.. January 1995 (has links)
Thèse de doctorat : SCIENCES APPLIQUEES : Paris 6 : 1995. / 1 microfiche de 392 images ; 105x148 mm. Microed. du texte dactylogr. 1995PA066246. 81 REF.
22

[en] PARTITIONING AS A TUNING ACTION FOR RELATIONAL DATABASES / [pt] PARTICIONAMENTO COMO AÇÃO DE SINTONIA FINA EM BANCOS DE DADOS RELACIONAIS

ANTONY SEABRA DE MEDEIROS 27 July 2017 (has links)
[pt] As principais estratégias de sintonia fina utilizadas por administradores de bancos de dados relacionais são a construção de estruturas de acesso, como índices, índices parciais e visões materializadas, e técnicas como desnormalização e reescrita de consultas. Estas técnicas e estruturas de acesso, juntas ou separadas, podem melhorar o desempenho das consultas submetidas ao banco de dados. O particionamento de tabelas do banco de dados, técnica tradicionalmente utilizada para distribuição de dados, também possui potencial para sintonia fina, pois permite que a varredura das tabelas seja realizada somente nas partições que satisfazem os predicados das consultas. Mesmo em consultas com predicados de seletividade alta, cujos planos de execução frequentemente utilizam índices, o particionamento pode oferecer um benefício ainda maior. Esta dissertação de mestrado propõe avaliar o particionamento como ação de sintonia fina de bancos de dados relacionais e, para tanto, desenvolve heurísticas para seleção de estratégias de particionamento e avaliação do seu benefício. Uma avaliação da qualidade dos resultados obtidos é realizada através de experimentos com um benchmark padrão para este tipo de pesquisa e mostramos que, em certos casos, é vantajoso particionar dados. / [en] The main fine tuning strategies used by relational database administrators are the construction of access structures, such as indexes, partial indexes and materialized views, and techniques such as denormalization and query rewriting. These techniques and access structures, together or separately, can improve the performance of queries submitted to the database. Database partitioning, a technique traditionally used for data distribution, has also the potential for fine tuning, since it allows the scanning of tables to be performed only on partitions that satisfy query predicates. Even in queries with high selectivity predicates, whose execution plans often use indexes, partitioning can offer even greater benefit. This dissertation proposes to evaluate the partitioning as a fine tuning action of relational databases and, for that, develops heuristics for selection of partitioning strategies and evaluation of its benefit. An evaluation of the quality of the results obtained is carried out through experiments with a standard benchmark for this type of research and we have shown that, in certain cases, it is advantageous to partition data.
23

Backup markup language (BKPML) : uma proposta para interoperabilidade e padronização de backup de dados

Pereira Teles Júnior, Namedin 31 January 2011 (has links)
Made available in DSpace on 2014-06-12T15:56:49Z (GMT). No. of bitstreams: 2 arquivo2997_1.pdf: 2902249 bytes, checksum: 0400469daafc0cecd48c85c7dffb770d (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2011 / O atual modelo de negócios de uma empresa moderna está cada vez mais dependente das tecnologias e dos sistemas de informação. Com isso, é necessário que se mantenha os dados protegidos através de uma cópia segurança, conhecida como backup, que garantirá a restauração e migração dos dados quando necessário. Além disso, é comum uma empresa adotar mais de um Sistema de Gerenciamento de Banco de Dados (SGBD) para armazenamento dos dados, gerando ambientes heterogêneos e dificultando a interoperabilidade entre os sistemas quando necessário. Isso porque os SGBD existentes realizam backup, restauração e migração dos dados sob tecnologias específicas e limitadas como (Oracle, Sqlserver, Mysql), não permitindo a restauração dos dados em outros SGBD, somente no seu ambiente de origem. Nesse contexto, este trabalho propõe o desenvolvimento de uma estrutura padrão para os arquivos de backup, utilizando a linguagem de marcação eXtensible Markup Language (XML), denominada como Backup Markup Language (BKPML). A BKPML tem por objetivo desvincular a dependência dos arquivos de backup de sua fonte de origem, possibilitando manter a interoperabilidade necessária entre SGBD heterogêneos através dos arquivos de backup, e a transformação dos dados para arquivos secundários, como TEXTO, EXCEL, JavaScript Object Notation (JSON), YAML Ain t Markup Language (YAML), Comma-Separated Values (CSV) e XML. Para isso, foi necessário o desenvolvimento de uma ferramenta responsável por administrar os arquivos BKPML gerados. Como proposta de armazenamento seguro, além do armazenamento local, este trabalho utiliza Cloud Computing como alternativa para armazenamento dos arquivos BKPML
24

DBSitter: um sistema inteligente para gerencimaneto de SGBD

CAVALCANTI, Adriana Paula Carneiro January 2005 (has links)
Made available in DSpace on 2014-06-12T16:01:04Z (GMT). No. of bitstreams: 2 arquivo7153_1.pdf: 903355 bytes, checksum: e6aa02fcba980e15c94c511fcd0918d5 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2005 / Analisando o trabalho diário dos Administradores de Banco de Dados (ABD) percebemos que vários tipos de problemas (e.g. ajustes de desempenho, segurança e dimensionamento físico) podem ocorrer de forma repetitiva. Apesar disto, os profissionais costumam esquecer com freqüência a melhor solução empregada para cada problema, principalmente quando estão trabalhando sob intensa pressão. Lembrar da solução correta poderá demorar muito mais do que o previsto e comprometer a qualidade do serviço prestado. Em sua maioria os produtos para gerenciamento e monitoração de Sistemas Gerenciadores de Banco de Dados (SGBD) disponíveis no mercado possuem as principais funcionalidades esperadas de um produto desta natureza, ou seja, monitoração contínua dos recursos do SGBD, detecção e correção automática de falhas e prevenção de problemas. Entretanto, encontramos algumas limitações como ser específico para um SGBD ou não poder ser estendido com a inclusão de novos problemas e soluções. Outra limitação destes sistemas é a incapacidade de utilizar o conhecimento adquirido na resolução de problemas ocorridos anteriormente para solucionar problemas similares. Eles só resolvem ou fazem a previsão de problemas que sejam idênticos a algum outro já armazenado em um repositório. Com o intuito de resolver estas limitações desenvolvemos o DBSitter: um sistema multiagentes para monitoração e gerenciamento de SGBD. O DBSitter é um sistema de código aberto, extensível, multi-plataforma e que auxilia o ABD na tomada de decisões sugerindo a(s) solução(ões) mais adequada(s) a cada problema, aproveitando o conhecimento acumulado na resolução de problemas similares ocorridos anteriormente. Além disto, o DBSitter inova ao utilizar uma combinação de duas técnicas da Inteligência Artificial, a saber, o Raciocínio Baseado em Casos (RBC) e os Agentes Inteligentes. Os primeiros testes realizados com o sistema mostraram-se promissores ao comprovar a viabilidade da arquitetura da solução e ao atender às funcionalidades esperadas por um sistema desta natureza
25

Lathe-DB - integrando um mecanismo de busca por palavras-chave em SGBDs relacionais

Santos, Gilberto Eduardo, 92-98111-1766 03 April 2018 (has links)
Submitted by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2018-05-10T15:48:01Z No. of bitstreams: 2 Dissertacao_Gilberto.pdf: 2725589 bytes, checksum: 3a53e66d215a13f076c0fe9e613cf2c8 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2018-05-10T15:48:14Z (GMT) No. of bitstreams: 2 Dissertacao_Gilberto.pdf: 2725589 bytes, checksum: 3a53e66d215a13f076c0fe9e613cf2c8 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2018-05-10T15:48:14Z (GMT). No. of bitstreams: 2 Dissertacao_Gilberto.pdf: 2725589 bytes, checksum: 3a53e66d215a13f076c0fe9e613cf2c8 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2018-04-03 / For many years, several researchers have proposed methods to empower the naive users, without any knowledge about query languages or database details, to perform queries in RDBMS using keywords.ystems that process queries based on keywords in RDBMS, commonly called Relational Keyword-Search - R-KwS , face the task of automatically determine, from some keywords, what information should be retrieved from the database, and how this information can be combined to provide a relevant and quality answer to the user. However a common feature, in the vast majority of current R-KwS systems, is that the implementation of these systems is usually done outside the RDBMS environment. This requires, for its operation, a separate software infrastructure, with complex installation and subsequent hard to perform maintenance. The main objective of this dissertation is integrate a search engine for keyword in a RDBMS, implementing the Lathe method, proposed in the database and information retrieval group of ICOMP, inside PostgreSQL RDBMS environment. Experiments show that the implementation of Lathe-DB, as a search engine inside the RDBMS environment, generate results very close to those of the original work, and that is a very practical, low cost, and adds value, for use the keyword search in RDBMS. / Durante muitos anos, vários pesquisadores propuseram métodos para capacitar os usuários leigos, sem qualquer conhecimento em linguagens de consulta ou sobre os bancos de dados, a realizar consultas em Sistemas Gerenciadores de Bancos de Dados - SGBD usando palavras-chave. Sistemas que processam consultas baseadas em palavras-chaves em SGBDs, comumente chamados de Relational Keyword-Search - R-KwS, enfrentam a tarefa de determinar automaticamente, a partir de algumas palavras-chave, quais informações devem ser recuperadas do banco de dados, e como essas informações podem ser combinadas para fornecer uma resposta relevante, e de qualidade, para o usuário. Porém, uma característica comum, na grande maioria dos atuais sistemas R-KwS, é que a implementação desses sistemas é feita geralmente fora do ambiente do SGBD. Isso exige, para o seu funcionamento, uma infraestrutura de software separada, com instalação complexa e posterior dificuldade para realizar manutenções. O objetivo principal desta dissertação é integrar um mecanismo de busca por palavras-chave em um SGBD, implementando o método Lathe, proposto no grupo de Banco de Dados e Recuperação da Informação do ICOMP, no ambiente do SGBD PostgreSQL. Experimentos realizados, e cujo os resultados apresentamos nessa dissertação, mostram que a implementação do Lathe-DB, como um mecanismo de busca por palavras-chaves dentro do ambiente do SGBD, geram resultados bem próximos aos do trabalho original, e que é uma forma bem prática, de baixo custo e que agrega valor, para o uso da busca por palavras-chave em SGBDs.
26

Optimisation de la performance des entrepôts de données XML par fragmentation et répartition

Mahboubi, Hadj 08 December 2008 (has links) (PDF)
Les entrepôts de données XML forment une base intéressante pour les applications décisionnelles qui exploitent des données hétérogènes et provenant de sources multiples. Cependant, les Systèmes de Gestion de Bases de Données (SGBD) natifs XML actuels présentent des limites en termes de volume de données gérable, d'une part, et de performance des requêtes d'interrogation complexes, d'autre part. Il apparaît donc nécessaire de concevoir des méthodes pour optimiser ces performances.<br /><br />Pour atteindre cet objectif, nous proposons dans ce mémoire de pallier conjointement ces limitations par fragmentation puis par répartition sur une grille de données. Pour cela, nous nous sommes intéressés dans un premier temps à la fragmentation des entrepôts des données XML et nous avons proposé des méthodes qui sont à notre connaissance les premières contributions dans ce domaine. Ces méthodes exploitent une charge de requêtes XQuery pour déduire un schéma de fragmentation horizontale dérivée.<br /><br />Nous avons tout d'abord proposé l'adaptation des techniques les plus efficaces du domaine relationnel aux entrepôts de données XML, puis une méthode de fragmentation originale basée sur la technique de classification k-means. Cette dernière nous a permis de contrôler le nombre de fragments. Nous avons finalement proposé une approche de répartition d'un entrepôt de données XML sur une grille. Ces propositions nous ont amené à proposer un modèle de référence pour les entrepôts de données XML qui unifie et étend les modèles existants dans la littérature.<br /><br />Nous avons finalement choisi de valider nos méthodes de manière expérimentale. Pour cela, nous avons conçu et développé un banc d'essais pour les entrepôts de données XML : XWeB. Les résultats expérimentaux que nous avons obtenus montrent que nous avons atteint notre objectif de maîtriser le volume de données XML et le temps de traitement de requêtes décisionnelles complexes. Ils montrent également que notre méthode de fragmentation basée sur les k-means fournit un gain de performance plus élevé que celui obtenu par les méthodes de fragmentation horizontale dérivée classiques, à la fois en terme de gain de performance et de surcharge des algorithmes.
27

SGBD sémantiques pour un environnement bureatique : intégrité et gestion de transactions

Pedraza Linares, Esperanza 25 November 1988 (has links) (PDF)
Ce travail traite deux problèmes rencontrés dans les environnements où l'on utitlise un SGBD de haut niveau sémantique et où les traitements réalisés sont peu structurés et évolutifs et se font sur des objets complexes et volumineux. II s"appui sur l'expérience acquise dans la réalisation des projets TIGRE ET DOEOIS. Le premier aspect porte sur la cohérence sémantique, ce qui concerne plus particulièrement les contraintes implicitement établies lors de la définition du schéma conceptuel de la base. La sémantique introduite dans les modèles que nous avons utilisés, est réalisée en intégrant des concepts déjà existants comme celui d'agrégation et de spécialisation qui se traduisent au niveau du schéma conceptuel par des dépendances existentielles entre les entités. Nous proposons pour les opérations de mise à jour, un ensemble de règles de propagations pour assurer que la base de données soit cohérente par rapport à son propre schéma conceptuel. Le deuxième aspect prend en compte l'exécution des opérations elles mêmes. Fournir la notion de transaction, c'est donner au programmeur d'application le moyen de définir' une séquence d'opérations comme étant un tout qui permet à la base de données d'évoluer entre deux états cohérents. Le problème que nous nous posons est de fournir un support pour l'exécution des applications qui assure le maintien de la cohérence, compte tenu des données et des caractéristiques des traitements faits aux données dans l'activité bureautique. Cet étude a abouti à la réalisation d'un mécanisme transactionnel simple et fléxible.
28

Étude et évaluation d'une architecture de système pour les bases de données généralisées

Burnier, Marc 21 September 1984 (has links) (PDF)
Dans le cadre du projet TIGRE, on a mis en évidence les insuffisances de systèmes de gestion de données et plus particulièrement des systèmes de gestion de bases de données QUART à la manipulation de ces nouvelles informations volumineuses et structurellement complexes. Description des fondements de ces nouveaux types d'architectures et on aborde la phase d'expérimentation durant laquelle a été évaluée la machine base de données d'Intel, l'IDBP en l'opposant à une configuration plus traditionnelle définie autour de SOCRATE/CI.
29

Expression et contrôle de l'intégrité sémantique dans les bases de données relationnelles : projet MICROBE

Ferrat, Lounas 19 May 1983 (has links) (PDF)
Cette thèse présente le sous-système ISIS, une méthode d'expression et de contrôle de l'intégrité sémantique, dans les bases de données relationnelles. Celle-ci est réglée par un ensemble de lois appelées contraintes d'intégrité sémantique (CIS). Une réalisation est effectuée dans le cadre du projet MICROBE
30

l'intégrité et la mise à jour dans un système de gestion de bases de données réparties : projet POLYPHEME

Andrade, Juan Manuel 29 October 1980 (has links) (PDF)
On fait le point sur l'ensemble des travaux menés dans le cadre du projet POLYPHEME. On présente l'architecture et les caractéristiques de la maquette réalisée. On étudie les problèmes d'intégrité qui se posent lorsque l'on désire faire coopérer des données dans un environnement reparti, on aborde en particulier l'intégrité sémantique et le traitement des opérations de mise à jour. On propose un formalisme pour exprimer le comportement des mises a jour sur une relation abstraite construite sur d'autres relations.

Page generated in 0.0509 seconds