• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 33
  • 12
  • Tagged with
  • 46
  • 27
  • 27
  • 24
  • 19
  • 19
  • 19
  • 16
  • 13
  • 8
  • 7
  • 7
  • 7
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Contribution à l'utilisation des micro-processeurs dans les structures décentralisées.

Rolin, Pierre, January 1900 (has links)
Th. doct.-ing.--Rennes 1, 1977. N°: 71.
2

Análise e aperfeiçoamento de benchmark OLTP para avaliação de desempenho em SGBD

PESSOA, Fábio Ávila Rêgo January 2006 (has links)
Made available in DSpace on 2014-06-12T15:59:54Z (GMT). No. of bitstreams: 2 arquivo5704_1.pdf: 1036262 bytes, checksum: c782a01b6c27ce9c29f24861355eac34 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2006 / Resumo: Medir o desempenho de ambientes de missão crítica é uma tarefa importante para consumidores e fornecedores de software e hardware. O desenvolvimento de metodologias (ou benchmarks) que viabilizem a comparação do desempenho conjunto de software e hardware foi objeto de estudo na comunidade de Banco de Dados, principalmente nos anos 80 e 90. Nos últimos 20 anos, foram propostos benchmarks que propõem métricas relevantes ao negócio do usuário final, tais como número de transações realizadas por intervalo de tempo e custo de cada transação. Muitas vezes, estes benchmarks modelam o funcionamento de uma aplicação completa, e têm destaque na mídia em anúncios de marketing dos fornecedores de hardware e software, com o objetivo de demonstrar desempenho superior ao de produtos concorrentes. Apesar da importância dos benchmarks para diversas áreas, não há trabalhos de pesquisa que realizam avaliações críticas de benchmarks, há poucos resultados experimentais mostrando possíveis melhorias nos benchmarks, e este trabalho fica sempre confinado nas organizações de benchmark. Mesmo com a abertura das especificações e resultados, uma análise mais crítica e minuciosa pode revelar pontos de melhoria nos benchmarks e nos seus processos de auditoria, execução e publicação. Um processo de benchmark dos benchmarks é importante para garantir a qualidade, credibilidade e aplicabilidade dos benchmarks ao longo do tempo. Um trabalho de pesquisa sem conflito de interesses com fabricantes dos produtos envolvidos mostra-se bastante adequado para este fim. O objetivo deste trabalho é proporcionar uma análise crítica do TPC-C, benchmark OLTP padrão de indústria. São propostas melhorias simples na implementação do benchmark, com o objetivo de torná-lo mais popular e adequado ao hardware tipicamente utilizado para sistemas OLTP na realidade atual. É proposta uma consolidação de conceitos em relação aos requisitos e qualidade de um benchmark, sugerindo um novo agrupamento e conceituação para proporcionar um melhor entendimento dos termos utilizados. Também é relatado como ocorre uma publicação TPC-C de acordo com as especificações oficiais, sugerindo pontos de melhoria no processo de publicação e auditoria do resultado. O relato é baseado em uma publicação real conduzida por um projeto de pesquisa no Centro de Informática/UFPE.
3

Développement d'une base de données bioinformatique spécialisée GBank UQAM

Djema, Rabah January 2008 (has links) (PDF)
La base de données GBank de l'UQAM a été développée afin de pallier certains problèmes majeurs posés par l'utilisation de la base de données GenBank du NCBI. En effet, les problèmes suivants ont déclenché le développement de GBank UQAM: 1-Certaines requêtes complexes utilisées par les bioinformaticiens sont lentes en raison notamment de la taille énorme et toujours croissante de la base de données. 2-Les bioinformaticiens de l'UQAM dépendent entièrement de la base de NCBI. En cas de sa panne, ils n'ont pas de possibilité d'y accéder. 3-Les utilisateurs n'ont aucun contrôle sur la base de données GenBank. En plus, ils dépendent entièrement des mises à jour du NCBI. 4-Les outils de GenBank pour le filtrage des données ne sont pas toujours adaptés aux besoins des bioinformaticiens intéressés par l'analyse phylogénétique. Ceci mène les bioinformaticiens de se soumettre au mode de fonctionnement de la base GenBank. GBank UQAM se voit donc un sous-ensemble de la base GenBank international, qui résout en totalité ou partiellement les problèmes posés ci-dessus. Ceci a été rendu possible notamment grâce à l'utilisation de la base de données Oracle 10g qui offre plusieurs caractéristiques intéressantes. La nouvelle base de l'UQAM permettrait donc: 1-d'Améliorer le temps de réponse: Étant traité localement, nous pouvons offrir un temps d'accès nettement meilleur. 2-de Mieux contrôler les données: Nous pouvons organiser les données selon nos besoins et donc rendre la base de données plus optimale. En effet, maintenant nous sommes capables de filtrer les données selon nos besoins spécifiques ce qui augmente nettement notre productivité. 3-d'Optimiser la base de données: Avec des temps de réponses améliorés et une plus grande maniabilité dans la gestion de la base de données de l'UQAM, il nous est possible d'optimiser continuellement notre base de données pour la rendre plus évolutive et plus adaptée à nos besoins futurs. Afin de mieux exploiter la nouvelle base de données, nous avons élaboré une interface utilisateur facile et conviviale qui répond à tous les besoins des utilisateurs (bioinformaticiens) d'une base de données bioinformatique. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : GBank UQAM, Bioinformatique, Oracle10g, Performances, T-REX.
4

ViXQueL: uma ferramenta web para acesso a banco de dados XML nativo

Rangel Bastos, Petrus 31 January 2009 (has links)
Made available in DSpace on 2014-06-12T15:53:43Z (GMT). No. of bitstreams: 2 arquivo1926_1.pdf: 4513686 bytes, checksum: 82857a9d1fda0d1383f9eae7c1258c95 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2009 / XML tornou-se o padrão de fato para troca de informações entre diversas fontes de dados e aplicações. Assim, sistemas de gerenciamento de bancos de dados XML nativos (SGBD XML nativos) têm se tornado peça fundamental na infra-estrutura de empresas que lidam com tal diversidade de fontes de dados e aplicações. Gestores do mundo corporativo estão sempre precisando de informações sobre seus negócios, para que possam tomar decisões de forma rápida e eficiente. Entretanto, as interfaces gráficas disponíveis para recuperar estas informações não demonstram preocupação com esta classe de usuários, disponibilizando apenas interfaces textuais que os obrigam a ter conhecimento nas linguagens de consulta para XML, mais especificamente a XQuery. Visando contribuir para a melhoria desta situação, este trabalho apresenta a ViXQueL, que é uma ferramenta web de abstração para acesso aos SGBD XML nativos, permitindo que usuários não especialistas recuperem informações de bases de dados sem conhecimento na linguagem de consulta XQuery. Esta abstração foi alcançada por meio de uma interface gráfica para criação de consultas visuais, que por sua vez são transformadas em consultas textuais na linguagem XQuery. Devido à extensividade e complexidade, o protótipo desenvolvido permite a criação de consultas que representam um subconjunto da XQuery. Para a primeira versão da ferramenta foram considerados e avaliados diversos SGBD XML nativos, sendo escolhido o Sedna, por sua completude de funcionalidades, além de ser open source. Com o intuito de formalizar o processo de transformação da ferramenta, foram utilizados conceitos de MDA na definição e implementação do processo de geração do código XQuery. Dois metamodelos foram especificados em Ecore, que é a implementação de metamodelagem do Eclipse Modeling Framework (EMF), para representar as consultas visuais e as consultas textuais. Além disso, foram implementados dois scripts, na linguagem Kermeta, para realizar as transformações necessárias entre instâncias destes metamodelos
5

Ontositter: sistema de solução de problemas de SAGBD baseado em ontologia

AFONSO, Ricardo Alexandre 31 January 2008 (has links)
Made available in DSpace on 2014-06-12T15:54:25Z (GMT). No. of bitstreams: 2 arquivo1973_1.pdf: 3161826 bytes, checksum: 82420d3e13000dda84e1580c03287b04 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2008 / Atualmente os Sistemas Gerenciadores de Bancos de Dados (SGBD) possuem grande capacidade de armazenar desde os dados obtidos pelos sistemas transacionais até as informações sintetizadas pelos sistemas de tomada de decisão. Nesse contexto, tanto a busca pela informação quanto as rotinas de manutenção deste ambiente requerem um esforço maior por parte dos administradores de bancos de dados (ABD) e a criação de rotinas e mecanismos que automatizem as tarefas de administração e gerenciamento. A aplicação dos conceitos de auto-configuração, auto-otimização, auto-recuperação e autoproteção, utilizados pela área de computação autônoma, passaram a ser aplicados aos SGBD dando origem a um novo conceito denominado Sistemas Autônomos de Gerenciamento de Bancos de Dados (SAGBD) permitindo automatizar tarefas de detecção e correção de falhas que até então dependiam de interação humana intensa por parte dos ABD. Este trabalho tem o objetivo de aprimorar os mecanismos de identificação e solução de erros no domínio de Sistemas Autônomos de Gerenciamento de Banco de Dados. Para isso propõe-se conceitualizar o domínio de problemas em SGBD e das tarefas do ABD, formalizar os modelos conceituais destas ontologias e implementar rotinas de comunicação entre agentes de software que atuem nesse ambiente. A criação do sistema que utiliza agentes de software e ontologias recebeu o nome de OntoSitter
6

TEMPOS : un modèle d'historiques pour un SGBD temporel

Canavaggio, Jean-François 22 November 1997 (has links) (PDF)
Un SGBD temporel doit offrir les fonctionnalités permettant aux applications de dater les informations et de gérer l'histoire de leur évolution. Cette thèse présente le modèle d'historiques TEMPOS et le prototype qui a été réalisé au dessus du SGBD O2. TEMPOS s'appuie sur un modèle du temps, qui permet de manipuler des valeurs temporelles, simples et complexes, exprimées dans différentes unités. Le jeu d'unité est extensible, et les opérations définies sont indépendantes des unités. La multiplicité des formes externes des valeurs temporelles est également prise en compte. Le modèle d'historiques proposé dans TEMPOS intègre les fonctionnalités essentielles attendues pour gérer la dimension historique des informations d'une base de données. La définition de différents types d'historiques (discret, en escalier, interpolé) permet de donner la signification des valeurs saisies et d'interpoler les autres valeurs. Ainsi, en TEMPOS, un historique est vu comme une chronique (séquence de valeurs datées), un domaine temporel d'observation, et une fonction d'interpolation. Le modèle permet diverses structurations des historiques basées sur le regroupement d'instants. Les opérations d'interrogation des historiques sont issues de l'extension temporelle des opérateurs de l'algèbre relationnelle et également d'une adaptation d'opérateurs sur les séquences, qui permettent en particulier de raisonner sur la succession dans le temps. Les opérations classiques de mise à jour sont étendues pour prendre en compte la dimension temporelle. Toutes les opérations sur les historiques sont définies de manière à être indépendantes de la représentation et de l'unité d'observation temporelle des historiques. Le prototype comprend une hiérarchie de classes implantant les types et les opérations proposés dans TEMPOS, et un préprocesseur TempOQL permettant de manipuler des valeurs temporelles dans des requêtes OQL.
7

Élaboration d'un banc d'essai pour la comparaison de SGBDR de modèles différents

Ottavi, Aurélie January 2012 (has links)
Ces dernières années, le domaine des bases de données a beaucoup évolué. De nombreux modèles ont émergé de part et d'autre : XML, ODBMS, Map Reduce... Ces modèles ont pour objectif de résoudre les problèmes existants du modèle relationnel. Et pourtant, aucun n'a réussi à détrôner SQL, la variante la plus connue du modèle relationnel. Cela révèle tout d'abord un problème vis-à-vis du modèle relationnel tel qu'implémenté par SQL qui ne s'adapte pas à toutes les applications. Cela révèle aussi l'incapacité des nouveaux modèles à pallier les lacunes de SQL tout en conservant ses forces : son expressivité et sa capacité à assurer l'intégrité des données. Ces caractéristiques restent primordiales pour de nombreuses applications et ne peuvent donc pas être ignorées. Notre intuition est donc qu'il ne faut pas totalement mettre de côté le modèle relationnel de Codd [10], mais plutôt l'améliorer. Étant donné que seul le langage relationnel SQL a su s'imposer, l'évaluation des SGBD relationnels s'est toujours faite en ne considérant que celui-ci. De plus, les bancs d'essai existants considèrent le facteur de l'efficience comme le plus important à évaluer, probablement car c'est le critère qui dépend davantage de l'implémentation du langage faite par les SGBD que des variantes dialectiques du langage. Nous nous sommes donc donnée [i.e. donnés] pour objectif de définir un banc d'essai plus large permettant d'évaluer des modèles relationnels différents en prenant en compte des critères plus variés et tout aussi importants tels que la validité, la disponibilité, la sécurité et l'expressivité. Le banc d'essai ainsi défini a été implémenté pour deux SGBDR basés sur SQL : Oracle et PostgreSQL. L'implémentation pour des SGBDR basés sur des modèles différents étant laissée pour des travaux futurs. Les résultats obtenus nous ont tout d'abord permis de démontrer la pertinence de notre banc d'essai. Malgré le fait que les deux SGBD soient basés sur le langage SQL, le banc d'essai a révélé des différences pour la majorité des critères définis. Ainsi, Oracle se démarque en ce qui concerne la validité des données. Contrairement à PostgreSQL, il ne présente pas de lacunes pouvant compromettre l'intégrité des données. Oracle se démarque aussi en ce qui concerne la sécurité. Les mécanismes présents y sont plus complets et plus flexibles. PostgreSQL, lui, se démarque par rapport à l'expressivité du dialecte SQL utilisé. Des fonctionnalités primordiales sont présentes tandis qu'elles sont absentes sous Oracle. Au niveau de l'efficience, nos résultats révèlent une différence quant à la gestion des optimisations, car selon les fonctionnalités testées, le SGBD le plus efficient est différent. Cependant, aucun des SGBD ne se démarque. Pour finir, en ce qui concerne le critère de disponibilité des données, les résultats sont identiques pour les deux SGBD. Cette identification des lacunes propres à ces deux SGBD nous permettra par la suite de tirer des enseignements de ces problèmes de manière à ne pas les reproduire pour notre nouveau modèle.
8

Projet SOCRATE - (2-3) Interprétation et compilation

Morin, Robert 22 December 1970 (has links) (PDF)
No description available.
9

DBSitter-AS: um Framework Orientado a Agentes para Construção de Componentes de Gerenciamento Autônomo para SGBD

MACIEL, Paulo Roberto Moreira January 2007 (has links)
Made available in DSpace on 2014-06-12T16:00:16Z (GMT). No. of bitstreams: 2 arquivo6346_1.pdf: 2223295 bytes, checksum: 31961d63a4b2fe25c3c724ccfc136ba8 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2007 / A Computação Autônoma é uma área de pesquisa que busca o desenvolvimento de software capaz de autoconfiguração, auto-otimização, autoproteção, auto-reparação, autoconhecimento e antecipação de necessidades, utilizando-se de padrões abertos. No caso particular de Sistemas de Gerenciamento de Bancos de Dados (SGBD), podemos resumir esses princípios como características para autogerenciamento. Uma das formas de implementar características de autogerenciamento é através do desenvolvimento de Sistemas Multiagentes (SMA) que realizem a monitoração, prevenção ou solução de falhas e aperfeiçoamento de um sistema alvo. Não há ainda muitas especificações formais de como implementar autonomia para SGBD, em especial se desenvolvida via SMA. No contexto acima, o objetivo deste trabalho é a especificação de um framework arquitetural que guie o desenvolvimento de componentes de SMA que possam prover SGBD de capacidade de autogerenciamento, auxiliando os Administradores de Bancos de Dados nas suas atividades diárias. O Framework DBSitter-AS foi concebido utilizando a metodologia Tropos para desenvolvimento de SMA e especifica como construir uma sociedade de agentes capaz de realizar ações coordenadas de monitoria, prevenção e resolução de falhas em SGBD de mercado. A sociedade de agentes concebida está configurada em uma camada externa ao SGBD, possui uma estrutura de persistência própria e permite registro de regras e políticas organizacionais a serem obedecidas. O DBSitter-AS é uma especificação flexível no que tange a permitir o cadastro de sintomas de falhas e ações de resolução configuráveis para tipos diferentes de SGBD. Para mostrar como a especificação pode ser adaptada para casos reais, mostramos um exemplo de implementação para um caso típico de falha
10

Données de tests non fonctionnels de l'ombre à la lumière : une approche multidimensionnelle pour déployer une base de données / On the Highlighting of Non-Functional Test Data : A Multidimensional Approach for Database Deployment

Brahimi, Lahcene 03 July 2017 (has links)
Le choix d'un système de gestion de bases de données (SGBD) et de plateforme d'exécution pour le déploiement est une tâche primordiale pour la satisfaction des besoins non-fonctionnels(comme la performance temporelle et la consommation d'énergie). La difficulté de ce choix explique la multitude de tests pour évaluer la qualité des bases de données (BD) développées.Cette évaluation se base essentiellement sur l'utilisation des métriques associées aux besoins non fonctionnels. En effet, une mine de tests existe couvrant toutes les phases de cycle de vie de conception d'une BD. Les tests et leurs environnements sont généralement publiés dans des articles scientifiques ou dans des sites web dédiés comme le TPC (Transaction Processing Council).Par conséquent, cette thèse contribue à la capitalisation et l'exploitation des tests effectués afin de diminuer la complexité du processus de choix. En analysant finement les tests, nous remarquons que chaque test porte sur les jeux de données utilisés, la plateforme d'exécution, les besoins non fonctionnels, les requêtes, etc. Nous proposons une démarche de conceptualisation et de persistance de toutes .ces dimensions ainsi que les résultats de tests. Cette thèse a donné lieu aux trois contributions. (1) Une conceptualisation basée sur des modélisations descriptive,prescriptive et ontologique pour expliciter les différentes dimensions. (2) Le développement d'un entrepôt de tests multidimensionnel permettant de stocker les environnements de tests et leurs résultats. (3) Le développement d'une méthodologie de prise de décision basée sur un système de recommandation de SGBD et de plateformes. / Choosing appropriate database management systems (DBMS) and/or execution platforms for given database (DB) is complex and tends to be time- and effort-intensive since this choice has an important impact on the satisfaction of non-functional requirements (e.g., temporal performance or energy consumption). lndeed, a large number of tests have been performed for assessing the quality of developed DB. This assessment often involves metrics associated with non-functional requirement. That leads to a mine of tests covering all life-cycle phases of the DB's design. Tests and their environments are usually published in scientific articles or specific websites such as Transaction Processing Council (TPC). Therefore, this thesis bas taken a special interest to the capitalization and the reutilization of performed tests to reduce and mastery the complexity of the DBMS/platforms selection process. By analyzing the test accurately, we identify that tests concem: the data set, the execution platform, the addressed non-functional requirements, the used queries, etc. Thus, we propose an approach of conceptualization and persistence of all dimensions as well as the results of tests. Conseguently, this thesis leads to the following contributions. (1) The design model based on descriptive, prescriptive and ontological concepts to raise the different dimensions. (2) The development of a multidimensional repository to store the test environments and their results. (3) The development of a decision making methodology based on a recommender system for DBMS and platforms selection.

Page generated in 0.0227 seconds