• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 175
  • 68
  • 19
  • 1
  • 1
  • 1
  • Tagged with
  • 259
  • 259
  • 92
  • 92
  • 86
  • 43
  • 41
  • 36
  • 35
  • 33
  • 27
  • 27
  • 27
  • 26
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Gestion de données et de présentations multimédias par un SGBD à objets

Mocellin, Françoise 12 December 1997 (has links) (PDF)
Un Système de Gestion de Bases de Données Multimédia doit être capable de manipuler et gérer les données telles que l'image, le texte, le son ou la vidéo, ainsi que des présentations multimédias. Une présentation synchronise et compose différents objets, chacun possédant des aspects temporels sous forme d'une Ombre Temporelle (constituée d'un délai et d'une durée). La synchronisation est définie par un ensemble de contraintes temporelles. Nous proposons un modèle de comportements d'une présentation dont le but est d'ajouter une nouvelle dimension aux objets pour pouvoir leur associer un comportement particulier au cours de leur présentation. On appelle comportement d'un objet, l'ensemble des actions qu'il est susceptible d'entreprendre suite à des événements lors de sa présentation. Le déroulement de la présentation devient imprévisible et dépend des événements qui se produisent et déclenchent une suite d'actions. L'ensemble des comportements lié à la présentation constitue l'Ombre Comportementale d'un objet. Par exemple, elle permet de traiter l'interaction avec l'utilisateur lors des présentations. Pour montrer la faisabilité de notre approche, nous avons étendu un SGBD à objets existant O2. Ces extensions correspondent à des bibliothèques de classes prédéfinies et réutilisables qui permettent de construire, manipuler, interroger et jouer toutes sortes de présentations.
62

Tatouage des bases de données

Gross-Amblard, David 06 December 2010 (has links) (PDF)
Les techniques de tatouage de bases de données permettent la dissimulation d'information pertinente dans les n-uplets, comme par exemple l'identité du propriétaire des données. Les techniques de tatouage sont nombreuses dans le domaine multimédia, mais le tatouage des bases de données présente de nombreuses spécificités. Certaines d'entre elles sont traitées dans ce document : comment tatouer une base de données numérique tout en préservant le résultat de requêtes d'agrégat importantes, comment tatouer un flux structuré, comme un flux XML typé ou une partition musicale symbolique, comment tatouer une base de données géographiques.
63

Un modèle générique pour la capture de préférences dans les bases de données à base ontologique

Tapucu, Dilek 02 July 2010 (has links) (PDF)
De nos jours, les systèmes d'information gèrent de volumineuses données. Avec l'avènement du Web Sémantique, la quantité de données ontologiques (ou instances) disponibles s'est accrue. Permettre un accès personnalisé à ces données est devenue cruciale. Les utilisateurs sont submergés par les nombreux résultats fournis en réponse à leurs requêtes. Pour être utilisable, ces résultats doivent être filtrées et ordonnées. La capture et l'exploitation des préférences utilisateurs ont été proposées comme une solution à ce problème. Cependant, les approches existantes définissent habituellement les préférences pour une application donnée. Il est ainsi difficile de partager et réutiliser dans d'autres contextes les préférences capturées. Nous proposons une approche basée sur plusieurs modèles proposés au sein des communautés Bases de Données et Web Sémantique. Elle définit un model partageable et générique pour représenter les préférences utilisateurs, et incorpore plusieurs types de préférences de la littérature qui sont traités de manière séparée. L'idée sous-jacente à notre approche est de traiter les préférences de manière modulaire en les liant aux ontologies qui décrivent la sémantique des données gérées par les applications. Ainsi leur prise en compte se fait au niveau ontologique et non au niveau logique des données. La nouveauté de l'approche est que les préférences définies sont attachées aux ontologies, qui décrivent la sémantique des données manipulées par les applications. Le modèle de préférence est formellement défini en utilisant le langage de modélisation des données EXPRESS de manière à éviter toute ambiguïté du modèle. Par ailleurs, le modèle proposé offre un mécanisme de persistance et un langage d'interrogation dédié. Il est implémenté en utilisant un système de Bases de Données à Base Ontologique (BDBO) qui permet de gérer à la fois les ontologies et les données instances. Ceci permet d'offrir une description sémantique des préférences. Nous avons étendu le modèle des BDBO afin de supporter la prise en compte des préférences. L'implémentation a été faite dans le cadre de la BDBO OntoDB pour laquelle nous avons étendu le langage d'interrogation associé OntoQL. L'approche est illustrée à travers un cas d'étude dans le domaine du tourisme.
64

Réplication Préventive dans une grappe de bases de données

Coulon, Cedric 16 September 2006 (has links) (PDF)
Dans une grappe de bases de données, la réplication préventive peut fournir une cohérence forte sans les limitations d'une réplication synchrone. Dans cette thèse, nous présentons une solution complète pour la réplication préventive qui supporte les configurations multimaîtres et partielles, où les bases de données sont partiellement répliquées sur différents noeuds. Pour augmenter le débit des transactions, nous proposons une optimisation qui élimine le délai d'attente pour l'ordonnancement en contrepartie d'un petit nombre d'abandon des transactions et nous introduisons le rafraîchissement parallèle des copies. Nous décrivons des expérimentations à grande échelle de notre algorithme basées sur notre prototype (RepDB*) sur une grappe de 64 noeuds utilisant le SGBD PostgreSQL. Nos résultats utilisant le banc d'essai TPC-C montrent que notre approche dispose d'un excellent passage à l'échelle et d'une excellente amélioration du débit.
65

Réplication asynchrone des données dans trois contextes: entrepôts, grappes et systèmes pair-à-pair

Pacitti, Esther 08 July 2008 (has links) (PDF)
Dans une base de données répartie, la réplication de données peut servir à augmenter la fiabilité et la disponibilité de données ainsi que les performances d'accès. En général, l'unité de réplication (copie ou replique) est un table relationnelle (ou un fragment), un document ou un fichier. La réplication consiste alors en placer plusieurs copies sur différents noeuds distincts. Cela fournit une grande disponibilité de données. Si un noeud devient non opérationnel à la suite d'une panne par exemple, une autre copie est toujours accessible sur un autre noeud. La réplication permet aussi aussi de améliorer les performances d'accès en augmentant la localité des références. Lorsque le coût de communication est un facteur dominant, le placement d'une copie sur le noeud où il est le plus souvent accédé favorise les accès locaux et évite l'accès au réseau. Les avantages apportés par la réplication sont à comparer avec la complexité et les coûts supplémentaires de maintenance des copies qui doivent, en théorie rester identiques à tout moment. La mise à jour d'une copie doit être répercutée automatiquement sur toutes ses repliques. Le problème est compliqué par la présence de pannes de noeud ou réseau. Le compromis recherché entre performance d'accès en consultation et en mise à jour des données rend difficile le choix du niveau de réplication. Celui-ci est très dépendant de la charge de travail demandée par les applications. Face à ces défis dans mes travaux de recherche nous avons focalisé sur la gestion de la cohérence pour réplication asynchrone pour plusieurs contextes : entrepôts de données, grappes et applications collaboratives et en pair à pair (P2P). 1. Entrepôts de Données Dans les architectures proposes pour la gestion de entrepôts de données les configurations mono- maître sont souvent utilisés. Dans la réplication mono-maître, plusieurs types configurations acycliques dirigés sont possibles: diffusion, mono-consolidation multi-consolidation, triangulaire. La gestion de la cohérence se pose surtout pour certaines configurations comme dans la multi-consolidation et triangulaire et ses généralisations en combinant les configurations de base. 2. Grappes Les applications dans lesquelles sont utilisées les grappes sont typiquement des applications de lectures intensives, ce qui rend plus facile l'exploitation du parallélisme. Cependant, les grappes peuvent également être utilisées dans un nouveau modèle économique, les Fournisseurs de Services d'Applicatons ASP - Application Service Providers. Dans un contexte ASP, les applications et les bases de données des clients sont stockées chez le fournisseur et sont disponibles, typiquement depuis Internet, aussi efficacement que si elles étaient locales pour les clients. Pour améliorer les performances, les applications et les données peuvent être répliquées sur plusieurs noeuds. Ainsi, les clients peuvent être servis par n'importe quel noeud en fonction de la charge. Cet arrangement fournit également une haute disponibilité: dans le cas de la panne d'un noeud, d'autres noeuds peuvent effectuer le même travail. Le défie est de gérer la réplication multimaître totale et partiel en assurant la cohérence forte et toute en passant à l'échelle. 3 Applications Collaboratives en P2P Les systèmes P2P adoptent une approche complètement décentralisée au partage des ressources. En distribuant données et traitements sur tous les pairs du réseau, ils peuvent passer à très grande échelle sans recourir à des serveurs très puissants. La réplication de données dans les systèmes P2P devient un enjeu majeur pour les applications collaboratives, comme les forums de discussion, les calendriers partagés, ou les catalogues e-commerce, etc. En effet, les données partagées doivent pouvoir être mises à jour en parallèle par différents pairs. Les premiers systèmes P2P existants supposent que les données sont statiques et n'intègrent aucun mécanisme de gestion des mises à jour et de réplication. Une mise à jour d'une donnée par le pair qui la possède implique une nouvelle version non propagée à ceux répliquant cette donnée. Cela résulte en diverses versions sous le même identifiant et l'utilisateur accède à celle stockée par le pair qu'il contacte. Aucune forme de cohérence entre les répliques n'est alors garantie. Le défi est gérer la cohérence éventuelle face au dynamisme des pairs tout en passant à l'échelle.
66

Contribution aux problèmes de contrôle de concurrence et de reprise dans les bases de données à objets

Martinez, José 02 December 1992 (has links) (PDF)
Le contrôle des accès concurrents à des données partagées et manipulées simultanément par plusieurs utilisateurs, ainsi que la reprise lors de pannes, sont des composantes essentielles de tout système de gestion de données actuel, notamment des bases de données. Nous mettons en évidence les limites inhérentes au critère le plus important du domaine : la commutativité des opérations sur les types de données abstraits. Ces limites nous confortent dans l'utilisation de techniques relativement simples dans les deux travaux ultérieurs. Ensuite, nous proposons une technique de contrôle de concurrence adaptée aux bases de données à objets car s'appuyant sur le graphe d'héritage. Cette proposition s'avère être une généralisation de la seule méthode implémentée : le protocole d'ORION. Combinant les limites théoriques de la commutativité à la notion de méthodes, qui encapsulent le comportement des objets, nous proposons une technique simple, et dans une large mesure suffisante, pour déterminer la commutativité entre méthodes. Cette dernière proposition combine les avantages de la technique précédente à ceux obtenus, involontairement, par la décomposition en première forme normale dans les bases de données relationnelles.
67

Database Engineering Process Modelling/Modélisation des processus d'ingénierie des bases de données

Roland, Didier 15 May 2003 (has links)
One of the main current research activities in Software engineering is concerned about modelling the development process of huge softwares in order to bring some help to the engineer to design and maintain an application. In general, every design process is seen as rational application of transformation operators to one or more products (mainly specifications) in order to produce new products that satisfy to some given criteria. This modelling mainly allows a methodological guidance. Indeed, at each step of the process, the set of pertinent activities and types of products are proposed to the designer, without any other. This guidance may possibly be reinforced with some help. Furthermore, this modelling allows to document the process with its history, ie with a representation of performed actvities. This history is itself the basis of maintenance activities. Two examples : a Replay function that allows, during a modification, to do (automatically or assisted) the same activities as during the design, and Reverse Engineering that allows to recover not only some technical and functional documentation of an application, but also a plausible history of its design. The thesis aims at elaborating a general model of design processes, applying it to database engineering and implementing it in the DB-MAIN CASE tool. It will be done in four phases : 1. elaboration of a model, a method specification language and a history representation 2. evaluation of this model with the specification of classical methods and case studies 3. methodological recommandation proposals for the elaboration of design methods 4. development and integration of some methodological control functions in the DB-MAIN CASE tool; this includes an extension of the repository, the definition of the interface of the methodological functions, the development of the methodological engine and the development of an history processor (analysis, replay,...)./Un des principaux sujets de recherche actuels dans le monde de l'ingénierie logicielle concerne la modélisation des processus de développement de grosses applications afin d'apporter de l'aide aux ingénieurs pour concevoir et maintenir leurs applications. En général, un processus de conception est vu comme l'application rationnelle d'opérateurs de transformation à un ou plusieurs produits (généralement des spécifications) pour obtenir de nouveaux produits qui satisfont une série de critères donnés. Cette modélisation permet principalement une aide méthodologique: à chaque étape du processus, seul l'ensemble des outils pertinents est mis à disposition du concepteur. Ce guidage peut être renforcé par des messages d'aide. Cette aide s'étend l'enregistrement de l'historique du processus, c'est-à-dire d'une représentation des actions entreprises. Cet historique peut lui-même être à la base d'activités de maintenance. Deux exemples: une fonction qui permet de rejouer, lors d'une modification, de manière automatique ou assistée, les mêmes actions que pendant la conception, et la rétro-ingénierie qui permet de recouvrer non seulement la documentation technique et fonctionnelle d'une application, mais aussi un historique plausible de la conception originelle. La thèse s'attache à élaborer un modèle général de processus de conception, à l'appliquer au monde des bases de données et à l'implémenter dans l'AGL DB-MAIN. Cela, en 4 phases: 1. Élaboration d'un modèle, d'un langage de spécification (MDL) et d'une représentation des historiques 2. Évaluation de ce modèle avec des méthodes de spécification classiques et études de cas 3. Propositions de recommandations méthodologiques pour l'élaboration de méthodes d'ingénierie 4. Développement et intégration de fonctions de contrôle méthodologique dans l'atelier DB-MAIN; ceci inclut l'extension du référentiel, la définition de l'interface homme-machine des fonctions méthodologiques et le développement du moteur méthodologique.
68

Réalisation d'un noyau de système de gestion de base de données relationnelle sous APL

Nakache, Michel 12 June 1978 (has links) (PDF)
Nous présentons dans la première partie de ce document les principaux modèles de gestion de base de données, les objectifs des langages de manipulation de données, puis les précautions que doit prendre le concepteur d'un tel système dans un contexte d'accès concurrentiel, en vue de maintenir la qualité des informations. Après une brève description du langage APL orienté vers l'interrogation d'une base de données, nous présentons dans la deuxième partie du document différentes extensions à APL proposées ou réalisées pour une meilleure adaptation à un système de gestion de bases de données.La troisième partie décrit notre réalisation d'un point de vue externe puis interne. Cette réalisation a consisté à adjoindre au système APL un noyau de système indispensable à l'utilisation d'APL comme langage hôte d'un système de gestion de base de données. Nous présentons enfin un langage d'interrogation de base de données défini suivant les concepts du modèle relationnel.
69

Construction d'ontologies à partir de textes : une approche basée sur les transformations de modèles

Teguiak, Henry 12 December 2012 (has links) (PDF)
Depuis son émergence au début des années 1990, la notion d'ontologie s'est rapidement diffusée dans un grand nombre de domaines de recherche. Compte tenu du caractère prometteur de cette notion, de nombreux travaux portent sur l'utilisation des ontologies dans des domaines aussi divers que la recherche d'information, le commerce électronique, le web sémantique, l'intégration de données, etc. L'efficacité de tous ces travaux présuppose l'existence d'une ontologie de domaine susceptible d'être utilisée. Or, la conception d'une telle ontologie s'avère particulièrement difficile si l'on souhaite qu'elle fasse l'objet de consensus. S'il existe des outils utilisés pour éditer une ontologie supposée déjà conçue, et s'il existe également plusieurs plate-formes de traitement automatique de la langue permettant d'analyser automatiquement les corpus et de les annoter tant du point de vue syntaxique que statistique, il est difficile de trouver une procédure globalement acceptée, ni a fortiori un ensemble d'outils supports permettant de concevoir une ontologie de domaine de façon progressive, explicite et traçable à partir d'un ensemble de ressources informationnelles relevant de ce domaine. L'objectif du projet ANR DaFOE4App (Differential and Formal Ontologies Editor for Application), dans lequel s'inscrit notre travail, était de favoriser l'émergence d'un tel ensemble d'outils. Contrairement à d'autres outils de construction d'ontologies, la plate-forme DaFOE, présentée dans cette thèse, ne propose pas un processus de construction figé ni en nombre d'étapes, ni sur la représentation des étapes. En effet, dans cette thèse nous généralisons le processus de construction d'ontologies pour un nombre quelconque d'étapes. L'intérêt d'une telle généralisation étant, par exemple, d'offrir la possibilité de raffiner le processus de construction en insérant ou modifiant des étapes. On peut également souhaiter supprimer certaines étapes à fin de simplifier le processus de construction. L'objectif de cette généralisation est de minimiser l'impact de l'ajout, suppression ou modification d'une étape dans le processus global de construction d'ontologies, tout en préservant la cohérence globale du processus de construction. Pour y parvenir, notre approche consiste à utiliser l'Ingénierie Dirigée par les Modèles pour caractériser chaque étape au sein d'un modèle et ensuite ramener le problème du passage d'une étape à l'autre à un problème de mapping de modèles. Les mappings établis entre les modèles sont ensuite utilisés pour semi-automatiser le processus de construction d'ontologies. Ce processus de construction se faisant dans un contexte persistant de base de données, nous proposons dans cette thèse, d'une part, pour les bases de données dites à base de modèles (BDBM) du fait qu'elles permettent de stocker à la fois les données et les modèles décrivant ces données, une extension pour la prise en compte des mappings, et, d'autre part, nous proposons le langage de requête MQL (Mapping Query Language) qui, en masquant la complexité de l'architecture de la BDBM facilite son exploitation. L'originalité du langage MQL se trouve dans sa capacité, au travers de requêtes syntaxiquement compactes, à explorer transitivement tout ou partie du graphe de mappings lors d'une recherche d'informations.
70

Surveillance syndromique des gastroentérites aiguës : une opportunité pour la prévention du risque infectieux attribuable à l'ingestion d'eau du robinet

Beaudeau, Pascal 16 November 2012 (has links) (PDF)
La qualification sanitaire de l'eau distribuée et la prévention des risques infectieux s'appuie depuis plus d'un siècle sur la microbiologie de l'eau. Le contrôle microbiologique de l'eau distribuée fournit cependant des informations limitées dans le cas d'eaux traitées par le chlore, et pour la détection des épidémies. La surveillance syndromique s'est par ailleurs développée avec l'apparition, dans les années 2000, de bases de données médico-tarifaires. Cette thèse démontre, dans le cas de la France, la pertinence de la surveillance des gastroentérites aiguës (GEA) basée sur l'exploitation des données de remboursement des médicaments prescrits pour l'étude et la prévention du risque infectieux d'origine fécale porté par l'eau du robinet. Elle détaille la méthode de construction de l'indicateur d'incidence des GEA et son application à la détection rétrospective des épidémies d'origine hydrique et à l'étude des risques attribuables aux grandes unités de distribution (études de séries temporelles). Le potentiel d'une plate-forme de surveillance constituée par les données syndromiques et diverses sources de données sur l'exposition dépasse cependant le cadre de ces deux applications. Cette plateforme devrait aider de façon extensive à répondre au besoin d'identification, de caractérisation et de suivi des facteurs de risque dans le contexte du changement global. Le risque d'érosion de l'indicateur d'incidence des GEA, dû à l'évolution possible du niveau de prise en charge des soins de santé, limite par contre son usage pour un suivi précis à long terme de l'impact des GEA d'origine hydrique.

Page generated in 0.0827 seconds