• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 163
  • 66
  • 28
  • 2
  • 1
  • 1
  • Tagged with
  • 263
  • 263
  • 103
  • 102
  • 87
  • 60
  • 53
  • 42
  • 40
  • 30
  • 30
  • 29
  • 28
  • 25
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Création, partage et transfert d'ensembles de données terminologiques basés sur SKOS

Zoghlami, Mohamed Kaiser 08 1900 (has links) (PDF)
Depuis quelques années, la recherche sur la normalisation des ensembles de données terminologiques a été une des plus grandes préoccupations d'un groupe de travail du World Wide Web Consortium. Ce travail de recherche a permis de développer un nouveau standard SKOS qui a été ensuite émis en 2009 en tant que recommandation du W3C. Le travail de recherche que nous entreprenons dans ce mémoire concerne ce standard. Notre étude consiste à réaliser à partir de cette recommandation un modèle conceptuel fiable et cohérent reprenant les principaux éléments de SKOS et de son extension. Elle consiste aussi à prototyper un outil reposant sur ce modèle qui permettrait de gérer, de manipuler et de partager des ensembles de données terminologiques basés sur SKOS. Pour ce faire, une méthodologie de recherche bien précise a été adoptée et diverses recherches concernant le standard SKOS et le type d'ensemble de données terminologiques ont été réalisées. A partir de ces recherches, nous avons proposé un modèle conceptuel de SKOS et nous avons conçu et prototypé l'outil le supportant, qui a été par la suite testé à travers des cas d'utilisation réels. Ces tests ont permis d'évaluer l'outil et de démontrer sa capacité à manipuler des données normalisées en SKOS en toute simplicité. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Gestion de connaissances, SKOS, RDF, gestion des KOS, ensembles de données terminologiques basés sur SKOS, exportation SKOS, glossaires, thésaurus.
12

Relations entre bases de données et ontologies dans le cadre du web des données

Curé, Olivier 11 October 2010 (has links) (PDF)
Ce manuscrit présente mon intérêt pour la conception des méthodes et algorithmes nécessaires pour la réalisation d'applications avancées pour le web sémantique. Cette extension du web actuel vise à autoriser l'intégration et le partage de données entre organismes et applications. Une conséquence directe du succès de cette approche permettrait de considérer le web comme une base de données globale contenant les données stockées sur toutes les machines connectées. Cet aspect s'exprime bien dans le site web dédié à l'activité web sémantique du W3C, qui déclare que le web sémantique est un web des données. Ainsi, ce web des données permettra de soumettre des requêtes structurées sur tous les ensembles de données connectés, et de récupérer des résultats pertinents provenant de sources diverses et hétérogènes. Une question essentielle liée à cette hétérogénéité concerne la notion de sémantique. Dans le contexte du web sémantique, elle est généralement traitée avec des ontologies et les opérations de médiation associées. Ma recherche s'ancrent dans ces thématiques et ce manuscrit vise à présenter quelques unes de mes recherches et résultats, ainsi qu'à décrire certaines des applications que j'ai conçues et implémentées
13

Paris Stock Exchange 1870-1914 : financial information and portfolio choices / Place de Paris 1870-1914 : information financière et choix de portefeuille

Edlinger, Cécile 20 June 2016 (has links)
Cette thèse se compose de quatre chapitres dédiés à l'étude de la Bourse de Paris et des investissements français entre 1874 et 1914. Elle relève d'une démarche cliométrique : les faits historiques sont analysés en mobilisant les outils statistiques et théoriques de l'économie financière.Le premier chapitre participe à la réécriture de l'histoire de l'économie financière. Il démontre que les conseils financiers français avant 1914 relèvent d'une proto-science, prémices à la Théorie Moderne du Portefeuille (T.M.P.) développée à partir des années 1960s. Il justifie l'utilisation, dans le second chapitre, de la T.M.P. pour l'évaluation de la rationalité des choix de portefeuilles internationaux. Nous démontrons la rationalité des flux massifs de capitaux à l'étranger et en particulier à destination des pays européens. Nous constatons la rationalité de la préférence européenne des investisseurs français et le biais des investissements britanniques en faveur des "nouvelles nations". Le troisième chapitre présente une base de données inédite composée des rentabilités mensuelles de tous les types de titres cotés à la Bourse de Paris entre 1874 et 1914. Il s'agit d'un indicateur fiable des performances de la Bourse de Paris et de l'information publique en France sur cette période. Dans le quatrième chapitre, nous réalisons la première évaluation des conseils de l'analyste financier français A. Neymarck (1913), à la veille de 1914. Nous montrons que le risque de chaque catégorie d'actifs est correctement perçu, l'existence d'une hiérarchisation des portefeuilles proposés en fonction de la richesse de l'investisseur et mettons en avant les imperfections de ces conseils. / This PhD dissertation is composed of four chapters dedicated to the study of the Paris Stock Exchange and French investments from 1874 to 1914. It follows a cliometric approach, whereby historical facts are analysed using the statistical and theoretical tools of financial economics.The first chapter contributes to a re-evaluation of the history of financial economics. It shows that French financial advice before 1914 was part of a proto-science which laid the foundations for the Modern Portfolio Theory (M.P.T.) developed from the 1960s onwards. This finding justifies the use of the M.P.T in the second chapter to assess the rationality of international portfolio choices. We demonstrate the rationality of huge capital flows toward foreign countries and in particular toward European countries. We note the rationality of the French investor's preference for European securities, and the bias towards "young nations" in British investments. The third chapter introduces an original database composed of the monthly returns for all the types of securities listed on the Paris Stock Exchange from 1874 to 1914. It is a reliable indicator of Paris Stock Exchange performances and of the public information available in France at that time. In the fourth chapter, we make the first assessment of the advice provided by the French financial analyst A. Neymarck (1913), prior to 1914. We show that the risk of each asset category is correctly evaluated, evidence the ranking of the suggested portfolios according to the investors' wealth, and pinpoint the few imperfections of his advice.
14

Interrogation des bases de données XML probabilistes / Querying probabilistic XML

Souihli, Asma 21 September 2012 (has links)
XML probabiliste est un modèle probabiliste pour les bases de données incertaines semi-structurées, avec des applications telles que l'intégration incertaine de données, l'extraction d'informations ou le contrôle probabiliste de versions. Nous explorons dans cette thèse une solution efficace pour l'évaluation des requêtes tree-pattern avec jointures sur ces documents, ou, plus précisément, pour l'approximation de la probabilité d'une requête booléenne sur un document probabiliste. L'approche repose sur, d'une part, la production de la provenance probabiliste de la requête posée, et, d'autre part, la recherche d'une stratégie optimale pour estimer la probabilité de cette provenance. Cette deuxième partie s'inspire des approches des optimiseurs de requêtes: l'exploration de différents plans d'évaluation pour différentes parties de la formule et l'estimation du coût de chaque plan, suivant un modèle de coût établi pour les algorithmes de calcul utilisés. Nous démontrons l'efficacité de cette approche sur des jeux de données utilisés dans des travaux précédents sur l'interrogation des bases de données XML probabilistes, ainsi que sur des données synthétiques. / Probabilistic XML is a probabilistic model for uncertain tree-structured data, with applications to data integration, information extraction, or uncertain version control. We explore in this dissertation efficient algorithms for evaluating tree-pattern queries with joins over probabilistic XML or, more specifically, for approximating the probability of each item of a query result. The approach relies on, first, extracting the query lineage over the probabilistic XML document, and, second, looking for an optimal strategy to approximate the probability of the propositional lineage formula. ProApproX is the probabilistic query manager for probabilistic XML presented in this thesis. The system allows users to query uncertain tree-structured data in the form of probabilistic XML documents. It integrates a query engine that searches for an optimal strategy to evaluate the probability of the query lineage. ProApproX relies on a query-optimizer--like approach: exploring different evaluation plans for different parts of the formula and predicting the cost of each plan, using a cost model for the various evaluation algorithms. We demonstrate the efficiency of this approach on datasets used in a number of most popular previous probabilistic XML querying works, as well as on synthetic data. An early version of the system was demonstrated at the ACM SIGMOD 2011 conference. First steps towards the new query solution were discussed in an EDBT/ICDT PhD Workshop paper (2011). A fully redesigned version that implements the techniques and studies shared in the present thesis, is published as a demonstration at CIKM 2012. Our contributions are also part of an IEEE ICDE
15

Application de la logique floue dans l'interpolation spatio-temporelle à l'aide d'un système d'information géographique

Dragićević, Suzana January 1998 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
16

Étude et évaluation d'une architecture de système pour les bases de données généralisées

Burnier, Marc 21 September 1984 (has links) (PDF)
Dans le cadre du projet TIGRE, on a mis en évidence les insuffisances de systèmes de gestion de données et plus particulièrement des systèmes de gestion de bases de données QUART à la manipulation de ces nouvelles informations volumineuses et structurellement complexes. Description des fondements de ces nouveaux types d'architectures et on aborde la phase d'expérimentation durant laquelle a été évaluée la machine base de données d'Intel, l'IDBP en l'opposant à une configuration plus traditionnelle définie autour de SOCRATE/CI.
17

Explicitation de la sémantique dans les<br />bases de données : Base de données à base ontologique et le modèle OntoDB

Dehainsala, Hondjack 30 May 2007 (has links) (PDF)
Une ontologie de domaine est une représentation de la sémantique des concepts d'un domaine<br />en termes de classes et de propriétés, ainsi que des relations qui les lient. Avec le développement de<br />modèles d'ontologies stables dans différents domaines, OWL dans le domaine duWeb sémantique,<br />PLIB dans le domaine technique, de plus en plus de données (ou de métadonnées) sont décrites par référence à ces ontologies. La taille croissante de telles données rend nécessaire de les gérer au sein de bases de données originales, que nous appelons bases de données à base ontologique (BDBO), et qui possèdent la particularité de représenter, outre les données, les ontologies qui en définissent le sens. Plusieurs architectures de BDBO ont ainsi été proposées au cours des dernières années. Les chémas qu'elles utilisent pour la représentation des données sont soit constitués d'une unique table de triplets de type (sujet, prédicat, objet), soit éclatés en des tables unaires et binaires respectivement pour chaque classe et pour chaque propriété. Si de telles représentations permettent une grande flexibilité dans la structure des données représentées, elles ne sont ni susceptibles de passer à grande échelle lorsque chaque instance est décrite par un nombre significatif de propriétés, ni adaptée à la structure des bases de données usuelles, fondée sur les relations n-aires. C'est ce double inconvénient que vise à résoudre le modèle OntoDB. En introduisant des hypothèses de typages qui semblent acceptables dans beaucoup de domaine d'application, nous proposons une architecture de BDBO constituée de quatre parties : les deux premières parties correspondent à la structure usuelle des bases de données : données reposant sur un schéma logique de données, et méta-base décrivant l'ensemble de la structure de tables.<br />Les deux autres parties, originales, représentent respectivement les ontologies, et le méta-modèle<br />d'ontologie au sein d'un méta-schéma réflexif. Des mécanismes d'abstraction et de nomination permettent respectivement d'associer à chaque donnée le concept ontologique qui en définit le sens, et d'accéder aux données à partir des concepts, sans se préoccuper de la représentation des données. Cette architecture permet à la fois de gérer de façon efficace des données de grande taille définies par référence à des ontologies (données à base ontologique), mais aussi d'indexer des bases de données usuelles au niveau connaissance en leur adjoignant les deux parties : ontologie et méta-schéma. Le modèle d'architecture que nous proposons a été validé par le développement d'un prototype opérationnel implanté sur le système PostgreSQL avec le modèle d'ontologie PLIB. Nous présentons également une évaluation comparative de nos propositions aux modèles présentés antérieurement.
18

Protection cryptographique des bases de données : conception et cryptanalyse

Jacob, Stéphane 08 March 2012 (has links) (PDF)
Cette thèse présente une étude approfondie de la protection cryptographique des bases de données. Elle aborde tous les aspects de ce domaine : la législation l'encadrant, les produits commerciaux et " open-source " offrant ce type de service, et les travaux effectués par les communautés de cryptographie et de base de données. Cette étude se focalise notamment sur les systèmes d'information qui contiennent des données hautement sensibles. Dans ce contexte, nous avons étudié la sécurité de plusieurs propositions. En particulier, nous avons effectué une cryptanalyse de l'algorithme de chiffrement Fast Comparison Encryption (FCE) proposé par Ge et Zdonik en 2007, ainsi que d'une variante suggérée par les auteurs en réaction à notre première cryptanalyse. Ces deux attaques ont l'avantage d'être pratiques, c'est-à-dire qu'elles s'exécutent en temps raisonnable sur un PC standard. Ces travaux nous ont également conduit à proposer des façons sûres de protéger les bases de données en utilisant des algorithmes dont la sécurité a été éprouvée par la communauté cryptographique. Cela permet d'avoir des solutions robustes, à défaut d'être parfaites, pour protéger des données sensibles.
19

Contribution à l'étude sémantique des bases de données : application au système SOCRATE

Barbosa, Rui 11 October 1975 (has links) (PDF)
.
20

Conception d'un système automatisé de gestion de la scolarité de l'enseignement supérieur

Portal, Dominique 20 March 1975 (has links) (PDF)
.

Page generated in 0.0778 seconds