• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 23
  • 7
  • 6
  • 4
  • 4
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 56
  • 47
  • 23
  • 19
  • 14
  • 12
  • 9
  • 9
  • 8
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Temporální XML databáze / Temporal XML Databases

Kunovský, Tomáš January 2016 (has links)
The primary goal of this work is a implementation of temporal XML database in Java. There are described databases for XML documents and temporal databases with emphasis on their query languages and problem data storing is also analyzes for temporal databases. Source codes of the resulting application are public as open-source.
52

Effiziente Ad-Hoc-Abfragen in Objektdatenbanken am Beispiel der ZODB

Wehrmann, Sebastian 23 April 2008 (has links)
Die Zope Object Database, kurz ZODB, ist eine Open-Source-Datenbank für Python. Im Gegensatz zu den meisten relationalen Datenbanken verfügt die ZODB allerdings nicht über eine Anfragesprache zur gezielten Selektion von Objekten. <br /> Aufgabe dieser Diplomarbeit ist es, effiziente Ad-Hoc-Anfragemöglichkeiten zu evaluieren und eine geeignete als Zusatzprodukt in Python zu implementieren. <br /> Folgende Themen sind zu bearbeiten: <ul> <li>Vergleich und Auswahl einer Anfragesprache für Objektgraphen</li> <li>Auswahl von Indexstrukturen zur Unterstützung der gewählten Anfragesprache</li> <li>Implementation eines Zusatzprodukts zur ZODB, die eine Anfragesprache sowie unterstützende Indizes bereitstellt</li> <li>Testen und Bewerten der Implementierung</li> </ul>
53

Efficient techniques for large-scale Web data management / Techniques efficaces de gestion de données Web à grande échelle

Camacho Rodriguez, Jesus 25 September 2014 (has links)
Le développement récent des offres commerciales autour du cloud computing a fortement influé sur la recherche et le développement des plateformes de distribution numérique. Les fournisseurs du cloud offrent une infrastructure de distribution extensible qui peut être utilisée pour le stockage et le traitement des données.En parallèle avec le développement des plates-formes de cloud computing, les modèles de programmation qui parallélisent de manière transparente l'exécution des tâches gourmandes en données sur des machines standards ont suscité un intérêt considérable, à commencer par le modèle MapReduce très connu aujourd'hui puis par d'autres frameworks plus récents et complets. Puisque ces modèles sont de plus en plus utilisés pour exprimer les tâches de traitement de données analytiques, la nécessité se fait ressentir dans l'utilisation des langages de haut niveau qui facilitent la charge de l'écriture des requêtes complexes pour ces systèmes.Cette thèse porte sur des modèles et techniques d'optimisation pour le traitement efficace de grandes masses de données du Web sur des infrastructures à grande échelle. Plus particulièrement, nous étudions la performance et le coût d'exploitation des services de cloud computing pour construire des entrepôts de données Web ainsi que la parallélisation et l'optimisation des langages de requêtes conçus sur mesure selon les données déclaratives du Web.Tout d'abord, nous présentons AMADA, une architecture d'entreposage de données Web à grande échelle dans les plateformes commerciales de cloud computing. AMADA opère comme logiciel en tant que service, permettant aux utilisateurs de télécharger, stocker et interroger de grands volumes de données Web. Sachant que les utilisateurs du cloud prennent en charge les coûts monétaires directement liés à leur consommation de ressources, notre objectif n'est pas seulement la minimisation du temps d'exécution des requêtes, mais aussi la minimisation des coûts financiers associés aux traitements de données. Plus précisément, nous étudions l'applicabilité de plusieurs stratégies d'indexation de contenus et nous montrons qu'elles permettent non seulement de réduire le temps d'exécution des requêtes mais aussi, et surtout, de diminuer les coûts monétaires liés à l'exploitation de l'entrepôt basé sur le cloud.Ensuite, nous étudions la parallélisation efficace de l'exécution de requêtes complexes sur des documents XML mis en œuvre au sein de notre système PAXQuery. Nous fournissons de nouveaux algorithmes montrant comment traduire ces requêtes dans des plans exprimés par le modèle de programmation PACT (PArallelization ConTracts). Ces plans sont ensuite optimisés et exécutés en parallèle par le système Stratosphere. Nous démontrons l'efficacité et l'extensibilité de notre approche à travers des expérimentations sur des centaines de Go de données XML.Enfin, nous présentons une nouvelle approche pour l'identification et la réutilisation des sous-expressions communes qui surviennent dans les scripts Pig Latin. Notre algorithme, nommé PigReuse, agit sur les représentations algébriques des scripts Pig Latin, identifie les possibilités de fusion des sous-expressions, sélectionne les meilleurs à exécuter en fonction du coût et fusionne d'autres expressions équivalentes pour partager leurs résultats. Nous apportons plusieurs extensions à l'algorithme afin d’améliorer sa performance. Nos résultats expérimentaux démontrent l'efficacité et la rapidité de nos algorithmes basés sur la réutilisation et des stratégies d'optimisation. / The recent development of commercial cloud computing environments has strongly impacted research and development in distributed software platforms. Cloud providers offer a distributed, shared-nothing infrastructure, that may be used for data storage and processing.In parallel with the development of cloud platforms, programming models that seamlessly parallelize the execution of data-intensive tasks over large clusters of commodity machines have received significant attention, starting with the MapReduce model very well known by now, and continuing through other novel and more expressive frameworks. As these models are increasingly used to express analytical-style data processing tasks, the need for higher-level languages that ease the burden of writing complex queries for these systems arises.This thesis investigates the efficient management of Web data on large-scale infrastructures. In particular, we study the performance and cost of exploiting cloud services to build Web data warehouses, and the parallelization and optimization of query languages that are tailored towards querying Web data declaratively.First, we present AMADA, an architecture for warehousing large-scale Web data in commercial cloud platforms. AMADA operates in a Software as a Service (SaaS) approach, allowing users to upload, store, and query large volumes of Web data. Since cloud users support monetary costs directly connected to their consumption of resources, our focus is not only on query performance from an execution time perspective, but also on the monetary costs associated to this processing. In particular, we study the applicability of several content indexing strategies, and show that they lead not only to reducing query evaluation time, but also, importantly, to reducing the monetary costs associated with the exploitation of the cloud-based warehouse.Second, we consider the efficient parallelization of the execution of complex queries over XML documents, implemented within our system PAXQuery. We provide novel algorithms showing how to translate such queries into plans expressed in the PArallelization ConTracts (PACT) programming model. These plans are then optimized and executed in parallel by the Stratosphere system. We demonstrate the efficiency and scalability of our approach through experiments on hundreds of GB of XML data.Finally, we present a novel approach for identifying and reusing common subexpressions occurring in Pig Latin scripts. In particular, we lay the foundation of our reuse-based algorithms by formalizing the semantics of the Pig Latin query language with extended nested relational algebra for bags. Our algorithm, named PigReuse, operates on the algebraic representations of Pig Latin scripts, identifies subexpression merging opportunities, selects the best ones to execute based on a cost function, and merges other equivalent expressions to share its result. We bring several extensions to the algorithm to improve its performance. Our experiment results demonstrate the efficiency and effectiveness of our reuse-based algorithms and optimization strategies.
54

Evaluation of Queries on Linked Distributed XML Data / Auswertung von Anfragen an verteilte, verlinkte XML Daten

Behrends, Erik 18 December 2006 (has links)
No description available.
55

Nativní XML databáze s rozhraním XQuery / Native XML Database with XQuery Interface

Losert, Jakub Unknown Date (has links)
The aim of this Thesis is implement Aplication Programming Interface (API) with support of XML native documents. First part deal with introduction of XML model and with this markup language related technologies. Alfter that the thesis describe individual XML native databases solutions and focus to issues of persistence XML data stored in relational databases, analyse mapping methods applicable to their relational model. After that the thesis describe design and implementation of the API, which afford a resources for XML documents data holding and manipulating in relational database system. The final section of this thesis is assignment to aplication tests and evaluation of results.
56

Architecture de Négociation et d'Adaptation de Services Multimédia dans des Environnements Hétérogènes

LEMLOUMA, Tayeb 09 June 2004 (has links) (PDF)
Les progrès technologiques récents ont permis l'apparition d'une grande variété de nouveaux moyens pour accéder et utiliser l'information multimédia du Web en tout lieu et à tout moment. L'hétérogénéité des appareils d'accès s'est accompagné une évolution importante de l'information disponible sur le réseau. Aujourd'hui, on trouve une multitude de formats complexes avec de nouvelles fonctionnalités, telles que la vidéo interactive, les animations 3D et le dessin vectoriel. Ces formats s'appuient sur de nouveaux modèles de documents qui intègrent une structure logique, spatiale, temporelle et une dimension hypermédia.<br /><br />Face à cette évolution, il est nécessaire de concevoir des systèmes qui permettent l'accès et l'utilisation de l'information sous une forme qui corresponde aux contraintes imposées par l'environnement. Cette thèse a pour objectif de contribuer à l'adaptation et à la négociation des contenus en considérant les limitations des utilisateurs et les contraintes de leur environnement. Nous présentons une architecture flexible appelée NAC qui permet de définir les composants qui interviennent dans la négociation et l'adaptation de contenu, et qui décrit comment ces composants sont organisés.<br /><br />NAC permet plusieurs types d'adaptation : une adaptation structurelle, une adaptation sémantique et une adaptation des ressources médias. Ces types d'adaptation sont basés sur les différents contextes des clients (caractéristiques des terminaux, préférences des utilisateurs, etc.). Nous proposons également un modèle de description de contextes UPS (schémas universels pour la description des profils), un protocole de négociation et un ensemble de techniques d'adaptation. Les concepts de l'architecture NAC ont contribué aux travaux de standardisation du consortium W3C, en particulier au cadre de travail CC/PP et aux travaux sur l'indépendance des terminaux. Cette étude est complétée par une évaluation de performances qui démontre que le système proposé est exploitable dans la pratique.

Page generated in 0.0401 seconds