• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 20
  • 14
  • 14
  • Tagged with
  • 46
  • 41
  • 27
  • 27
  • 24
  • 23
  • 21
  • 21
  • 21
  • 17
  • 14
  • 13
  • 10
  • 9
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

HW/SW-database-codesign for compressed bitmap index processing

Lehner, Wolfgang, Haas, Sebastian, Karnagel, Tomas, Arnold, Oliver, Laux, Erik, Schlegel, Benjamin, Fettweis, Gerhard 18 January 2023 (has links)
Compressed bitmap indices are heavily used in scientific and commercial database systems because they largely improve query performance for various workloads. Early research focused on finding tailor-made index compression schemes that are amenable for modern processors. Improving performance further typically comes at the expense of a lower compression rate, which is in many applications not acceptable because of memory limitations. Alternatively, tailor-made hardware allows to achieve a performance that can only hardly be reached with software running on general-purpose CPUs. In this paper, we will show how to create a custom instruction set framework for compressed bitmap processing that is generic enough to implement most of the major compressed bitmap indices. For evaluation, we implemented WAH, PLWAH, and COMPAX operations using our framework and compared the resulting implementation to multiple state-of-the-art processors. We show that the custom-made bitmap processor achieves speedups of up to one order of magnitude by also using two orders of magnitude less energy compared to a modern energy-efficient Intel processor. Finally, we discuss how to embed our processor with database-specific instruction sets into database system environments.
32

Chancen im OPUS: Automatisiert SWD-Schlagwörter produzieren

Herb, Ulrich 21 August 2009 (has links)
Die Folien skizzieren einen Projektantrag, der (2008 und überarbeitet 2009) bei der Deutschen Forschungsgemeinschaft DFG eingereicht wurde. Absicht der beiden Antragssteller, des Instituts der Gesellschaft zur Förderung der Angewandten Informationsforschung (IAI, http://www.iai.uni-sb.de/iaide/index.htm) und der Saarländischen Universitäts- und Landesbibliothek (SULB, http://www.sulb.uni-saarland.de), war es, die am IAI entwickelte Software AUTINDEX zur halbautomatischen Verschlagwortung in Open-Access-Repositories einzubinden. Da Autoren große Mühe mit der Verschlagwortung ihrer Dokumente nach der Schlagwortnormdatei (SWD) haben, sollten sie, ganz im Sinne des "Easy Submission"-Postulats, beim Enspielen der Dokumente unterstützt werden. Mit Hilfe einer linguistisch intelligenten Software sollten automatisch Schlagwörter aus der SWD zu einem eingereichten Dokument erzeugt und dem Autoren angeboten werden. Dieser hätte anschließend entschieden, welche der angebotenen Schlagwörter er dem Dokument zuweisen möchte. Der typische Workflow beim Einspielen von Dokumenten verlangt vom Autor das Ausfüllen eines Metadatenformulars, idealerweise inklusive der Beschreibung mit SWD-Schlagworten. Da die SWD den Autoren nicht vertraut ist, vergeben diese meist unexakte, zu grobe oder falsche Schlagworte - oder solche, die in der SWD nicht existieren. Daher wird ein aufwändiges Nachbearbeiten seitens des Serverbetreibers nötig, der zwar über Expertise in der SWD-Nutzung verfügt, allerdings das Dokument nicht so exakt beschreiben kann wie es dem Autoren möglich wäre. Für ein exaktes Retrieval wäre es sinnvoll, wenn die Wissenschaftler selbst eine exakte Verschlagwortung vornähmen. Die im mittlerweile leider abgelehnten Antrag geplante prototypische, offene und nachnutzbare Einbindung einer Software zur automatischen Vergabe von SWD-Schlagworten hätte eine erhebliche Erleichterung des Veröffentlichungs- und Bearbeitungsprozesses einerseits und eine Verbesserung der Metadatenqualität andererseits gesichert.
33

Evaluierung verschiedener Ansätze zur Indexierung im inhaltsbasierten Image Retrieval

Daßler, Stefanie 10 February 2008 (has links)
In dieser Arbeit werden drei verschiedene Ansätze zur Indexierung beim inhaltsbasierten Image Retrieval evaluiert werden. Als Basis werden dafür Farben und Formen mit Hilfe von annularen Histogrammen extrahiert. Eine Ähnlichkeitsmetrik für diese Histogramme wird über das Produkt der Eulerschen Distanz und der Histogramm Distanz gebildet, der sogenannten Distanzmetrik. Unter Verwendung dieser Metrik werden folgende drei Verfahren der inhaltsbasierten N-Nearest- Neighbor Suche nach Bildern in dieser Arbeit vorgestellt: 1. Einfache, sequentielle Suche in den Histogrammen der Bilder 2. Verwendung des Evolving Tree, einer Art SOM, als Indexstruktur 3. Nutzung des Vantage Point Trees als Indexstruktur Abschließend sollen die drei beschriebenen Verfahren miteinander verglichen und ausgewertet werden. Im Hinblick auf das inhaltsbasierte Image Retrieval zeigen sich die Vorteile und Nachteile der Anwendung dieser Verfahren.
34

32. Jahrestagung der Gesellschaft für Klassifikation

30 October 2008 (has links)
Einleitend zur Archivierung in MONARCH entstand ein Text zur bibliothekarischen Veranstaltung in Hamburg, Juli 2008. Wichtig für die Bibliothekare in der Gesellschaft für Klassifikation ist: Ihr gemeinsames Thema ist die Inhaltserschliessung; dabei soll der Rote Faden immer dorthin laufen, wo Neues oder Trends zu entdecken sind.
35

Indexing RDF data using materialized SPARQL queries

Espinola, Roger Humberto Castillo 10 September 2012 (has links)
In dieser Arbeit schlagen wir die Verwendung von materialisierten Anfragen als Indexstruktur für RDF-Daten vor. Wir streben eine Reduktion der Bearbeitungszeit durch die Minimierung der Anzahl der Vergleiche zwischen Anfrage und RDF Datenmenge an. Darüberhinaus betonen wir die Rolle von Kostenmodellen und Indizes für die Auswahl eines efizienten Ausführungsplans in Abhängigkeit vom Workload. Wir geben einen Überblick über das Problem der Auswahl von materialisierten Anfragen in relationalen Datenbanken und diskutieren ihre Anwendung zur Optimierung der Anfrageverarbeitung. Wir stellen RDFMatView als Framework für SPARQL-Anfragen vor. RDFMatView benutzt materializierte Anfragen als Indizes und enthalt Algorithmen, um geeignete Indizes fur eine gegebene Anfrage zu finden und sie in Ausführungspläne zu integrieren. Die Auswahl eines effizienten Ausführungsplan ist das zweite Thema dieser Arbeit. Wir führen drei verschiedene Kostenmodelle für die Verarbeitung von SPARQL Anfragen ein. Ein detaillierter Vergleich der Kostmodelle zeigt, dass ein auf Index-- und Prädikat--Statistiken beruhendes Modell die genauesten Informationen liefert, um einen effizienten Ausführungsplan auszuwählen. Die Evaluation zeigt, dass unsere Methode die Anfragebearbeitungszeit im Vergleich zu unoptimierten SPARQL--Anfragen um mehrere Größenordnungen reduziert. Schließlich schlagen wir eine einfache, aber effektive Strategie für das Problem der Auswahl von materialisierten Anfragen über RDF-Daten vor. Ausgehend von einem bestimmten Workload werden algorithmisch diejenigen Indizes augewählt, die die Bearbeitungszeit des gesamten Workload minimieren sollen. Dann erstellen wir auf der Basis von Anfragemustern eine Menge von Index--Kandidaten und suchen in dieser Menge Zusammenhangskomponenten. Unsere Auswertung zeigt, dass unsere Methode zur Auswahl von Indizes im Vergleich zu anderen, die größten Einsparungen in der Anfragebearbeitungszeit liefert. / In this thesis, we propose to use materialized queries as a special index structure for RDF data. We strive to reduce the query processing time by minimizing the number of comparisons between the query and the RDF dataset. We also emphasize the role of cost models in the selection of execution plans as well as index sets for a given workload. We provide an overview of the materialized view selection problem in relational databases and discuss its application for optimization of query processing. We introduce RDFMatView, a framework for answering SPARQL queries using materialized views as indexes. We provide algorithms to discover those indexes that can be used to process a given query and we develop different strategies to integrate these views in query execution plans. The selection of an efficient execution plan states the topic of our second major contribution. We introduce three different cost models designed for SPARQL query processing with materialized views. A detailed comparison of these models reveals that a model based on index and predicate statistics provides the most accurate cost estimation. We show that selecting an execution plan using this cost model yields a reduction of processing time with several orders of magnitude compared to standard SPARQL query processing. Finally, we propose a simple yet effective strategy for the materialized view selection problem applied to RDF data. Based on a given workload of SPARQL queries we provide algorithms for selecting a set of indexes that minimizes the workload processing time. We create a candidate index by retrieving all connected components from query patterns. Our evaluation shows that using the set of suggested indexes usually achieves larger runtime savings than other index sets regarding the given workload.
36

GoWeb: Semantic Search and Browsing for the Life Sciences

Dietze, Heiko 21 December 2010 (has links) (PDF)
Searching is a fundamental task to support research. Current search engines are keyword-based. Semantic technologies promise a next generation of semantic search engines, which will be able to answer questions. Current approaches either apply natural language processing to unstructured text or they assume the existence of structured statements over which they can reason. This work provides a system for combining the classical keyword-based search engines with semantic annotation. Conventional search results are annotated using a customized annotation algorithm, which takes the textual properties and requirements such as speed and scalability into account. The biomedical background knowledge consists of the GeneOntology and Medical Subject Headings and other related entities, e.g. proteins/gene names and person names. Together they provide the relevant semantic context for a search engine for the life sciences. We develop the system GoWeb for semantic web search and evaluate it using three benchmarks. It is shown that GoWeb is able to aid question answering with success rates up to 79%. Furthermore, the system also includes semantic hyperlinks that enable semantic browsing of the knowledge space. The semantic hyperlinks facilitate the use of the eScience infrastructure, even complex workflows of composed web services. To complement the web search of GoWeb, other data source and more specialized information needs are tested in different prototypes. This includes patents and intranet search. Semantic search is applicable for these usage scenarios, but the developed systems also show limits of the semantic approach. That is the size, applicability and completeness of the integrated ontologies, as well as technical issues of text-extraction and meta-data information gathering. Additionally, semantic indexing as an alternative approach to implement semantic search is implemented and evaluated with a question answering benchmark. A semantic index can help to answer questions and address some limitations of GoWeb. Still the maintenance and optimization of such an index is a challenge, whereas GoWeb provides a straightforward system.
37

Gemeinschaftliche Strukturierung von Inhalten im elektronisch unterstützten Lernen

Lohmann, Steffen, Fienhold, Jan, Riechert, Thomas 24 April 2014 (has links) (PDF)
No description available.
38

Lösungen suchen – Visionen bewahren / Look for solutions – preserve visions

22 December 2011 (has links) (PDF)
In der Rückschau auf Frankfurt 2011 ist festzuhalten: Es kamen 40 interessierte Kolleginnen und Kollegen. An zwei Tagen hatten wir wieder 13 Vorträge und natürlich ein Beiprogramm (geführte Bibliotheksbesichtigungen). Nach wie vor ein Adjektiv von Gewicht in den Vorträgen ist „automatisch“ oder „automatisiert“. Es suggeriert die Erzeugung von Schlagwörtern oder Klassifikations-Notationen ohne oder fast ohne intellektuelle Einwirkung der Bibliothekare. Die automatisierte Indexierung braucht allerdings immer "Referenz-Datenpools", um zu funktionieren. Auch die kontinuierliche Weiterentwicklung von Thesauri und Systematiken wird wohl immer von Menschen gemacht werden müssen. Soviel in aller Kürze zu Neuem in demjenigen Bereich der Bibliothekswelt, der uns in der GfKl angeht: Das inhaltliche Erschließen, Suchen und Finden. / Looking back at Frankfurt it may be stated: 40 colleagues attended our meeting. In two days we listened to 13 speeches. And of course a support program – consisting of library tours – was run. One of the pre-eminent adjectives in the various contributions was “automatic” or “automated”; it suggests the idea of machine-created notations in a classification system or some kind of a self-generating controlled vocabulary in a system of subject headings. But any system of automated indexing needs pools of reference data – and those cannot be created without intellectual input. Which applies also to the creation of a thesaurus. That far my very brief introduction into our 2011 investigation into the novelties of that part of the library world that concerns us: Subject indexing or simply search and find. Hans-J. Hermes
39

Lösungen suchen – Visionen bewahren: Tagung der Arbeitsgruppen Bibliotheken und Dezimalklassifikationen im Rahmen der 35. Jahrestagung der Gesellschaft für Klassifikation am 31. August und 01. September 2011 in Frankfurt /M.

Hermes, Hans-Joachim, Lorenz, Bernd 22 December 2011 (has links)
In der Rückschau auf Frankfurt 2011 ist festzuhalten: Es kamen 40 interessierte Kolleginnen und Kollegen. An zwei Tagen hatten wir wieder 13 Vorträge und natürlich ein Beiprogramm (geführte Bibliotheksbesichtigungen). Nach wie vor ein Adjektiv von Gewicht in den Vorträgen ist „automatisch“ oder „automatisiert“. Es suggeriert die Erzeugung von Schlagwörtern oder Klassifikations-Notationen ohne oder fast ohne intellektuelle Einwirkung der Bibliothekare. Die automatisierte Indexierung braucht allerdings immer "Referenz-Datenpools", um zu funktionieren. Auch die kontinuierliche Weiterentwicklung von Thesauri und Systematiken wird wohl immer von Menschen gemacht werden müssen. Soviel in aller Kürze zu Neuem in demjenigen Bereich der Bibliothekswelt, der uns in der GfKl angeht: Das inhaltliche Erschließen, Suchen und Finden. / Looking back at Frankfurt it may be stated: 40 colleagues attended our meeting. In two days we listened to 13 speeches. And of course a support program – consisting of library tours – was run. One of the pre-eminent adjectives in the various contributions was “automatic” or “automated”; it suggests the idea of machine-created notations in a classification system or some kind of a self-generating controlled vocabulary in a system of subject headings. But any system of automated indexing needs pools of reference data – and those cannot be created without intellectual input. Which applies also to the creation of a thesaurus. That far my very brief introduction into our 2011 investigation into the novelties of that part of the library world that concerns us: Subject indexing or simply search and find. Hans-J. Hermes
40

Gemeinschaftliche Strukturierung von Inhalten im elektronisch unterstützten Lernen

Lohmann, Steffen, Fienhold, Jan, Riechert, Thomas January 2007 (has links)
No description available.

Page generated in 0.3824 seconds