• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 21
  • 14
  • 4
  • 4
  • 4
  • 3
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 59
  • 20
  • 10
  • 7
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Entscheidungsfindungsprozesse von Gutachtergruppen

Olbrecht, Meike 14 April 2014 (has links)
Die vorliegende Arbeit geht der Frage nach, wie Gutachterinnen und Gutachter im Rahmen von Gruppenbegutachtungen zu einer gemeinsamen Bewertungsentscheidung finden. Untersucht wird diese Frage am Beispiel von Gruppenbegutachtungen zur Förderung von Sonderforschungsbereichen (SFB). Die Ergebnisse der Arbeit zeigen, dass sowohl die organisatorischen Rahmenbedingungen der Begutachtungssitzungen als auch die Organisation des gesamten Peer-Review-Prozesses, in welchem die Gruppenbegutachtung in der Regel nur einen Verfahrensschritt darstellt, maßgeblichen Einfluss auf den Prozess der Entscheidungsfindung innerhalb des Panels nehmen, wie auch auf die letztendliche konsensuale Entscheidung der Gutachtergruppe und die (unerwünschten) Gruppenphänomene, die während der Panelbegutachtung auftreten können. Die Ergebnisse zeigen darüberhinaus, dass Gutachtende den Prozess der Begutachtung sowohl als Subjekt ihrer eigenen Entscheidungsfindung (Rolle: Gutachter) als auch als Objekt des Entscheidungsfindungsprozesses anderer (Rolle: Antragsteller) wahrnehmen. Deshalb ist es für sie zentral, als Subjekt an einem Prozess teilzunehmen, der so fair ist, dass sie ihn auch als Objekt der Entscheidung anderer als fair erleben können. Dieser persönlichen Forderung nach Fairness kommt die Gruppenbegutachtung, den Ergebnissen zu Folge, stärker entgegen als die Einzelbegutachtung. Methodisch wurde ein exploratives Vorgehen gewählt und drei SFB-Beratungsgespräche sowie vier SFB-Einrichtungsbegutachtungen mit Hilfe der Methode der nicht-teilnehmenden Beobachtung analysiert. Zusätzlich wurden 80 Leitfadeninterviews mit Beteiligten der Begutachtungssitzungen und ausgewählten Antragstellenden sowie Dokumentenanalysen von Begutachtungsunterlagen durchgeführt. / The study addresses the question of how peer review committees come to a consensual decision. Therefore the decision making process of review committees to promote collaborative research centres (CRC, in German: Sonderforschungsbereiche, SFB) was analyzed. The results show that the organizational framework of the evaluation sessions as well as the organization of the entire peer review process (whereby the group evaluation is only one step in the whole process) have a great influence on: (1) on the decision making process within the panel, (2) on the final consensual decision of the panel group and (3) on the (unwanted) group phenomena that may occur during panel reviews. In addition the results illustrate that reviewers perceived the process of evaluations as both the subject of their own decisions (role: reviewer) as well as the object of the decision-making process of others (role: applicant). Therefore, for them it is central as a subject to participate in a process that is so fair that they can also experience the process as being wholly fair as an object of the decision of others. This personal call for fairness is stronger in relation to group evaluations than for individual peer review evaluations. Methodologically, an exploratory approach was chosen and three CRC preliminary review session (SFB Beratungsgespräch) and four CRC on-site reviews (SFB Einrichtungsbegutachtungen) were analyzed using the method of non-participant observation. In addition, 80 semi-structured interviews were conducted with evaluation session participants and selected applicants and a content analysis of review documents were done.
42

Dresdner Transferbrief

05 April 2013 (has links) (PDF)
Thema der Ausgabe 3(2004): Werkstoffe und Werkstofftechnik Keramik – von Nano bis Supra S. 5, 7 Pulvermetallurgie Verbundwerkstoffe S. 6, 10, 11, 16, 18 Fügen, Walzen Beschichten S. 4, 12, 15 Kein Widerspruch: Holz und Innovation S. 14, 17, 20 Prozesse – überwachen und managen S. 8, 9, 13, 19, 21, 22
43

Erstellung eines WMS zur Blattschnittübersicht aus CSW Metadaten / Creation of a WMS for map sheet index of CSW metadata

Knappe, Madeleine, Wunderlich, André 04 October 2010 (has links) (PDF)
Die Arbeit sollte die technische Machbarkeit der Verwendung digitaler Metadaten in Geodateninfrastrukturen aufzeigen und wenn möglich prototypisch umsetzen. Dabei sollten die Metadaten über Topographische Karten, welche in dem Metainformationssystem GeoMIS.Sachsen und über einen entsprechenden Katalogdienst (CSW) verfügbar sind, in einem Geoportal visualisiert werden. Im Ergebnis wurde ein Workflow entwickelt und umgesetzt, welcher die Metadaten automatisch abruft, die Metadaten entsprechend transformiert und abschließend die Metadaten über einen Kartendienst (WMS) für beliebige Geoportale bereitstellt. Dadurch ist es möglich die Aktualität von bereits vorhanden Kartendiensten bzw. deren Daten abzufragen. Durch die zyklische Ausführung des Prozesses auf dem Server stehen dem Nutzer jederzeit aktuelle Blattschnittübersichten zur Verfügung. Darüber hinaus steht ebenfalls ein Kartendienst für Vektordaten bereit über den die Geometriedaten und zusätzliche Sachinformationen direkt abgerufen werden können. Außerdem wird ein direkter Verweis (Link) auf den entsprechenden Metadatensatz im GeoMIS.Sachsen angegeben. Weiterhin wurde eine Transformation entwickelt, welche die im XML vorliegenden Metadaten in eine SVG überführt. Diese interaktive Blattschnittübersicht kann direkt auf Webseiten eingebunden werden. Außerdem kann aus dem SVG Format wiederum automatisiert ein PDF Dokument erstellt werden. Die Arbeit konnte nachweisen, dass zukünftig eine doppelte und getrennte Datenführung von Metadaten und Blattschnittübersichten nicht notwendig ist. Die Verwendung der IT Standardtechnologie XSLT zur Transformation von XML Daten hat sich bewährt und ermöglicht auch die Unterstützung weiterer Formate wie z.B. XHTML, KML (google) oder XCPF. Der erarbeitete Ansatz ist auch für andere Geodaten wie z.B. Luftbilder, historische Karten oder Bebauungspläne anwendbar. Durch die Visualisierung der textbasierten Metadaten war außerdem eine Qualitätssicherung der Metadaten möglich. / The work shows the technical feasibility of digital metadata within Spatial Data Infrastructures. The visualization of digital geo-metadata in geoportals was prototypical implemented. The use case was a map sheet index of topographical maps who is prepared automatically. Geo-metadata are described in the metadata information system GeoMIS.Sachsen and provided by a catalogue service (CSW). As a result a workflow was developed and implemented which calls the metadata automatically, transforms the metadata into GML and finally prepares the metadata through a web map service in geoportals. Thereby it is possible to analyze the actuality of the topographical maps through map sheet index. Because of the cyclical update of the data the map patterns are always up to date. There is also a map service for vector data (WFS) implemented which enables a user to directly retrieve additional factual information. Furthermore a direct URL to the metadataset in the GeoMIS.Sachsen is stated. Besides the GML transformation another one was developed, which converts the metadata in XML format into scalable vector graphics (SVG). This interactive map sheet index could be integrated directly on websites. It is also possible to create a PDF document automatically out of the SVG with appropriate software tools. By using the XSLT standard additional formats could also be served. For example a transformation of the XML source data into KML (Google), XHTML or XCPF is possible. This work demonstrates that there is no need for a separation of metadata and map sheet index any more. The usage of XSLT was profitable and supports a lot of formats. The workflow is also usable for other geo data like air photography, historical maps or development plans. In addition it is possible to use the workflow to visualize other metadata like resolution or prices of each map. Because of the visualization of the text based metadata a quality check of the data is possible.
44

A comparison of the rate and accuracy of symbol location on visual displays using colour-coded alphabetic and categorisation strategies in Grade 1 to 3 children

Herold, M.P. (Marina Patricia) 02 July 2012 (has links)
THIS THESIS IS IN THE EXAMINATION PROCESS The ability to locate symbols on a visual display forms an integral part of the effective use of AAC systems. Characteristics of display design and perceptual features of symbols have been shown to influence rate and accuracy of symbol location (Thistle&Wilkinson, 2009; Wilkinson, Carlin,&Jagaroo, 2006). The current study endeavoured to compare the use of two colour-coded organisational strategies (alphabetical order and subcategorisation) for their effectiveness in symbol location and to investigate if some bottom-up features influenced the performance of the participants in these tasks. 114 learners in Grade 1 to 3 in a mainstream school were randomly divided into two groups. Both of the groups were exposed to two visual search tests in alternating order. The tests involved searching for 36 visual targets amongst 81 coloured Picture Communication Symbols on a computer screen in one of two colour-coded organizational methods, namely alphabetical order or subcategorisation. The data from the research task was collected through computer logging of all mouse selections. Findings showed that locating symbols on a computer screen with a subcategorisation strategy was significantly faster and more accurate than with an alphabetical strategy for the Grade 1 to 3 participants. The differences between the rates and accuracy of target symbol location using the two strategies decreased significantly as grade increased. It was also found that although the tests in this study placed heavy top-down processing demands on the participants, there was still evidence of bottom-up factors influencing their performance. Implications for display design in AAC clinical practice were discussed. / Thesis (PhD)--University of Pretoria, 2012. / Centre for Augmentative and Alternative Communication (CAAC) / Unrestricted
45

Nízkoúrovňová měření / Low level measurement

Roubal, Zdeněk January 2016 (has links)
The doctoral thesis presents methods for low-level measurements, which are exemplified by the general measurement of air ion concentration. Within the first section, the author progressively identifies certain critical effects influencing the concentration of air ions, and these effects are to be considered in evaluating the uncertainty of the measured concentrations. Thus, the thesis aims to provide a systematic description of the procedures and requirements related to low-level measurements; the proposed description then involves a discussion of the process reliability requirements, namely the factors of repeatability, elimination of errors, and definition and describability of measurement uncertainties. Such methodology facilitates, among other activities, the long-term monitoring of air ion concentration in extreme environments, including caves or spaces characterized by high temperatures and humidity. The use of common methods for determining the air ion mobility spectrum is accompanied by a number of disturbing effects, such as spurious fluctuation in the concentration of air ions in time. The experimental section of the thesis describes the testing of different configurations of the measuring device (a collecting electrode and a polarization capacitor); at this stage, we seek the most advantageous distribution of the electrostatic field in the sensor – a Gerdien tube. The systematic suppression of the influence of spurious fluctuations in air ion concentration during the measurement of saturation characteristics is carried out with the least-squares numerical method (as a supporting element), a hybrid technique to describe and evaluate the experimental model. In the second part of the thesis, the methodology of low-level measurement is complemented with procedures for the measurement of freezing potential. This latter domain, as an overall experimental approach applicable during phase changes of the sample, has hitherto not been sufficiently characterized from the metrological perspective, in an up-to-date manner; several subregions of the said domain remain somewhat obscured and deserve significantly more attention. In the given context, this thesis systematically considers a problem where comparable measurement results produced by multiple authors are not available. The measuring methodology proposed herein was utilized in applied research to facilitate the fabrication of an apparatus for the experimental measurement of freezing potential in pre-defined samples; the obtained results then lead us to conclusions with respect to the evaluation of effects that cause differences in the measured data, and the results can be further compared with those obtained by other researchers investigating the given segment of the problem.
46

Erstellung eines WMS zur Blattschnittübersicht aus CSW Metadaten

Knappe, Madeleine, Wunderlich, André 27 October 2009 (has links)
Die Arbeit sollte die technische Machbarkeit der Verwendung digitaler Metadaten in Geodateninfrastrukturen aufzeigen und wenn möglich prototypisch umsetzen. Dabei sollten die Metadaten über Topographische Karten, welche in dem Metainformationssystem GeoMIS.Sachsen und über einen entsprechenden Katalogdienst (CSW) verfügbar sind, in einem Geoportal visualisiert werden. Im Ergebnis wurde ein Workflow entwickelt und umgesetzt, welcher die Metadaten automatisch abruft, die Metadaten entsprechend transformiert und abschließend die Metadaten über einen Kartendienst (WMS) für beliebige Geoportale bereitstellt. Dadurch ist es möglich die Aktualität von bereits vorhanden Kartendiensten bzw. deren Daten abzufragen. Durch die zyklische Ausführung des Prozesses auf dem Server stehen dem Nutzer jederzeit aktuelle Blattschnittübersichten zur Verfügung. Darüber hinaus steht ebenfalls ein Kartendienst für Vektordaten bereit über den die Geometriedaten und zusätzliche Sachinformationen direkt abgerufen werden können. Außerdem wird ein direkter Verweis (Link) auf den entsprechenden Metadatensatz im GeoMIS.Sachsen angegeben. Weiterhin wurde eine Transformation entwickelt, welche die im XML vorliegenden Metadaten in eine SVG überführt. Diese interaktive Blattschnittübersicht kann direkt auf Webseiten eingebunden werden. Außerdem kann aus dem SVG Format wiederum automatisiert ein PDF Dokument erstellt werden. Die Arbeit konnte nachweisen, dass zukünftig eine doppelte und getrennte Datenführung von Metadaten und Blattschnittübersichten nicht notwendig ist. Die Verwendung der IT Standardtechnologie XSLT zur Transformation von XML Daten hat sich bewährt und ermöglicht auch die Unterstützung weiterer Formate wie z.B. XHTML, KML (google) oder XCPF. Der erarbeitete Ansatz ist auch für andere Geodaten wie z.B. Luftbilder, historische Karten oder Bebauungspläne anwendbar. Durch die Visualisierung der textbasierten Metadaten war außerdem eine Qualitätssicherung der Metadaten möglich.:1 Ziel des Projektes 2 Grundlagen 2.1 Geoportale 2.2 Geodienste 2.2.1 OGC WMS 2.2.2 MapServer 2.3 Metadaten 2.4 XSL Transformation 3 Entwurfsentscheidung 4 Implementierung 4.1 Verwendete Programme 4.2 Datenabfrage 4.3 Transformation 4.4 Aufsetzen eines WMS 4.4.1 Installation MapServer 4.4.2 Mapfile 4.4.3 HTML Template 4.4 Aktualisierung der Daten 5 Ergebnis und Anwendungsmöglichkeiten 6 Aufwand und Nutzen 6.1. Einarbeitung 6.2. Produktion 6. 3. Nutzen 7 Ausblick 7.1 Klassifizierung 7.2 Direkte Verlinkung zum GeoMIS.Sachsen 7.3 Anwendung auf weitere Daten 7.4 Bereitstellung als WFS 7.5 Direkte Anbindung der Datenbank des GeoMIS und ggf. on-the-fly Visualisierung 7.6 Bereitstellung der Daten als Download 7.7 Verknüpfung der Produktionsdaten mit dem GeoMIS 8 Quellenverzeichnis 8.1 Literaturquellen 8.2 Internetquellen ANHÄNGE A Übersicht der einzelnen Blattschnitte B Empfohlene Verzeichnisstruktur C Übersicht Transformationen D Übersicht MAP File E Übersicht HTML Templates F Installation des Map Server und Einrichtung des Web Map Service G Aufruf des Web Map Service I WFS / The work shows the technical feasibility of digital metadata within Spatial Data Infrastructures. The visualization of digital geo-metadata in geoportals was prototypical implemented. The use case was a map sheet index of topographical maps who is prepared automatically. Geo-metadata are described in the metadata information system GeoMIS.Sachsen and provided by a catalogue service (CSW). As a result a workflow was developed and implemented which calls the metadata automatically, transforms the metadata into GML and finally prepares the metadata through a web map service in geoportals. Thereby it is possible to analyze the actuality of the topographical maps through map sheet index. Because of the cyclical update of the data the map patterns are always up to date. There is also a map service for vector data (WFS) implemented which enables a user to directly retrieve additional factual information. Furthermore a direct URL to the metadataset in the GeoMIS.Sachsen is stated. Besides the GML transformation another one was developed, which converts the metadata in XML format into scalable vector graphics (SVG). This interactive map sheet index could be integrated directly on websites. It is also possible to create a PDF document automatically out of the SVG with appropriate software tools. By using the XSLT standard additional formats could also be served. For example a transformation of the XML source data into KML (Google), XHTML or XCPF is possible. This work demonstrates that there is no need for a separation of metadata and map sheet index any more. The usage of XSLT was profitable and supports a lot of formats. The workflow is also usable for other geo data like air photography, historical maps or development plans. In addition it is possible to use the workflow to visualize other metadata like resolution or prices of each map. Because of the visualization of the text based metadata a quality check of the data is possible.:1 Ziel des Projektes 2 Grundlagen 2.1 Geoportale 2.2 Geodienste 2.2.1 OGC WMS 2.2.2 MapServer 2.3 Metadaten 2.4 XSL Transformation 3 Entwurfsentscheidung 4 Implementierung 4.1 Verwendete Programme 4.2 Datenabfrage 4.3 Transformation 4.4 Aufsetzen eines WMS 4.4.1 Installation MapServer 4.4.2 Mapfile 4.4.3 HTML Template 4.4 Aktualisierung der Daten 5 Ergebnis und Anwendungsmöglichkeiten 6 Aufwand und Nutzen 6.1. Einarbeitung 6.2. Produktion 6. 3. Nutzen 7 Ausblick 7.1 Klassifizierung 7.2 Direkte Verlinkung zum GeoMIS.Sachsen 7.3 Anwendung auf weitere Daten 7.4 Bereitstellung als WFS 7.5 Direkte Anbindung der Datenbank des GeoMIS und ggf. on-the-fly Visualisierung 7.6 Bereitstellung der Daten als Download 7.7 Verknüpfung der Produktionsdaten mit dem GeoMIS 8 Quellenverzeichnis 8.1 Literaturquellen 8.2 Internetquellen ANHÄNGE A Übersicht der einzelnen Blattschnitte B Empfohlene Verzeichnisstruktur C Übersicht Transformationen D Übersicht MAP File E Übersicht HTML Templates F Installation des Map Server und Einrichtung des Web Map Service G Aufruf des Web Map Service I WFS
47

ZIH-Info

29 August 2018 (has links)
- Private-Use Networks an der TU Dresden - Black-Building-Test im LZR - DFN-Videokonferenzen im Browser über WebRTC - Sophos-Landesvertrag - Archivierung und Publikation von Forschungsdaten - Projektstart zur Standardisierung in der Systemmedizin - ZIH-Kolloquium - ZIH-Publikationen - Veranstaltungen
48

AK-Bibliothek Wien für Sozialwissenschaften: Protokoll zur Restitution von NS-verfolgungsbedingt entzogenem Kulturgut (NS-Raubgut)

Kulbe, Nadine 30 March 2021 (has links)
No description available.
49

Towards Transparency and Open Science / A Principled Perspective on Computational Reproducibility and Preregistration

Peikert, Aaron 17 October 2023 (has links)
Die Psychologie und andere empirische Wissenschaften befinden sich in einer Krise, da vielen Forschenden bewusst geworden ist, dass viele Erkenntnisse nicht so stark empirisch gestützt sind, wie sie einst glaubten. Es wurden mehrere Ursachen dieser Krise vorgeschlagen: Missbrauch statistischer Methoden, soziologische Verzerrungen und schwache Theorien. In dieser Dissertation gehe ich davon aus, dass ungenaue Theorien unvermeidlich sind, diese aber mithilfe von Induktion einer empirischen Prüfung unterzogen werden können. Anhand von Daten können Theorien ergänzt werden, sodass präzise Vorhersagen möglich sind, die sich mit der Realität vergleichen lassen. Eine solche Strategie ist jedoch mit Kosten verbunden. Induktion ist daher zwar notwendig, aber führt zu einem übermäßigen Vertrauen in empirische Befunde. Um empirische Ergebnisse adäquat zu bewerten, muss diese Verzerrung berücksichtigt werden. Das Ausmaß der Verzerrung hängt von den Eigenschaften des induktiven Prozesses ab. Einige induktive Prozesse können vollständig transparent gemacht werden, sodass ihre Verzerrung angemessen berücksichtigt werden kann. Ich zeige, dass dies bei Induktion der Fall ist, die beliebig mit anderen Daten wiederholt werden kann, was die Bedeutung von computergestützter Reproduzierbarkeit unterstreicht. Induktion, die die Forschenden und ihr kognitives Modell einbezieht, kann nicht beliebig wiederholt werden; daher kann die Verzerrung durch Induktion nur mit Unsicherheit beurteilt werden. Ich schlage vor, dass die Verringerung dieser Unsicherheit das Ziel von Präregistrierung sein sollte. Nachdem ich die Ziele von Reproduzierbarkeit und Präregistrierung unter dem Gesichtspunkt der Transparenz über Induktion präzisiert habe, gebe ich in den wissenschaftlichen Artikeln, die als Teil der Dissertation veröffentlicht wurden, Empfehlungen für die praktische Umsetzung beider Verfahren. / Psychology and other empirical sciences are in the middle of a crisis, as many researchers have become aware that many findings do not have as much empirical support as they once believed. Several causes of this crisis have been suggested: misuse of statistical methods, sociological biases, and weak theories. This dissertation proposes the following rationale: to some extent, imprecise theories are unavoidable, but they still can be subjected to an empirical test by employing induction. Data may be used to amend theories, allowing precise predictions that can be compared to reality. However, such a strategy comes at a cost. While induction is necessary, it causes overconfidence in empirical findings. When assessing findings, this overconfidence must be taken into account. The extent of the overconfidence depends on the properties of the inductive process. Some inductive processes can be made fully transparent, so their bias can be accounted for appropriately. I show that this is the case for induction that can be repeated at will on other data, highlighting the importance of computational reproducibility. Induction involving the researcher and their cognitive model can not be repeated; hence, the extent of overconfidence must be judged with uncertainty. I propose that reducing this uncertainty should be the objective of preregistration. Having explicated the goals of computational reproducibility and preregistration from a perspective of transparency about induction in the synopsis, I put forward recommendations for the practice of both in the articles published as part of this dissertation.
50

Re-Ranking auf Basis von Bradfordizing für die verteilte Suche in digitalen Bibliotheken

Mayr, Philipp 06 March 2009 (has links)
Trotz großer Dokumentmengen für datenbankübergreifende Literaturrecherchen erwarten akademische Nutzer einen möglichst hohen Anteil an relevanten und qualitativen Dokumenten in den Trefferergebnissen. Insbesondere die Reihenfolge und Struktur der gelisteten Ergebnisse (Ranking) spielt, neben dem direkten Volltextzugriff auf die Dokumente, inzwischen eine entscheidende Rolle beim Design von Suchsystemen. Nutzer erwarten weiterhin flexible Informationssysteme, die es unter anderem zulassen, Einfluss auf das Ranking der Dokumente zu nehmen bzw. alternative Rankingverfahren zu verwenden. In dieser Arbeit werden zwei Mehrwertverfahren für Suchsysteme vorgestellt, die die typischen Probleme bei der Recherche nach wissenschaftlicher Literatur behandeln und damit die Recherchesituation messbar verbessern können. Die beiden Mehrwertdienste semantische Heterogenitätsbehandlung am Beispiel Crosskonkordanzen und Re-Ranking auf Basis von Bradfordizing, die in unterschiedlichen Phasen der Suche zum Einsatz kommen, werden hier ausführlich beschrieben und im empirischen Teil der Arbeit bzgl. der Effektivität für typische fachbezogene Recherchen evaluiert. Vorrangiges Ziel der Promotion ist es, zu untersuchen, ob das hier vorgestellte alternative Re-Rankingverfahren Bradfordizing im Anwendungsbereich bibliographischer Datenbanken zum einen operabel ist und zum anderen voraussichtlich gewinnbringend in Informationssystemen eingesetzt und dem Nutzer angeboten werden kann. Für die Tests wurden Fragestellungen und Daten aus zwei Evaluationsprojekten (CLEF und KoMoHe) verwendet. Die intellektuell bewerteten Dokumente stammen aus insgesamt sieben wissenschaftlichen Fachdatenbanken der Fächer Sozialwissenschaften, Politikwissenschaft, Wirtschaftswissenschaften, Psychologie und Medizin. Die Evaluation der Crosskonkordanzen (insgesamt 82 Fragestellungen) zeigt, dass sich die Retrievalergebnisse signifikant für alle Crosskonkordanzen verbessern; es zeigt sich zudem, dass interdisziplinäre Crosskonkordanzen den stärksten (positiven) Effekt auf die Suchergebnisse haben. Die Evaluation des Re-Ranking nach Bradfordizing (insgesamt 164 Fragestellungen) zeigt, dass die Dokumente der Kernzone (Kernzeitschriften) für die meisten Testreihen eine signifikant höhere Precision als Dokumente der Zone 2 und Zone 3 (Peripheriezeitschriften) ergeben. Sowohl für Zeitschriften als auch für Monographien kann dieser Relevanzvorteil nach Bradfordizing auf einer sehr breiten Basis von Themen und Fragestellungen an zwei unabhängigen Dokumentkorpora empirisch nachgewiesen werden. / In spite of huge document sets for cross-database literature searches, academic users expect a high ratio of relevant and qualitative documents in result sets. It is particularly the order and structure of the listed results (ranking) that play an important role when designing search systems alongside the direct full text access for documents. Users also expect flexible information systems which allow influencing the ranking of documents and application of alternative ranking techniques. This thesis proposes two value-added approaches for search systems which treat typical problems in searching scientific literature and seek to improve the retrieval situation on a measurable level. The two value-added services, semantic treatment of heterogeneity (the example of cross-concordances) and re-ranking on Bradfordizing, which are applied in different search phases, are described in detail and their effectiveness in typical subject-specific searches is evaluated in the empirical part of the thesis. The preeminent goal of the thesis is to study if the proposed, alternative re-ranking approach Bradfordizing is operable in the domain of bibliographic databases, and if the approach is profitable, i.e. serves as a value added, for users in information systems. We used topics and data from two evaluation projects (CLEF and KoMoHe) for the tests. The intellectually assessed documents come from seven academic abstracting and indexing databases representing social science, political science, economics, psychology and medicine. The evaluation of the cross-concordances (82 topics altogether) shows that the retrieval results improve significantly for all cross-concordances, indicating that interdisciplinary cross-concordances have the strongest (positive) effect on the search results. The evaluation of Bradfordizing re-ranking (164 topics altogether) shows that core zone (core journals) documents display significantly higher precision than was seen for documents in zone 2 and zone 3 (periphery journals) for most test series. This post-Bradfordizing relevance advantage can be demonstrated empirically across a very broad basis of topics and two independent document corpora as well for journals and monographs.

Page generated in 0.017 seconds