• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 51
  • 48
  • 3
  • Tagged with
  • 102
  • 100
  • 53
  • 53
  • 52
  • 52
  • 52
  • 51
  • 49
  • 46
  • 42
  • 39
  • 39
  • 39
  • 39
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Preserving Data Integrity in Distributed Systems

Triebel, Marvin 30 November 2018 (has links)
Informationssysteme verarbeiten Daten, die logisch und physisch über Knoten verteilt sind. Datenobjekte verschiedener Knoten können dabei Bezüge zueinander haben. Beispielsweise kann ein Datenobjekt eine Referenz auf ein Datenobjekt eines anderen Knotens oder eine kritische Information enthalten. Die Semantik der Daten induziert Datenintegrität in Form von Anforderungen: Zum Beispiel sollte keine Referenz verwaist und kritische Informationen nur an einem Knoten verfügbar sein. Datenintegrität unterscheidet gültige von ungültigen Verteilungen der Daten. Ein verteiltes System verändert sich in Schritten, die nebenläufig auftreten können. Jeder Schritt manipuliert Daten. Ein verteiltes System erhält Datenintegrität, wenn alle Schritte in einer Datenverteilung resultieren, die die Anforderungen von Datenintegrität erfüllen. Die Erhaltung von Datenintegrität ist daher ein notwendiges Korrektheitskriterium eines Systems. Der Entwurf und die Analyse von Datenintegrität in verteilten Systemen sind schwierig, weil ein verteiltes System nicht global kontrolliert werden kann. In dieser Arbeit untersuchen wir formale Methoden für die Modellierung und Analyse verteilter Systeme, die mit Daten arbeiten. Wir entwickeln die Grundlagen für die Verifikation von Systemmodellen. Dazu verwenden wir algebraische Petrinetze. Wir zeigen, dass die Schritte verteilter Systeme mit endlichen vielen Transitionen eines algebraischen Petrinetzes beschrieben werden können, genau dann, wenn eine Schranke für die Bedingungen aller Schritte existiert. Wir verwenden algebraische Gleichungen und Ungleichungen, um Datenintegrität zu spezifizieren. Wir zeigen, dass die Erhaltung von Datenintegrität unentscheidbar ist, wenn alle erreichbaren Schritte betrachtet werden. Und wir zeigen, dass die Erhaltung von Datenintegrität entscheidbar ist, wenn auch unerreichbare Schritte berücksichtigt werden. Dies zeigen wir, indem wir die Berechenbarkeit eines nicht-erhaltenden Schrittes als Zeugen zeigen. / Information systems process data that is logically and physically distributed over many locations. Data entities at different locations may be in a specific relationship. For example, a data entity at one location may contain a reference to a data entity at a different location, or a data entity may contain critical information such as a password. The semantics of data entities induce data integrity in the form of requirements. For example, no references should be dangling, and critical information should be available at only one location. Data integrity discriminates between correct and incorrect data distributions. A distributed system progresses in steps, which may occur concurrently. In each step, data is manipulated. Each data manipulation is performed locally and affects a bounded number of data entities. A distributed system preserves data integrity if each step of the system yields a data distribution that satisfies the requirements of data integrity. Preservation of data integrity is a necessary condition for the correctness of a system. Analysis and design are challenging, as distributed systems lack global control, employ different technologies, and data may accumulate unboundedly. In this thesis, we study formal methods to model and analyze distributed data-aware systems. As a result, we provide a technology-independent framework for design-time analysis. To this end, we use algebraic Petri nets. We show that there exists a bound for the conditions of each step of a distributed system if and only if the steps can be described by a finite set of transitions of an algebraic Petri net. We use algebraic equations and inequalities to specify data integrity. We show that preservation of data integrity is undecidable in case we consider all reachable steps. We show that preservation of data integrity is decidable in case we also include unreachable steps. We show the latter by showing computability of a non-preserving step as a witness.
42

Messen von Kompetenzen im Persönlichen Wissensmanagement

Wittich, Anke 29 May 2012 (has links)
Der zielorientierte Umgang mit Wissen bildet eine zentrale Herausforderung für Unternehmen und deren Mitarbeiter. Deren Kompetenzentwicklung ist für die Unternehmen unter dem Aspekt der Wettbewerbsfähigkeit ein lohnendes Ziel. Diese Arbeit stellt ein Werkzeug zur Messung von Kompetenzen im Persönlichen Wissensmanagement vor. Auf einer Literaturstudie basierend wurde ein Kompe-tenzkatalog erstellt und mit Hilfe einer Befragung von Fachleuten aus dem Berei-chen Informations- und Wissensmanagement validiert. Dieser Kompetenzkatalog findet Eingang in einen Referenzrahmen für Kompetenzen für Persönliches Wis-sensmanagement. Zur Bestimmung der Niveaustufen Experte, Könner und Kenner im Persönlichen Wissensmanagement wurde ein Messwerkzeug erarbeitet und anhand von zwei Gruppen auf Gültigkeit überprüft. Die eine Gruppe bestand aus Mitarbeitern Ex-zellenter Wissensorganisationen, die andere aus interessierten Mitarbeitern aus nicht-explizit wissensorientierten Unternehmen. Es konnte nachgewiesen werden, dass beide Gruppen in acht Einzelkompetenzen signifikante Unterschiede besa-ßen. Auch für weitere Kompetenzen konnten Messdimensionen aus den Rück-meldungen der Umfrage hergeleitet werden. In einigen Fällen allerdings konnten die Niveaustufen Könner und Kenner nicht unterschieden werden. / The target-oriented intercourse with knowledge is a central challenge for compa-nies and their employees. With the aspect of competitiveness, a rewarding aim for the companies is to work on their skill development. This paper introduces a tool to measure the skills in personal knowledge management. Based on literature studies, a catalogue of competences was created, which was validated by inter-views with experts in information and knowledge management. The catalogue of competences conforms to a reference framework for competences for personal knowledge management. Measuring tools for the determination of the levels of expert, master and initiate in personal knowledge management were developed and their validity was checked on the basis of two groups. The first group was composed of employees of “Exzellenter Wissensorganisation”, the other group was composed of interested employees of companies with no explicit orientation for information and knowledge management. It was possible to verify that both groups showed signif-icant differences in eight single skills. Even for other skills dimensions of meas-urement could be deduced from the interviews. In some cases the levels of master and initiate could not be distinguished.
43

Nachlasserschließung im Deutschen Exilarchiv 1933 - 1945 unter besonderer Berücksichtigung der Benutzersicht

Asmus, Sylvia 09 February 2010 (has links)
Als zeitgeschichtliche und kulturhistorische Quellen können Nachlässe für die Forschung nur relevant werden, wenn sie erschlossen und damit recherchierbar sind. Diese Grundvoraussetzung kann von vielen verwahrenden Institutionen nicht mehr in ausreichender Weise geschaffen werden, Bestandszugang und Erschließungsleistung stehen häufig in einem Missverhältnis. Auch die Situation der Nachlasssammlung des Deutschen Exilarchivs 1933 – 1945 der Deutschen Nationalbibliothek, auf die sich die vorliegende Untersuchung bezieht, stellt sich entsprechend dar. Für die Definition einer minimalen, aber dennoch nutzbringenden Erschließungsleistung ist die Bewertung von Erschließungsalternativen durch die Benutzer von großer Relevanz. Anhand von Auswertungen von Benutzeranfragen und Vor-Ort-Benutzungen sowie persönlichen Interviews und einer Onlinebefragung wurden die Bedürfnisse der Benutzer des Deutschen Exilarchivs 1933-1945 und deren Bewertung des Informationsangebots erfragt. Die vorliegende Untersuchung hat Ansätze zur Vereinfachung und damit zur Beschleunigung der Nachlasserschließung ergeben. Vereinfachte, auch stark vereinfachte Konvolutbeschreibungen wurden von den Probanden sehr positiv bewertet. Detailangaben als Bestandteil der aktuell praktizierten Formalerschließung wurden dagegen nicht als unbedingt notwendige Erschließungsinformation bestätigt; zudem waren Teile der Erschließungsdaten aus Benutzersicht nicht ausreichend verständlich. Für die Präsentation von Erschließungsdaten und Digitalisaten ist im Bereich der Nachlasserschließung die Forderung nach einer „kulturgutaffinen“ Umsetzung zu unterstützen. Der geeigneten Präsentation von Nachlassgliederungen und der Möglichkeit der Navigation in Bestandsstrukturen kommt dabei besondere Bedeutung zu. Groberschließung bedeutet die Entscheidung für eine bewusste Qualitätsminderung bei der Nachlasserschließung. Zumindest temporär müssen der Zeitfaktor und die Verständlichkeit und Auffindbarkeit von Erschließungsinformationen vor der Forderung nach einer möglichst genauen Beschreibung rangieren. / Literary estates can only be used as contemporary sources for historical and cultural research when they are indexed and searchable. In many archives and libraries this basic prerequisite can no longer be provided sufficiently, since additions to the collections and indexing activity often grow disproportionately. The situation of the collection of literary estates of the Deutsches Exilarchiv 1933-1945 of the Deutsche Nationalbibliothek, subject of this survey, reflects this divergence. The evaluation of alternative indexation by users themselves is very important for the definition of a reduced but nevertheless useful indexation. An analysis of users’ inquiries, on-site usage, personal interviews and an online questionnaire of Deutsche Exilarchiv 1933-1945 users and their appraisal of the offered information was the basis of ascertaining user needs. The presented study resulted in approaches towards simplification that will result in speeding-up indexation of the bequests. Simplified and even starkly simplified descriptions of convolutes were evaluated very positively by the interviewed users. On the contrary, detailed entries which are part of the current descriptive indexing were not confirmed as absolutely necessary information. Apart from this, from the users’ perspective part of the indexation data were not sufficiently comprehensible. The presentation of indexing data and digitized orginals should be oriented on the specification presets by the material. Of special importance in the presentation of literary estates are appropriate outlines and tools for navigating the structures. Rough indexing implies the conscious decision for quality reduction when indexing literary estates. At least for the time being the time factor for indexation, comprehensibility and retrieval, will have preference at the cost of descriptive indexation as exact as possible.
44

Anforderungen, Entwurfsmuster und Systeme für kollaboratives Schreiben

Stüber, Frank 14 November 2011 (has links)
Kollaboratives Schreiben (KS) bezeichnet das gemeinsame Erstellen eines Textdokuments in einer Gruppe, deren Mitglieder zur gleichen Zeit oder an unterschiedlichen Zeiten, am gleichen oder an unterschiedlichen Orten arbeiten können. Ausgehend von einer detaillierten KS-Analyse und den daraus resultierenden Anforderungen an softwaregestützte KS-Systeme, werden zunächst typischen Entwurfsmuster für die Implementation derartiger Systeme herausgearbeitet. Im Anschluss daran werden zwei unterschiedliche Software-Architekturen entwickelt und diskutiert. Zum einen ist dies eine Erweiterung des etablierten Protokollstandards WebDAV um eine auf Textabschnitten basierende Synchronisation, zum anderen eine idealtypische Architektur für ein neu zu entwickelndes KS-System, welche im Gegensatz zu herkömmlichen Textverarbeitungssystem nicht nur den Text sondern ein Projekt, bestehend aus Text und dessen verknüpften bzw. begleitenden Ressourcen, in den Mittelpunkt der Kollaboration stellt. / Collaborative writing (CW) is a joint work to create a text document in a group whose members are working at different times and at different locations. Firstly, based on a detailed analysis of CW and the resulting demands on software-based CW systems, typical patterns for the implementation of such systems are identified. Subsequently, two different software architectures are developed and discussed. While the first is an extension of the established protocol standard WebDAV to include a section based text synchronization. The second is an ideal type architecture for a newly developed CW system, which in contrast to a conventional word processing system takes not only the text at the center of collaboration but a complete project consisting of text and its linked or associated resources.
45

Controller-Synthese für Services mit Daten

Bathelt-Tok, Franziska 12 December 2017 (has links)
Die steigende Nachfrage an immer komplexeren Systemen in verschiedensten wirtschaftlichen Bereichen, erfordert Strategien, die Wartbarkeit und Wiederverwendbarkeit unterstützen. An diesem Punkt setzen service-orientierte Architekturen (SOAn) an. Dieses Paradigma fordert die Aufspaltung von Funktionalität in Services, die komponiert werden können, um eine gewünschte, komplexe Funktionalität zu erreichen. Besonders in sicherheitskritischen Bereichen, kann eine fehlerbehaftete Komposition jedoch zu hohen finanziellen Einbußen oder sogar zu lebensbedrohlichen Situationen führen. Um die Korrektheit sicherzustellen, müssen Kompositionsmethoden im Vorfeld definierte Eigenschaften garantieren und die, durch die unabhängige Entwicklung auftretenden, Interface-Inkompatibilitäten behandeln. Existierende Ansätze zur automatisierten Service-Komposition durch Controller-Synthese beinhalten jedoch keine formale Datenbehandlung und können daher nicht mit datenabhängigem Verhalten umgehen. In der vorliegenden Arbeit, löse ich dieses Problem durch die Bereitstellung eines Ansatzes zur automatisierten Synthese datenabhängiger, korrekter Service-Controller. Dabei wird ein Controller direkt aus den spezifizierten Anforderungen und dem Verhalten der Services erzeugt. Basierend auf den Annahmen, dass die Anforderungen in RCTL, einer Untermenge der Computational Tree Logic (CTL), spezifiziert und die Services als Algebraische Petrinetze (APNe) gegeben sind, vereinigt mein neuartiger Ansatz die beiden Formalismen und unterstützt eine zuverlässige Extraktion des Controller-Verhaltens. Durch die Nutzung der APNe, erlaubt der Ansatz eine formale Datenbehandlung und somit eine Betrachtung datenabhängigen Verhaltens. Die Anwendbarkeit meines Ansatzes habe ich an drei Fallstudien aus dem medizinischen Bereich gezeigt, wo Geräte sicher miteinander kommunizieren müssen. / The continuously increasing demand for more complex systems in various economical domains requires a strategy that supports maintainability and reusability. This is addressed by the service-oriented architecture (SOA)}-paradigm that encourages the encapsulation of functionality into services. To achieve a specific functionality, services can be composed. Especially in safety-critical systems, an incorrect composition of various components can lead to high financial losses or even life threatening situations. To ensure the correctness, composition methods must particularly be able to guarantee pre-specified requirements and to overcome interface incompatibilities, which result from the independent development of the single services. However, current approaches for automated service composition via controller synthesis do not support a formal data-treatment and do not cope with data-dependent behavior. In this thesis, we overcome this problem by providing an approach for the automated synthesis of data-dependent service controllers that are correct-by-construction. The core idea is to synthesize such a controller directly from given requirements and the behavior of the services. Based on the assumptions that the requirements are specified using a subset of Computational Tree Logic (CTL), called RCTL, and that the services are given as algebraic Petri Nets (APNs), our novel synthesis process unifies the two formalisms and enables a reliable extraction of the controller behavior. Especially due to the use of APNs, our approach supports a formal data-treatment and enables a consideration of data-dependent behavior. With our synthesis process, which is based on a successive combination of requirements and services, we provide a practical applicable approach that works fully automatically. We show the applicability of our approach using three case studies in which medical devices interact with each other.
46

Bibliotheken als Bildungseinrichtungen

Schuldt, Karsten 02 December 2009 (has links)
Die Hauptfrage dieser Arbeit ist die Überprüfung des Axioms, das Öffentliche Bibliotheken in Deutschland Teil des Bildungssystem und zudem eigenständige Bildungseinrichtungen wären. Auf der Basis einer intensiven Analyse der bibliothearischen Literatur zwischen 2000 und 2008, einer Auswertung der Homepages und Veröffentlichungen aller hauptamtlich geführten deutschen Öffentlichen Bibliotheken und unter Einbeziehung der Schulvergleichsstudien und grundlegenden Debatten in den Erziehungswissenschaften und der Bildungssoziologie, wird der erste Teil der Studie mit der Erkenntnis beendet, dass es zur Zeit nicht möglich ist, die Bildungseffekte Öffentlicher Bibliotheken zu bestimmen. Im Anschluss an dieses Ergebnis, werden im zweiten Teil der Arbeit die Möglichkeiten und denkbaren Fragestellungen für eine weitere Forschung im Feld „Bibliotheken und Bildung“ unter dem Fokus Sozialer Gerechtigkeit strukturiert. Hierzu werden die Forschungsmethoden aus unterschiedlichen Feldern des formellen und non-formellen Bildungswesen gesichtet und auf Bibliotheken bezogen. Zudem wird das Evidenced Based Librarianship in die deutschen Diskussionen zu Forschungen in Bibliotheken eingeführt. Die Arbeit kumuliert in einem konzeptuellen Forschungsrahmen des zukünftigen Forschungsfeldes „Bildung und Öffentliche Bibliotheken“. / The main propose of this study is the validation of the common axiom that public libraries in Germany are a part of the educational system and are educational institutions as well. Based on an extensive analysis of the library-related literature between 2000 and 2008, the analysis of the homepages and publications of all full-time managed public libraries in Germany, and under inclusion of the school performance studies and discussions in the Pedagogy and Educational Sociology in this timeframe, the study concludes it’s first part with the finding, that it is not possible at this time to validate the educational effects of public libraries. In addition to this result, in it’s second part the study structure the possibilities and conceivable questions in the field of libraries and education under the focus of social justice. Therefore the methods of research in different fields of the formal and non-formal sector of the educational system are structured and applied to specific questions on public libraries. Also the movement of evidence based librarianship is introduced into the German discussions about research in libraries. The studies concludes in a conceptual framework of the prospective research-field “education and public libraries”.
47

Computational models to investigate binding mechanisms of regulatory proteins

Munteanu, Alina 07 May 2018 (has links)
Es gibt tausende regulatorische Proteine in Eukaryoten, die spezifische cis-regulatorischen Elemente von Genen und/oder RNA-Transkripten binden und die Genexpession koordinieren. Auf DNA-Ebene modulieren Transkriptionsfaktoren (TFs) die Initiation der Transkription, während auf RNA-Ebene RNA-bindende Proteine (RBPs) viele Aspekte des RNA-Metabolismus und der RNA-Funktion regulieren. Für hunderte dieser regulatorischer Proteine wurden die gebundenen Gene beziehungsweise RNA-Transkripte, sowie deren etwaige Sequenzbindepräferenzen mittels in vivo oder in vitro Hochdurchsatz-Experimente bestimmt. Zu diesen Methoden zählen unter anderem Chromatin-Immunpräzipitation (ChIP) gefolgt von Sequenzierung (ChIP-seq) und Protein Binding Microarrays (PBMs) für TFs, sowie Cross-Linking und Immunpräzipitation (CLIP)-Techniken und RNAcompete für RBPs. In vielen Fällen kann die zum Teil hohe Bindespezifität für ein zumeist sehr kurzes Sequenzmotiv regulatorischer Proteine nicht allein durch die gebundene Primärsequenz erklärt werden. Um besser zu verstehen, wie verschiedene Proteine ihre regulatorische Spezifität erreichen, haben wir zwei Computerprogramme entwickelt, die zusätzliche Informationen in die Analyse von experimentell bestimmten Bindestellen einbeziehen und somit differenziertere Bindevorhersagen ermöglichen. Für Protein-DNA-Interaktionen untersuchen wir die Bindungsspezifität paraloger TFs (d.h. Mitglieder der gleichen TF-Familie). Mit dem Fokus auf der Unterscheidung von genomischen Regionen, die in vivo von Paaren eng miteinander verwandter TFs gebunden sind, haben wir ein Klassifikationsframework entwickelt, das potenzielle Co-Faktoren identifiziert, die zur Spezifität paraloger TFs beitragen. Für Protein-RNA-Interaktionen untersuchen wir die Rolle von RNA-Sekundärstruktur und ihre Auswirkung auf die Auswahl von Bindestellen. Wir haben einen Motif-Finding-Algorithmus entwickelt, der Sekundärstruktur und Primärsequenz integriert, um Bindungspräferenzen der RBPs besser zu bestimmen. / There are thousands of eukaryotic regulatory proteins that bind to specific cis regulatory regions of genes and/or RNA transcripts and coordinate gene expression. At the DNA level, transcription factors (TFs) modulate the initiation of transcription, while at the RNA level, RNA-binding proteins (RBPs) regulate every aspect of RNA metabolism and function. The DNA or RNA targets and/or the sequence preferences of hundreds of eukaryotic regulatory proteins have been determined thus far using high-throughput in vivo and in vitro experiments, such as chromatin immunoprecipitation (ChIP) followed by sequencing (ChIP-seq) and protein binding microarrays (PBMs) for TFs, or cross-linking and immunoprecipitation (CLIP) techniques and RNAcompete for RBPs. However, the derived short sequence motifs do not fully explain the highly specific binding of these regulatory proteins. In order to improve our understanding of how different proteins achieve their regulatory specificity, we developed two computational tools that incorporate additional information in the analysis of experimentally determined binding sites. For protein-DNA interactions, we investigate the binding specificity of paralogous TFs (i.e. members of the same TF family). Focusing on distinguishing between genomic regions bound in vivo by pairs of closely-related TFs, we developed a classification framework that identifies putative co-factors that provide specificity to paralogous TFs. For protein-RNA interactions, we investigate the role of RNA secondary structure and its impact on binding-site recognition. We developed a motif finding algorithm that integrates secondary structure together with primary sequence in order to better identify binding preferences of RBPs.
48

University Libraries in Kenya / Universitätsbibliotheken in Kenia

Kavulya, Joseph Muema 12 March 2004 (has links)
Ganz allgemein zeigen die Ergebnisse dieser Untersuchung, dass die gegenwärtige Lage der Bibliotheken in staatlichen Universitäten durch extrem geringe Ressourcen für die Bücher-, Zeitschriften und Mediensammlungen und hinsichtlich Ausstattung und Personal gekennzeichnet. Private Universitäten haben diese Probleme in weit geringerem Maße. Unter Studierenden, Lehrenden und Universitätsbeamten ist durchaus die Ansicht verbreitet, dass Universitätsbibliotheken eine entscheidende Rolle in Lehre, Forschung und Studium spielen. Man nimmt allerdings auch zur Kenntnis, dass die Universitätsbibliotheken in Kenia, besonders diejenigen der staatlichen Universitäten, keine wirkungsvollen Dienstleistungen erbringen. Dies hat zur Entwertung ihrer Rolle in der Hochschullandschaft geführt. Die Studie zeigt, dass die moderne Informations- und Kommunikationstechnik in die kenianischen Universitätsbibliotheken Einzug gehalten hat. Doch ist die Entwicklung zum einen durch die Finanzierungslücken behindert worden, sodass Computer nicht angeschafft und Netze nicht aufgebaut werden konnten, zum anderen durch das Fehlen von geschultem EDV-Personal und durch die kümmerliche Telekommunikations-Infrastruktur im Lande. Diese Untersuchung kommt zu dem Ergebnis, dass Maßnahmen erforderlich sind, die Situation der Universitätsbibliotheken in Kenia zu verbessern - dies auch als ein Weg, die Qualität des Universitätsstudiums in Kenia zu steigern. Diese Maßnahmen umfassen zunächst die Aufnahme einer langfristigen Planung auf allen Gebieten bibliothekarischer Arbeit. Zweitens sollten die leitenden Bibliothekare die zentrale Bedeutung der Bibliotheken hervor heben, welche ihnen im Zusammenhang der gesamten Universität zukommt. Um nutzbare Quellen der Information zu bleiben, müssen die Universitätsbibliotheken in Kenia, die moderne Informations- und Kommunikationstechnik einsetzen. Die Anwendung neuer Informations- und Kommunikationstechnik kann den Bibliothekaren an den Universitäten helfen, besseren Zugang zu örtlichen und zu globalen Informationen zu schaffen, zum Beispiel durch elektronische Media und Internetzugang. / This study argues that the provision of library services in Kenyan public universities is characterised by extremely inadequate resources in terms of funds, information materials, equipment and staff. Private university libraries experience these problems albeit to a lesser degree. Although there is widespread opinion among students, lecturers as well as university administrators that university libraries play a critical role in the teaching, research, and learning activities, there is also awareness that university libraries in Kenya, especially those in public universities are not effectively providing services which has limited their role in research and learning in the university. Finally, modern information and communication technology is being incorporated in the management of university libraries in Kenya. However, this trend has been hindered by first, lack of funds to purchase equipment such as computers and set up networks, secondly by lack of skilled personnel in information technology, and finally by poor telecommunications infrastructure in the country. There is therefore need for adoption of strategic planning in all areas of library management and to remain viable sources of information, university libraries in Kenya have to make use modern information and communication technology. This will enable university libraries to facilitate better access to local and global information for example through electronic and internet media.
49

Membra disiecta

Pozzo, Annette 18 November 2013 (has links)
Die Büchersammlung des Göttinger Universitätsprofessors und reformierten Pastors Lüder Kulenkamp (1724-1794) bildet mit über 9.000 Handschriften, Abschriften, Inkunabeln und Drucken ab 1501 die viertgrößte private Gelehrtenbibliothek Göttingens im 18. Jahrhundert. Die Sammlung ist ausschließlich über den 1796 gedruckten Auktionskatalog sowie zwei, mit Käufer- und Preisangaben versehene durchschossene Exemplare dokumentiert. Über inhaltliche Aussagen hinaus, die den hybriden Charakter der Sammlung als Arbeitsinstrument und bibliophile Kollektion zugleich offenlegen, versucht die Arbeit, unter Einbeziehung von Marginalien und handschriftlichen Einträgen Kulenkamps sowie von in Vorlesungen benutzten bzw. in eigenen Publikationen zitierten Titeln, ein Bild des gelehrten Büchersammlers und -lesers an seinem Standort und zu seiner Zeit zu vermitteln. Die durchschossenen Exemplare des Versteigerungskatalogs bilden quellenorientiert die Basis für bibliothekarisch motivierte Käufe seitens der Bodleian Library, der herzoglichen Bibliothek Gotha und der Universitätsbibliothek Göttingen sowie für privat motivierte Käufe seitens Studenten, Buchantiquariaten und akademischen Sammlern, die das Erstellen gesellschaftlicher und individueller Rezeptions- und Leserbiographien ermöglichen. Der in Bibliotheken gelangte Bestand der Büchersammlung wird darüberhinaus im Sinne einer Provenienzaufarbeitung per Autopsie erschlossen. / The private library of the university professor and reformed pastor Lüder Kulenkamp (1724-1794) forms with over 9.000 manuscripts, transcripts, incunables and printed books the fourth largest private book collection in Göttingen during the eighteenth century. The collection is documented by an auction catalogue printed in 1796, of which two interfoliated copies have been located that provide useful information about buyers and prices. The dissertation delves into each of the titles within Kulenkamp’s library, while pointing out the hybrid character of the collection, which was both an instrument for teaching and research and the result of the owner’s bibliophilia. A careful consideration of Kulenkamp’s marginalia and handwritten notes, his course announcements and the titles of the books he refers to in his writings provides a lively picture of how an erudite book collector and reader might have looked like in his place and time. The interfoliated exemplars of the auction catalogue were the basis for Kulenkamp’s books being the subject of library acquisitions that were decided for at the Bodleian Library, the Herzogliche Bibliothek Gotha and the Universitätsbibliothek Göttingen as well as for private acquisitions by students, book antiquarians and academic collectors. They are of great interest for the development of public and private book circulation and the shaping of readers’ biographies. In compliance with the requirements of provenance-research, all books of the collection of which we know they had been acquired by public libraries have been looked into by autopsy.
50

Open-Access-Zeitschriften

Weishaupt, Karin 11 June 2009 (has links)
Bei aller Aufmerksamkeit, die das Thema Open Access seit einigen Jahren erfährt, ist die praktische Nutzung längst noch nicht so weit gediehen, wie es von den technischen Voraussetzungen her möglich wäre: Nur 0,8 % aller Zeitschriften in Deutschland oder 2 % der wissenschaftlichen sind frei zugänglich. Es mangelt an Akzeptanz seitens der Autor/inn/n. Auf der Basis einer Befragung von ca. 1000 Personen, die bereits mindestens einen Aufsatz in einer Open-Access-Zeitschrift veröffentlicht haben, werden Maßnahmen entwickelt, wie die Akzeptanz verbessert werden kann. Bei der Analyse der Antworten erweisen sich die Unterschiede für mögliche Fördermaßnahmen zwischen den einzelnen Fachdisziplinen als längst nicht so ausgeprägt, wie es aufgrund des unterschiedlichen Standes von Open Access in den verschiedenen Fächern zu erwarten wäre. Von elementarer Bedeutung ist vielmehr die Frage, welche Ziele der/die einzelne beim Open-Access-Publizieren verfolgt; daraus ergeben sich Ansatzpunkte für fördernde Maßnahmen. Die größte Barriere für die Durchsetzung des Open-Access-Publizierens stellt das etablierte System der Forschungsevaluation dar, das sich fachübergreifend im Begutachtungsverfahren und in den Naturwissenschaften und der Medizin im Impact Factor manifestiert. Hieraus entstehen Akzeptanzhindernisse, die sachlich nicht gerechtfertigt sind und kritisch hinterfragt werden müssen. Mittelfristig ist der Ersatz des Impact Factors durch Verfahren anzustreben, die modernen Publikationsformen besser gerecht werden. Ein internationaler Vergleich zeigt, dass die Schwellenländer nicht nur durch Open Access unterstützt werden, sondern ihrerseits bemerkenswerte Aktivitäten und Erfolge vorzuweisen haben, die weltweit Vorbildcharakter haben und Anregungen für Maßnahmen zur Akzeptanzsteigerung in Deutschland bieten können. Bezüglich Open Access ist daher anstelle der Förderung der Dritten Welt eher ein Eine-Welt-Denken angebracht, bei dem alle Beteiligten voneinander lernen können / Although open access has been discussed intensively for some years, it is far away from being practised to a degree that would meet the actual technical standard. Only 0.8 % of all journals produced in Germany or 2 % of all German scientific journals are in open access. The problem to be overcome is the lack of acceptance by authors. As result of a survey among about 1000 persons who have already published at least one article in an open access journal, measures are suggested how acceptance can be improved. Considering the varying status open access has reached, differences between possible measures in the discliplines prove to be less distinctive as expected. The core question rather is which are the aims of the authors publishing in open access journals. Knowing their aims, measures to enhance acceptance can be derived. The highest barriere for open access is the established system of evaluating scientific research. Accross all disciplines the most important practise is peer reviewing of articles, in sciences and medicine the impact factor is of special importance. This is why the acceptance of open access journals without impact factor is low even if these journals may be characterized by high quality. Therefore the system of evaluation should be reviewed critically, and the impact factor might be substituted by other methods that take into account the specific qualities of modern forms of publications. An international comparison shows that open access does not only support the developing countries in their academic development. Rather, these countries offer considerable activities and achievements that can serve as models for the rest of the world and provide incitations for the improvement of the situation in Germany. This taken as a fact, we should not speak of less developed countries that need support, but rather of one world in which all countries are partners who can learn from each other.

Page generated in 0.1616 seconds