• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 28
  • 16
  • 15
  • Tagged with
  • 57
  • 57
  • 31
  • 31
  • 31
  • 18
  • 16
  • 11
  • 11
  • 10
  • 10
  • 10
  • 10
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

A Meta-Engineering Approach for Document-Centered Knowledge Acquisition / Ein Meta-Engineering Ansatz für dokumentenzentrierte Wissensakquisition

Reutelshöfer, Jochen January 2014 (has links) (PDF)
Today knowledge base authoring for the engineering of intelligent systems is performed mainly by using tools with graphical user interfaces. An alternative human-computer interaction para- digm is the maintenance and manipulation of electronic documents, which provides several ad- vantages with respect to the social aspects of knowledge acquisition. Until today it hardly has found any attention as a method for knowledge engineering. This thesis provides a comprehensive discussion of document-centered knowledge acquisition with knowledge markup languages. There, electronic documents are edited by the knowledge authors and the executable knowledge base entities are captured by markup language expressions within the documents. The analysis of this approach reveals significant advantages as well as new challenges when compared to the use of traditional GUI-based tools. Some advantages of the approach are the low barriers for domain expert participation, the simple integration of informal descriptions, and the possibility of incremental knowledge for- malization. It therefore provides good conditions for building up a knowledge acquisition pro- cess based on the mixed-initiative strategy, being a flexible combination of direct and indirect knowledge acquisition. Further it turns out that document-centered knowledge acquisition with knowledge markup languages provides high potential for creating customized knowledge au- thoring environments, tailored to the needs of the current knowledge engineering project and its participants. The thesis derives a process model to optimally exploit this customization po- tential, evolving a project specific authoring environment by an agile process on the meta level. This meta-engineering process continuously refines the three aspects of the document space: The employed markup languages, the scope of the informal knowledge, and the structuring and organization of the documents. The evolution of the first aspect, the markup languages, plays a key role, implying the design of project specific markup languages that are easily understood by the knowledge authors and that are suitable to capture the required formal knowledge precisely. The goal of the meta-engineering process is to create a knowledge authoring environment, where structure and presentation of the domain knowledge comply well to the users’ mental model of the domain. In that way, the approach can help to ease major issues of knowledge-based system development, such as high initial development costs and long-term maintenance problems. In practice, the application of the meta-engineering approach for document-centered knowl- edge acquisition poses several technical challenges that need to be coped with by appropriate tool support. In this thesis KnowWE, an extensible document-centered knowledge acquisition environment is presented. The system is designed to support the technical tasks implied by the meta-engineering approach, as for instance design and implementation of new markup lan- guages, content refactoring, and authoring support. It is used to evaluate the approach in several real-world case-studies from different domains, such as medicine or engineering for instance. We end the thesis by a summary and point out further interesting research questions consid- ering the document-centered knowledge acquisition approach. / Ein Meta-Engineering Ansatz für dokumentenzentrierte Wissensakquisition
2

Andreas Gardt, Mireille Schnyder u. Jürgen Wolf (Hrsg.): Buchkultur und Wissensvermittlung in Mittelalter und Früher Neuzeit. Berlin u. Boston, 2011 (Rezension)

Griese, Sabine 26 June 2018 (has links)
Rezension zu Griese, Sabine: Andreas Gardt, Mireille Schnyder u. Jürgen Wolf (Hgg.): Buchkultur und Wissensvermittlung in Mittelalter und Früher Neuzeit, Berlin u. Boston: de Gruyter. 2011, 310 S.
3

Anmerkungen zur Geschichte der Gelehrsamkeit

Schneider, Ulrich Johannes 19 February 2015 (has links) (PDF)
Die Erinnerungskultur schlägt um in Erinnerungskult. wenn das, was über alle Konstruktionsabsicht hinaus sich zum Wissensschatz angehäuft hat, als geplantes Produkt von Strategien, Methoden und Techniken erscheint: Unsere eigene Meisterschaft wird in die Vergangenheit projiziert. Indem wir die Gelehrten des 17. und 18. Jahrhunderts zu unseren Kollegen machen und sie in ehemaliger Lebendigkeit auferstehen lassen, unterlaufen wir das Vergessen, das sie ereilt hat, und erhoffen ein ähnliches Schicksal für uns selbst. Aber ist die Gelehrtengeschichte heute nicht im gleichen Maße Rettung eines Vergessenen wie Nachahmung desselben?
4

Vom Sensor zum Forschungsdatensatz: Automatisierte Datenflüsse am UFZ

Günther, Robert, Abbrent, Martin, Schnicke, Thomas, Bumberger, Jan 31 March 2020 (has links)
Hintergrund: Am Helmholtz-Zentrum für Umweltforschung - UFZ arbeiten Forschende an Fragestellungen, die sich u.a. mit den aktuellen Veränderungen des Klimas und dessen Auswirkungen auf die Landnutzung beschäftigen. Dazu werden an verschiedenen Orten eine Vielzahl unterschiedlichster Umweltparameter mit Sensoren erfasst. Diese Daten werden kontinuierlich erhoben, um die Veränderungen möglichst in Echtzeit zu beobachten (Monitoring). Teilweise kommen pro Beobachtungsort mehrere Hunderte solcher Sensoren zum Einsatz. Die dafür eingesetzten Sensoren erfassen z.B. Bodenfeuchte, Niederschlagsmenge, Strahlungen und andere abiotische Kenngrößen. Damit die Daten (nach)nutzbar sind, müssen sie so aufbereitet und beschrieben werden, dass sie für nachfolgende Prozesse maschinen-lesbar bearbeitet werden können und in einer Form vorliegen, die eine Veröffentlichung nach den FAIR-Prinzipien ermöglicht. Herausforderung: Die erhobenen Messdaten müssen nicht nur gesichert werden, sondern auch auf Plausibilität geprüft, prozessiert und mit hinreichender Detailtiefe beschrieben werden, damit sie nachfolgend den Forschenden für die Beantwortung ihrer Forschungsfragen als Grundlage zur Verfügung stehen. Eine Herausforderung dabei ist, dass die Daten kontinuierlich als Datenstrom anfallen. Folglich müssen Prozesse wie die strukturierte Ablage, die Anreicherung mit Metadaten sowie Prüfung auf Fehlmessungen (sog. Qualitätssicherung) automatisiert werden. Aufgrund der Heterogenität der Sensoren (unterschiedliche Hersteller stellen Daten in unterschiedlichen Formaten zur Verfügung) muss bei diesen Prozessen auch eine Formatumwandlung erfolgen. Darüber hinaus sind je nach Messgröße und -verfahren verschiedene Methoden zur Plausibiläts- und Qualitätsprüfung anzuwenden. Lösungsansatz: Das Research Data Management Team des UFZ hat gemeinsam mit der IT-Abteilung einen Daten-Workflow entwickelt, der die unterschiedlichen Daten automatisch zusammenführt, sichert und nach einem vordefinierten Schema mit Metadaten anreichert. Der Einsatz des Workflows wird exemplarisch anhand von aktuellen Forschungsprojekten vorgestellt und die darin enthaltenen Schritte detailliert beschrieben, wobei auch auf die technische Umsetzung eingegangen wird. Insbesondere werden die Komponenten zur Datenstrukturierung und semiautomatischen Qualitätssicherung vorgestellt, bei denen auch Methoden des Machine Mearning zum Einsatz kommen. Innerhalb des Workflows können die prozessierten Daten nach verschieden Verfahren aggregiert und weiterverarbeitet werden. Das geschieht u.a. über definierte Schnittstellen zu internen und externen Services (z.B. durch Bereitstellung als Sensor Observation Service (SOS) oder mittels einer API). Fazit: Die im Rahmen des hier vorgestellten Workflows entwickelten Prozesse und Komponenten zum automatisierten Management von Forschungsdaten bilden eine wichtige Grundlage für das Forschungsdatenmanagement am UFZ. Durch die modulare Ausgestaltung können die Komponenten an den Bedarf der Forschenden angepasst werden und sind auch für Szenarien geeignet, in denen die Messdaten nicht als Datenstrom anfallen. Mit diesem Workflow ist die Voraussetzung geschaffen, die am UFZ erhobene Daten auch als Linked Data der wissenschaftlichen Community und anderen Stakeholdern zur Verfügung zu stellen.
5

Datenmanagementplan – Fluch oder Segen?

von der Dunk, Andreas 21 April 2020 (has links)
Der Datenmanagementplan (DMP) ist die derzeit vielleicht bekannteste Manifestation des Forschungsdatenmanagements – von manchen als Segen begrüßt und von anderen als unnötige Mehrbelastung geschmäht. Der Vortrag geht kurz darauf ein, was ein DMP ist. Vor allem aber werden wir uns ansehen, wie ein DMP Forschenden die Arbeit erleichtern, die Qualität der Forschung erhöhen und das Risiko von reputationsschädigenden Datenpannen verringern kann – und warum die EU bei ihren Forschungsprojektanträgen deshalb die Erstellung eines DMP einfordert. An einigen praktischen Beispielen werden wir nachvollziehen, welche teils gravierenden Datenpannen durch einen DMP abgewendet werden können. Dazu geben wir Tipps, auf welche Intention die Fragen eines DMP, beispielsweise von der EU, abzielen. Durch den ganzen Vortrag wird sich die These ziehen, dass mehr Forschende in ihren Projekten mit einem DMP arbeiten sollten – und zwar nicht OBWOHL, sondern WEIL ihr Arbeitsalltag sich mit immer mehr administrativen Aufgaben zu füllen scheint. Der Beitrag zur Datenmanagementplanung greift die Themen aus den vorangegangenen Präsentationen auf und schlägt die Brücke zur nachfolgenden Poster-Session und den Diskussionen an den Thementischen des World-Cafés. Als „Anschauungsobjekt“ dient dabei der Datenmanagementplan (DMP).
6

Forschungsdaten der Geisteswissenschaften zum östlichen Europa und deren Management

Kurzweil, Moritz, Skowronek, Thomas 30 April 2020 (has links)
Auf dem Poster wird das koordinierte Forschungsdatenmanagement (FDM), welches sich am GWZO im Aufbau befindet, sowie das von der DFG geförderte Verbundprojekt „OstData. Forschungsdatendienst für die Ost- Ostmittel- und Südosteuropaforschung“, an dem das Institut beteiligt ist, vorgestellt. Dafür wird in zwei Abschnitten der multidisziplinäre, epochenübergreifende und geographische Ansatz des Instituts und seine bundesweite Vernetzung im Hinblick auf FDM dargestellt. Anhand eines Zeitstrahls werden die Meilensteine seit 2017, weiteren Planungen zum FDM sowie die Verortung von 'OstData' im GWZO visualisiert. Ein umfangreicher 'Meilenstein-Kasten' gibt grundlegende Informationen zu 'OstData' und erläutert die Ziele des Verbundprojekts.
7

More than cycling – Europäische Heimatforschung: Offene Daten und Narrative, samt Fernwehforschung und Radfahrerwissen – ein Projekt mit Open Citizen Science

Bemme, Jens 26 November 2019 (has links)
Europäische Heimatforschung: grenzüberschreitende Forschung mit europäischen Quellen und Geschichten, um dieses Wissen mit Open Sience wieder sichtbar und zugänglich zu machen
8

Anmerkungen zur Geschichte der Gelehrsamkeit

Schneider, Ulrich Johannes 19 February 2015 (has links)
Die Erinnerungskultur schlägt um in Erinnerungskult. wenn das, was über alle Konstruktionsabsicht hinaus sich zum Wissensschatz angehäuft hat, als geplantes Produkt von Strategien, Methoden und Techniken erscheint: Unsere eigene Meisterschaft wird in die Vergangenheit projiziert. Indem wir die Gelehrten des 17. und 18. Jahrhunderts zu unseren Kollegen machen und sie in ehemaliger Lebendigkeit auferstehen lassen, unterlaufen wir das Vergessen, das sie ereilt hat, und erhoffen ein ähnliches Schicksal für uns selbst. Aber ist die Gelehrtengeschichte heute nicht im gleichen Maße Rettung eines Vergessenen wie Nachahmung desselben?
9

Linked Open Storytelling

Bemme, Jens 22 April 2021 (has links)
No description available.
10

The Science-Media Interface: On the Relation Between Internal and External Science Communication

Broer, Irene, Lemke, Steffen, Mazarakis, Athanasios, Peters, Isabella, Zinke-Wehlmann, Christian 26 October 2023 (has links)
No description available.

Page generated in 0.0183 seconds