• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 41
  • 11
  • Tagged with
  • 52
  • 52
  • 52
  • 51
  • 50
  • 50
  • 27
  • 11
  • 10
  • 8
  • 7
  • 7
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Data curation for qualitative data reuse and big social research / Connecting communities of practice

Mannheimer, Sara 12 September 2022 (has links)
In den letzten Jahren haben Innovationen bei Datenquellen und Methoden für die sozialwissenschaftliche Forschung zugenommen. Diese Forschungsarbeit zielt darauf ab, die Auswirkungen dieser Innovationen auf drei Praxisgemeinschaften besser zu verstehen: qualitativ Forschende, Big Social Data Forschende und Datenkurator*innen. Folgenden Forschungsfragen werden behandelt. RQ1: Wie unterscheidet sich die Kuratierung von Big Social Data und qualitativen Daten? RQ2: Welche Auswirkungen haben diese Ähnlichkeiten und Unterschiede auf die Kuratierung von Big Social Data und qualitativen Daten und was können wir aus der Kombination dieser beiden Communities lernen? Ich beantwortete diese Fragen durch eine Literaturrecherche, in der ich Gemeinsamkeiten zwischen qualitativer Datennachnutzung und Big Social Data identifizierte. Dann führte ich semi-strukturierte Interviews mit den drei Praxisgemeinschaften durch. Die Analyse identifizierte sechs Schlüsselthemen für die qualitative Datennachnutzung und Big Social Data: Kontext, Datenqualität und Vertrauenswürdigkeit, Datenvergleichbarkeit, informierte Einwilligung, Datenschutz und Vertraulichkeit sowie geistiges Eigentum und Dateneigentum. Ich habe außerdem fünf weitere Themen identifiziert: Domänenunterschiede, Strategien für eine verantwortungsvolle Praxis, Fragen der Datenpflege, Menschen oder Inhalte als Untersuchungsobjekte sowie unterschiedliche Schwerpunkte und Ansätze. Die Verbindung dieser drei Praxisgemeinschaften kann ein breiteres Verständnis der Schlüsselfragen unterstützen und zu verantwortungsbewussteren Forschungspraktiken führen. Datenkurator*innen verfügen über die Fähigkeiten und Perspektiven, um zwischen den Praxisgemeinschaften zu übersetzen und eine verantwortungsvolle qualitative Nachnutzung von Daten und Big Social Data zu unterstützen. / Recent years have seen the rise of innovations in data sources and methods for social science research. This research aims to better understand the impact of these innovations on three communities of practice: qualitative researchers, big social researchers, and data curators. I address the following research questions. RQ1: How is big social data curation similar to and different from qualitative data curation? RQ1a: How are epistemological, ethical, and legal issues different or similar for qualitative data reuse and big social research? RQ1b: How can data curation practices support and resolve some of these epistemological and ethical issues? RQ2: What are the implications of these similarities and differences for big social data curation and qualitative data curation, and what can we learn from combining these two conversations? I answered these questions through a literature review, in which I identified issues in common between qualitative data reuse and big social research. Then I conducted semi-structured interviews with the three communities of practice. The research identified six key issues for qualitative data reuse and big social research: context, data quality and trustworthiness, data comparability, informed consent, privacy and confidentiality, and intellectual property and data ownership. I also identified five additional themes: domain differences, strategies for responsible practice, data curation issues, human subjects vs. content, and different focuses and approaches. Connecting these three communities of practice can support a broader understanding of the key issues and lead to more responsible research practices. Data curators have the skills and perspectives to translate between communities of practice and provide guidance for responsible qualitative data reuse and big social data.
32

Real-time 3D-based Virtual Eye Contact for Video Communication

Waizenegger, Wolfgang 09 August 2019 (has links)
Das Problem des fehlenden Augenkontaktes vermindert den Eindruck einer natürlichen Kommunikationssituation bei Videokonferenzen. Während eine Person auf den Bildschirm blickt, wird sie von Kameras aufgenommen, die sich normalerweise direkt daneben befinden. Mit dem Aufkommen von massiv paralleler Computer Hardware und ganz speziell den sehr leistungsstarken Spielegrafikkarten ist es möglich geworden, viele Eingabeansichten für eine Echtzeit 3D Rekonstruktion zu verarbeiten. Eine größere Anzahl von Eingabeansichten mildert Verdeckungsprobleme ab und führt zu vollständigeren 3D Daten. In dieser Arbeit werden neue Algorithmen vorgeschlagen, welche eine hochqualitative Echtzeit 3D Rekonstruktion, die kontinuierliche Anpassung der photometrischen Kameraparameter und die benutzerunabhängige Schätzung der Augenkontaktkameras ermöglichen. Die Echtzeit 3D Analyse besteht aus zwei komplementären Ansätzen. Einerseits gibt es einen Algorithmus, der auf der Verarbeitung geometrischer Formen basiert und auf der anderen Seite steht eine patchbasierte Technik, die 3D Hypothesen durch das Vergleichen von Bildtexturen evaluiert. Zur Vorbereitung für die Bildsynthese ist es notwendig, Texturen von verschiedenen Ansichten anzugleichen. Hierfür wird die Anwendung eines neuen Algorithmus zur kontinuierlichen photometrischen Justierung der Kameraparameter vorgeschlagen. Die photometrische Anpassung wird iterativ, im Wechsel mit einer 3D Registrierung der entsprechenden Ansichten, ausgeführt. So ist die Qualität der photometrischen Parameter direkt mit jener der Ergebnisse der 3D Analyse verbunden und vice versa. Eine weitere wichtige Voraussetzung für eine korrekte Synthese der Augenkontaktansicht ist die Schätzung einer passenden virtuellen Augenkontaktkamera. Hierfür wird die Augenkontaktkamera kontinuierlich an die Augenposition der Benutzer angeglichen. Auf diese Weise wird eine virtuelle Kommunikationsumgebung geschaffen, die eine natürlichere Kommunikation ermöglicht. / A major problem, that decreases the naturalness of conversations via video communication, is missing eye contact. While a person is looking on the display, she or he is recorded from cameras that are usually attached next to the display frame. With the advent of massively parallel computer hardware and in particular very powerful consumer graphics cards, it became possible to simultaneously process multiple input views for real-time 3D reconstruction. Here, a greater amount of input views mitigate occlusion problems and lead to a more complete set of 3D data that is available for view synthesis. In this thesis, novel algorithms are proposed that enable for high quality real-time 3D reconstruction, the on-line alignment of photometric camera parameters, and the automatic and user independent estimation of the eye contact cameras. The real-time 3D analysis consist of two complementary approaches. On the one hand, a shape based algorithm and on the other hand, a patch based technique that evaluates 3D hypotheses via comparison of image textures. Preparative to rendering, texture from multiple views needs to be aligned. For this purpose, a novel algorithm for photometric on-line adjustment of the camera parameters is proposed. The photometric adjustment is carried out iteratively in alternation with a 3D registration of the respective views. In this way, the quality of photometric parameters is directly linked to the 3D analysis results and vice versa. Based on the textured 3D data, the eye contact view is rendered. An important prerequisite for this task is the estimation of a suitable virtual eye contact camera. In this thesis, a novel approach is formulated that enables for an automatic adaptation to arbitrary new users. Therefor, the eye contact camera is dynamically adapted to the current eye positions of the users. In this way, a virtual communication environment is created that allows for a more natural conversation.
33

Explainable deep learning classifiers for disease detection based on structural brain MRI data

Eitel, Fabian 14 November 2022 (has links)
In dieser Doktorarbeit wird die Frage untersucht, wie erfolgreich deep learning bei der Diagnostik von neurodegenerativen Erkrankungen unterstützen kann. In 5 experimentellen Studien wird die Anwendung von Convolutional Neural Networks (CNNs) auf Daten der Magnetresonanztomographie (MRT) untersucht. Ein Schwerpunkt wird dabei auf die Erklärbarkeit der eigentlich intransparenten Modelle gelegt. Mit Hilfe von Methoden der erklärbaren künstlichen Intelligenz (KI) werden Heatmaps erstellt, die die Relevanz einzelner Bildbereiche für das Modell darstellen. Die 5 Studien dieser Dissertation zeigen das Potenzial von CNNs zur Krankheitserkennung auf neurologischen MRT, insbesondere bei der Kombination mit Methoden der erklärbaren KI. Mehrere Herausforderungen wurden in den Studien aufgezeigt und Lösungsansätze in den Experimenten evaluiert. Über alle Studien hinweg haben CNNs gute Klassifikationsgenauigkeiten erzielt und konnten durch den Vergleich von Heatmaps zur klinischen Literatur validiert werden. Weiterhin wurde eine neue CNN Architektur entwickelt, spezialisiert auf die räumlichen Eigenschaften von Gehirn MRT Bildern. / Deep learning and especially convolutional neural networks (CNNs) have a high potential of being implemented into clinical decision support software for tasks such as diagnosis and prediction of disease courses. This thesis has studied the application of CNNs on structural MRI data for diagnosing neurological diseases. Specifically, multiple sclerosis and Alzheimer’s disease were used as classification targets due to their high prevalence, data availability and apparent biomarkers in structural MRI data. The classification task is challenging since pathology can be highly individual and difficult for human experts to detect and due to small sample sizes, which are caused by the high acquisition cost and sensitivity of medical imaging data. A roadblock in adopting CNNs to clinical practice is their lack of interpretability. Therefore, after optimizing the machine learning models for predictive performance (e.g. balanced accuracy), we have employed explainability methods to study the reliability and validity of the trained models. The deep learning models achieved good predictive performance of over 87% balanced accuracy on all tasks and the explainability heatmaps showed coherence with known clinical biomarkers for both disorders. Explainability methods were compared quantitatively using brain atlases and shortcomings regarding their robustness were revealed. Further investigations showed clear benefits of transfer-learning and image registration on the model performance. Lastly, a new CNN layer type was introduced, which incorporates a prior on the spatial homogeneity of neuro-MRI data. CNNs excel when used on natural images which possess spatial heterogeneity, and even though MRI data and natural images share computational similarities, the composition and orientation of neuro-MRI is very distinct. The introduced patch-individual filter (PIF) layer breaks the assumption of spatial invariance of CNNs and reduces convergence time on different data sets without reducing predictive performance. The presented work highlights many challenges that CNNs for disease diagnosis face on MRI data and defines as well as tests strategies to overcome those.
34

Fehler von Fingerabdruckerkennungssystemen im Kontext / Begreifbare Vermittlung der Fehler einer biometrischen Kontrolltechnologie

Knaut, Andrea 12 September 2017 (has links)
In dieser Arbeit werden zwei Fragen im Zusammenhang mit Fehlern von Fingerabdruckerkennungssystemen untersucht. Erstens: Welche strukturellen Merkmale und begrifflichen Implikationen hat der spezifische Fehlerdiskurs in diesem Teilgebiet der Biometrie? Zur Beantwortung dieser Frage werden im Rahmen einer diskursanalytischen Betrachtung der Fachtexte des Forschungsfeldes die gängigen Fehlertypologien der Biometrie untersucht. Die Arbeitshypothese der Analyse ist, dass der massenhafte Einsatz von Fingerabdruckerkennungssystemen im Alltag trotz aller ihrer Fehler diskursiv durchsetzungsfähig ist. Undzwar nicht unbedingt, weil die Fehler zu vernachlässigen sind, sondern weil die Angst vor „Identitätsbetrug“, die Idee einer Messbarkeit von Identität und die wirtschaftliche und politische Bedeutung von Sicherheitstechniken in einer für unsicher gehaltenen Welt große Wirkmächtigkeit haben. Es wird diskutiert, inwiefern die Auseinandersetzung mit System- und Überwindungsfehlern in der Informatik zu kurz greift. Daher wird ein erweitertes Fehlermodell vorgeschlagen, das an jüngere transdisziplinäre Fehlerforschung anknüpft und als kritisches Analyseinstrument für die Beurteilung der Wechselwirkung zwischen Informatik(-system) und Gesellschaft genutzt werden kann. Zweitens: Wie lassen sich die diskursanalytische Methode und ein experimentelles Hands-On-Lernen zu einem Lern- und Lehrkonzept verbinden, dass eine kritische Vermittlung der Probleme von Fingerabdruckerkennungssystemen ermöglicht? Ausgehend von schulischen Unterrichtskonzepten einer an der Lebenswelt orientierten Informatiklehre sowie der Idee des „be-greifbaren Lernens“ an konkreten Gegenständen wurde ein Lern- und Lehrkonzept für Universität und Schule entwickelt und in drei verschiedenen Institutionen ausprobiert. / In this paper two questions will be addressed relating to deficits in fingerprint recognition systems. Firstly, what structural features and conceptual implications does the analysis of errors have in the field of biometrics? To answer this question, the common error types in biometrics will be examined, as part of an analytical discourse taking into consideration technical texts from the research field. The working hypothesis of this analysis is that the structure of the discourse surrounding fingerprint recognition systems would present no barriers to their widespread implementation in everyday life despite all their faults – not because their shortcomings are negligible but due to the great potency of the fear of “identity fraud”, the notion that identity can be measured, and the economic and political importance of security technologies in a world deemed unsafe. It will be discussed how the examination of system errors and spoofing attacks in computer science falls short in addressing the whole picture of failing fingerprint recognition systems. Therefore an extended error model will be proposed, one which builds on recent transdisciplinary error research and which can be used as a critical tool for analysing and assessing the interaction between computer systems and society. Secondly, how could the analytical discourse method and experimental hands-on learning be combined into a teaching concept that would enable critical teaching of the problems of fingerprint recognition systems? Starting from the school-based teaching concepts of a theory of computer science based on real life and the idea of “hands-on learning” using concrete objects, a teaching concept for universities and schools has been developed and tested in three different institutions.
35

Strategische und operative Handlungsoptionen für wissenschaftliche Einrichtungen zur Gestaltung der Open-Access-Transformation

Pampel, Heinz 11 June 2021 (has links)
Die vorliegende Arbeit befasst sich mit der Rolle von Forschungseinrichtungen in Deutschland bei der Transformation des wissenschaftlichen Publikationswesens von Subskription zu Open Access im Bereich wissenschaftlicher Fachzeitschriften. Die Open-Access-Transformation zielt darauf ab, das tradierte Subskriptionsmodell zu überwinden und innovative Verfahren der digitalen Wissenschaftskommunikation zu ermöglichen. Diese Arbeit untersucht, welche Handlungsoptionen sich Forschungseinrichtungen zur Gestaltung der Open-Access-Transformation eröffnen. Auf Grundlage einer Darstellung der Handlungsoptionen in den Bereichen Strategie und Kommunikation, Services und Infrastrukturen, Geschäftsbeziehungen mit Verlagen und Kooperationen wurde die Umsetzung dieser Handlungsoptionen in der Praxis analysiert. Hierzu wurde eine Erhebung unter 701 wissenschaftlichen Einrichtungen in Deutschland durch-geführt. Mit einer Rücklaufquote von 403 antwortenden Einrichtungen (57,49 %) wird die Betei-ligung an der Umfrage als sehr positiv bewertet. Diese bislang wohl umfangreichste Studie zum Thema, zeigt, dass die akademischen Einrichtungen in Deutschland bis dato nur wenige Handlungsoptionen zur Förderung von Open Access umsetzen. Während die Verbreitung von Open-Access-Repositorien positiv zu bewerten ist, stehen der Um-gang mit Open-Access-Publikationsgebühren und damit verbunden auch das Monitoring von Publikationskosten noch am Anfang. Die Ergebnisse der Erhebung deuten auf einen hohen Handlungsbedarf hin. Über die quantitative Erhebung hinaus, die die Lücke einer fehlenden Datenbasis zu Open Ac-cess in Deutschland schließt, formuliert die Arbeit in einem anwendungsbezogenen Ansatz Empfehlungen für die weitere Befassung mit der Open-Access-Transformation an Forschungseinrichtungen in Deutschland. Ein Fokus liegt dabei auf Aktivitäten, die sich im Bereich der wissenschaftlichen Bibliotheken ergeben. / This thesis investigates the role of research institutions in Germany in transforming scholarly publishing from subscription to Open Access in the field of scientific journals. Open Access transformation aims to overcome the traditional subscription model to further innovative methods of digital scholarly communication. The study examines the options open to higher education institutions and research performing organizations for shaping the Open Access transformation. The thesis presents a description of these options in the areas of strategy and communication, services and infrastructures, business relations with publishers and cooperation. Then, the implementation of these options in practice was analyzed. For this purpose, a survey was conducted among 701 academic institutions in Germany. The response rate of 403 responding institutions (57.49%) can be considered very positive. This survey, which is probably the most comprehensive on the subject to date, shows that higher education institutions and research performing organizations in Germany have so far implement-ed only a few options for promoting Open Access. While the distribution of Open Access repositories is positive, the handling of Open Access publication charges and the associated monitoring of publication costs are still at the beginning. The results of the survey indicate a high need for action. The presented quantitative survey closes the gap of missing data on Open Access in Germany. Based on this new dataset, the study formulates recommendations for further engagement with the Open Access transformation at research institutions in Germany. One focus is on activities that arise in the area of academic libraries.
36

Financial Market Information with Modern Statistical Models

Hu, Junjie 10 December 2021 (has links)
Modelle und Daten sind die beiden grundlegenden Elemente in den meisten Finanzmarktstudien. Viele Arbeiten konzentrieren sich auf die Verbesserung von Modellen zur besseren Annäherung an wahre Marktmechanismen, dabei konzentriert sich ein wichtiger Teil der Literatur auf die Nutzung von Informationen aus verschiedenen Quellen. In letzter Zeit haben immer mehr Forscher die Bedeutung der Modellierung aus realen Daten erkannt, dies geht einhermit der Weiterentwicklung moderner statistischer Modelle, insbesondere dem maschinellen (statistischen) Lernen, wie z. B. rekurrente neuronale Netze, die sich in den letzten Jahren bei vielen Problemen als wirksam erwiesen haben. Es hat sich gezeigt, dass der zunehmende Trend auf innovative Datenquellen wie Textnachrichten und Satellitenbilder zuzugreifen und diese zu analysieren, sich schnell zu einer wichtigen Säule der Finanzwissenschaft entwickelt hat. Auf der anderen Seite bietet die klassische Finanzliteratur eine fundierte Basis, um die aus diesen hochentwickelten Modellen und Daten gewonnenen Ergebnisse zu hinterfragen. Basierend auf der Finanzmarktanalyse mit modernen statistischen Modellen werden in dieser Dissertation in den ersten drei Kapiteln verschiedene Themen behandelt, darunter das Portfoliomanagement in Verbindung mit Informationen aus Nachrichtennetzwerken, das Risikomanagement des aufstrebenden Bitcoin-Marktes und die Vorhersage von Zeitreihen von Stromlasten mit fortgeschrittenen statistischen Modellen. / Models and data are the two fundamental elements in most of the studies on the financial market. Many papers concentrate on improving models to better approximate the true market mechanism, while an important strand of the literature focuses on exploiting more information from various sources. Recently, more and more researchers started to realize the importance of modeling from real-world data, along with the advancement of modern statistical models, especially the machine (statistical) learning models such as Recurrent Neural Network being proved to be effective on many problems in the past few years. Hence, we saw that an uprising trend of accessing and analyzing innovative data sources, such as textual news and satellite image, has been growing fast into a major pillar in financial studies. On the other hand, the classical finance literature provides us an angle to scrutinize the results generated from those sophisticated models and data. Under the spirit of financial market analysis with modern statistical models, this dissertation is written to cover various topics, including portfolio management coupled with the information from networks of news, risk management of the emerging Bitcoin market, and electricity load time series forecasting with the advanced statistical models, in the next three chapters.
37

Zirkus Empathico 2.0, A serious game to foster emotional and collaborative skills in children with Autism Spectrum Disorder (ASD)

Hassan, Ahmed 15 January 2024 (has links)
Autismus-Spektrum-Störung (ASD) ist eine neurologische Entwicklungsstörung, die durch eine Reihe von Entwicklungsstörungen gekennzeichnet ist, die zu einem Mangel an sozialen, kommunikativen und kooperativen Fähigkeiten führen. Sozio-kommunikative Beeinträchtigungen können durch von Verhaltenstherapeuten konzipierte und durchgeführte Trainingsprogramme für soziale Kompetenzen verbessert werden. Computergestützte Therapien zur Lösung sozio-kommunikativer Schwierigkeiten bei Kindern, Jugendlichen und Erwachsenen mit ASD haben ermutigende Ergebnisse gezeigt. Das Serious-Game-Format ist eine Form der Intervention. Seriöse Spiele sind pädagogisch wertvoll, aber oft attraktiver als offensichtliche pädagogische Hilfsmittel. Zirkus Empathico 2.0 ist ein Serious Game für mehrere Spieler mit verschiedenen Levels und Bühnen in einer Zirkusumgebung. Die Auswertung erfolgte über einen Zeitraum von acht Wochen. Sechzig Kinder mit ASD im Alter von fünf bis elf Jahren wurden vor und nach der Behandlung untersucht. Zu den primären Ergebnissen gehörten die Empathiebewertung durch die Eltern und objektiv gemessene Fähigkeiten zur Emotionserkennung. Die Bewertung der Effektivität und Verwendbarkeit des Spiels für das Training sozialer Kompetenzen zeigte, dass es eine plausible Lernumgebung schuf, indem es das Bewusstsein der Studienteilnehmer für Fähigkeiten und neurotypisches Verhalten steigerte und ihre vorhergesagte Angst in zukünftigen sozialen Situationen verringerte. Nach der Behandlung wurden signifikante Behandlungseffekte festgestellt. Sowohl bei Kurz- als auch bei Langzeitbeurteilungen. Zirkus Empathico 2.0 ist erfolgreich bei der langfristigen Verbesserung der sozio-emotionalen Fähigkeiten in realen Situationen. Zukünftige Forschung sollte sich auf die spezifischen Prozesse konzentrieren, die den Übertragungs- und Aufrechterhaltungsvorteilen von Empathie und Emotionserkennung zugrunde liegen. / Autism spectrum disorder (ASD) is a neurodevelopmental disorder characterized by a spectrum of developmental abnormalities that result in a lack of social, communicative, and collaborative abilities. Socio-communicative impairments can be improved through behavioral therapist-designed and delivered social-skills training programs. Computer-based therapies to resolve socio-communicative difficulties in children, adolescents, and adults with ASD have demonstrated encouraging outcomes. The serious game format is one type of intervention. Serious games are educational but often appeal more than overt pedagogical tools. Zirkus Empathico 2.0 is a multi-player serious game set with various levels and stages in a circus environment. It was evaluated over eight weeks. Sixty children with ASD aged five to eleven years were evaluated before treatment and post-treatment. Primary outcomes included empathy rating by parents and objectively measured emotion recognition abilities. Secondary outcomes were assessed as emotional awareness, emotion management, well-being, and personal therapy goals. The assessment of the game's effectiveness and usability for social-skills training indicated that it established a plausible learning environment by boosting trial participants' awareness of abilities and neurotypical behavior and decreasing their predicted fear in future social situations. Following treatment, significant treatment effects were detected. In both short- and long-term assessments, moderate impacts were observed on emotional awareness, emotion management, and autistic social symptomatology. Parents reported that therapy goals were met, and that treatment was transferred well. Zirkus Empathico 2.0 is successful at improving long-term socio-emotional abilities in real-world situations. Future research should focus on the specific processes behind empathy and emotion recognition's transmission and maintenance benefits.
38

Integrating Natural Language Processing (NLP) and Language Resources Using Linked Data

Hellmann, Sebastian 09 January 2014 (has links)
This thesis is a compendium of scientific works and engineering specifications that have been contributed to a large community of stakeholders to be copied, adapted, mixed, built upon and exploited in any way possible to achieve a common goal: Integrating Natural Language Processing (NLP) and Language Resources Using Linked Data The explosion of information technology in the last two decades has led to a substantial growth in quantity, diversity and complexity of web-accessible linguistic data. These resources become even more useful when linked with each other and the last few years have seen the emergence of numerous approaches in various disciplines concerned with linguistic resources and NLP tools. It is the challenge of our time to store, interlink and exploit this wealth of data accumulated in more than half a century of computational linguistics, of empirical, corpus-based study of language, and of computational lexicography in all its heterogeneity. The vision of the Giant Global Graph (GGG) was conceived by Tim Berners-Lee aiming at connecting all data on the Web and allowing to discover new relations between this openly-accessible data. This vision has been pursued by the Linked Open Data (LOD) community, where the cloud of published datasets comprises 295 data repositories and more than 30 billion RDF triples (as of September 2011). RDF is based on globally unique and accessible URIs and it was specifically designed to establish links between such URIs (or resources). This is captured in the Linked Data paradigm that postulates four rules: (1) Referred entities should be designated by URIs, (2) these URIs should be resolvable over HTTP, (3) data should be represented by means of standards such as RDF, (4) and a resource should include links to other resources. Although it is difficult to precisely identify the reasons for the success of the LOD effort, advocates generally argue that open licenses as well as open access are key enablers for the growth of such a network as they provide a strong incentive for collaboration and contribution by third parties. In his keynote at BNCOD 2011, Chris Bizer argued that with RDF the overall data integration effort can be “split between data publishers, third parties, and the data consumer”, a claim that can be substantiated by observing the evolution of many large data sets constituting the LOD cloud. As written in the acknowledgement section, parts of this thesis has received numerous feedback from other scientists, practitioners and industry in many different ways. The main contributions of this thesis are summarized here: Part I – Introduction and Background. During his keynote at the Language Resource and Evaluation Conference in 2012, Sören Auer stressed the decentralized, collaborative, interlinked and interoperable nature of the Web of Data. The keynote provides strong evidence that Semantic Web technologies such as Linked Data are on its way to become main stream for the representation of language resources. The jointly written companion publication for the keynote was later extended as a book chapter in The People’s Web Meets NLP and serves as the basis for “Introduction” and “Background”, outlining some stages of the Linked Data publication and refinement chain. Both chapters stress the importance of open licenses and open access as an enabler for collaboration, the ability to interlink data on the Web as a key feature of RDF as well as provide a discussion about scalability issues and decentralization. Furthermore, we elaborate on how conceptual interoperability can be achieved by (1) re-using vocabularies, (2) agile ontology development, (3) meetings to refine and adapt ontologies and (4) tool support to enrich ontologies and match schemata. Part II - Language Resources as Linked Data. “Linked Data in Linguistics” and “NLP & DBpedia, an Upward Knowledge Acquisition Spiral” summarize the results of the Linked Data in Linguistics (LDL) Workshop in 2012 and the NLP & DBpedia Workshop in 2013 and give a preview of the MLOD special issue. In total, five proceedings – three published at CEUR (OKCon 2011, WoLE 2012, NLP & DBpedia 2013), one Springer book (Linked Data in Linguistics, LDL 2012) and one journal special issue (Multilingual Linked Open Data, MLOD to appear) – have been (co-)edited to create incentives for scientists to convert and publish Linked Data and thus to contribute open and/or linguistic data to the LOD cloud. Based on the disseminated call for papers, 152 authors contributed one or more accepted submissions to our venues and 120 reviewers were involved in peer-reviewing. “DBpedia as a Multilingual Language Resource” and “Leveraging the Crowdsourcing of Lexical Resources for Bootstrapping a Linguistic Linked Data Cloud” contain this thesis’ contribution to the DBpedia Project in order to further increase the size and inter-linkage of the LOD Cloud with lexical-semantic resources. Our contribution comprises extracted data from Wiktionary (an online, collaborative dictionary similar to Wikipedia) in more than four languages (now six) as well as language-specific versions of DBpedia, including a quality assessment of inter-language links between Wikipedia editions and internationalized content negotiation rules for Linked Data. In particular the work described in created the foundation for a DBpedia Internationalisation Committee with members from over 15 different languages with the common goal to push DBpedia as a free and open multilingual language resource. Part III - The NLP Interchange Format (NIF). “NIF 2.0 Core Specification”, “NIF 2.0 Resources and Architecture” and “Evaluation and Related Work” constitute one of the main contribution of this thesis. The NLP Interchange Format (NIF) is an RDF/OWL-based format that aims to achieve interoperability between Natural Language Processing (NLP) tools, language resources and annotations. The core specification is included in and describes which URI schemes and RDF vocabularies must be used for (parts of) natural language texts and annotations in order to create an RDF/OWL-based interoperability layer with NIF built upon Unicode Code Points in Normal Form C. In , classes and properties of the NIF Core Ontology are described to formally define the relations between text, substrings and their URI schemes. contains the evaluation of NIF. In a questionnaire, we asked questions to 13 developers using NIF. UIMA, GATE and Stanbol are extensible NLP frameworks and NIF was not yet able to provide off-the-shelf NLP domain ontologies for all possible domains, but only for the plugins used in this study. After inspecting the software, the developers agreed however that NIF is adequate enough to provide a generic RDF output based on NIF using literal objects for annotations. All developers were able to map the internal data structure to NIF URIs to serialize RDF output (Adequacy). The development effort in hours (ranging between 3 and 40 hours) as well as the number of code lines (ranging between 110 and 445) suggest, that the implementation of NIF wrappers is easy and fast for an average developer. Furthermore the evaluation contains a comparison to other formats and an evaluation of the available URI schemes for web annotation. In order to collect input from the wide group of stakeholders, a total of 16 presentations were given with extensive discussions and feedback, which has lead to a constant improvement of NIF from 2010 until 2013. After the release of NIF (Version 1.0) in November 2011, a total of 32 vocabulary employments and implementations for different NLP tools and converters were reported (8 by the (co-)authors, including Wiki-link corpus, 13 by people participating in our survey and 11 more, of which we have heard). Several roll-out meetings and tutorials were held (e.g. in Leipzig and Prague in 2013) and are planned (e.g. at LREC 2014). Part IV - The NLP Interchange Format in Use. “Use Cases and Applications for NIF” and “Publication of Corpora using NIF” describe 8 concrete instances where NIF has been successfully used. One major contribution in is the usage of NIF as the recommended RDF mapping in the Internationalization Tag Set (ITS) 2.0 W3C standard and the conversion algorithms from ITS to NIF and back. One outcome of the discussions in the standardization meetings and telephone conferences for ITS 2.0 resulted in the conclusion there was no alternative RDF format or vocabulary other than NIF with the required features to fulfill the working group charter. Five further uses of NIF are described for the Ontology of Linguistic Annotations (OLiA), the RDFaCE tool, the Tiger Corpus Navigator, the OntosFeeder and visualisations of NIF using the RelFinder tool. These 8 instances provide an implemented proof-of-concept of the features of NIF. starts with describing the conversion and hosting of the huge Google Wikilinks corpus with 40 million annotations for 3 million web sites. The resulting RDF dump contains 477 million triples in a 5.6 GB compressed dump file in turtle syntax. describes how NIF can be used to publish extracted facts from news feeds in the RDFLiveNews tool as Linked Data. Part V - Conclusions. provides lessons learned for NIF, conclusions and an outlook on future work. Most of the contributions are already summarized above. One particular aspect worth mentioning is the increasing number of NIF-formated corpora for Named Entity Recognition (NER) that have come into existence after the publication of the main NIF paper Integrating NLP using Linked Data at ISWC 2013. These include the corpora converted by Steinmetz, Knuth and Sack for the NLP & DBpedia workshop and an OpenNLP-based CoNLL converter by Brümmer. Furthermore, we are aware of three LREC 2014 submissions that leverage NIF: NIF4OGGD - NLP Interchange Format for Open German Governmental Data, N^3 – A Collection of Datasets for Named Entity Recognition and Disambiguation in the NLP Interchange Format and Global Intelligent Content: Active Curation of Language Resources using Linked Data as well as an early implementation of a GATE-based NER/NEL evaluation framework by Dojchinovski and Kliegr. Further funding for the maintenance, interlinking and publication of Linguistic Linked Data as well as support and improvements of NIF is available via the expiring LOD2 EU project, as well as the CSA EU project called LIDER, which started in November 2013. Based on the evidence of successful adoption presented in this thesis, we can expect a decent to high chance of reaching critical mass of Linked Data technology as well as the NIF standard in the field of Natural Language Processing and Language Resources.:CONTENTS i introduction and background 1 1 introduction 3 1.1 Natural Language Processing . . . . . . . . . . . . . . . 3 1.2 Open licenses, open access and collaboration . . . . . . 5 1.3 Linked Data in Linguistics . . . . . . . . . . . . . . . . . 6 1.4 NLP for and by the Semantic Web – the NLP Inter- change Format (NIF) . . . . . . . . . . . . . . . . . . . . 8 1.5 Requirements for NLP Integration . . . . . . . . . . . . 10 1.6 Overview and Contributions . . . . . . . . . . . . . . . 11 2 background 15 2.1 The Working Group on Open Data in Linguistics (OWLG) 15 2.1.1 The Open Knowledge Foundation . . . . . . . . 15 2.1.2 Goals of the Open Linguistics Working Group . 16 2.1.3 Open linguistics resources, problems and chal- lenges . . . . . . . . . . . . . . . . . . . . . . . . 17 2.1.4 Recent activities and on-going developments . . 18 2.2 Technological Background . . . . . . . . . . . . . . . . . 18 2.3 RDF as a data model . . . . . . . . . . . . . . . . . . . . 21 2.4 Performance and scalability . . . . . . . . . . . . . . . . 22 2.5 Conceptual interoperability . . . . . . . . . . . . . . . . 22 ii language resources as linked data 25 3 linked data in linguistics 27 3.1 Lexical Resources . . . . . . . . . . . . . . . . . . . . . . 29 3.2 Linguistic Corpora . . . . . . . . . . . . . . . . . . . . . 30 3.3 Linguistic Knowledgebases . . . . . . . . . . . . . . . . 31 3.4 Towards a Linguistic Linked Open Data Cloud . . . . . 32 3.5 State of the Linguistic Linked Open Data Cloud in 2012 33 3.6 Querying linked resources in the LLOD . . . . . . . . . 36 3.6.1 Enriching metadata repositories with linguistic features (Glottolog → OLiA) . . . . . . . . . . . 36 3.6.2 Enriching lexical-semantic resources with lin- guistic information (DBpedia (→ POWLA) → OLiA) . . . . . . . . . . . . . . . . . . . . . . . . 38 4 DBpedia as a multilingual language resource: the case of the greek dbpedia edition. 39 4.1 Current state of the internationalization effort . . . . . 40 4.2 Language-specific design of DBpedia resource identifiers 41 4.3 Inter-DBpedia linking . . . . . . . . . . . . . . . . . . . 42 4.4 Outlook on DBpedia Internationalization . . . . . . . . 44 5 leveraging the crowdsourcing of lexical resources for bootstrapping a linguistic linked data cloud 47 5.1 Related Work . . . . . . . . . . . . . . . . . . . . . . . . 48 5.2 Problem Description . . . . . . . . . . . . . . . . . . . . 50 5.2.1 Processing Wiki Syntax . . . . . . . . . . . . . . 50 5.2.2 Wiktionary . . . . . . . . . . . . . . . . . . . . . . 52 5.2.3 Wiki-scale Data Extraction . . . . . . . . . . . . . 53 5.3 Design and Implementation . . . . . . . . . . . . . . . . 54 5.3.1 Extraction Templates . . . . . . . . . . . . . . . . 56 5.3.2 Algorithm . . . . . . . . . . . . . . . . . . . . . . 56 5.3.3 Language Mapping . . . . . . . . . . . . . . . . . 58 5.3.4 Schema Mediation by Annotation with lemon . 58 5.4 Resulting Data . . . . . . . . . . . . . . . . . . . . . . . . 58 5.5 Lessons Learned . . . . . . . . . . . . . . . . . . . . . . . 60 5.6 Discussion and Future Work . . . . . . . . . . . . . . . 60 5.6.1 Next Steps . . . . . . . . . . . . . . . . . . . . . . 61 5.6.2 Open Research Questions . . . . . . . . . . . . . 61 6 nlp & dbpedia, an upward knowledge acquisition spiral 63 6.1 Knowledge acquisition and structuring . . . . . . . . . 64 6.2 Representation of knowledge . . . . . . . . . . . . . . . 65 6.3 NLP tasks and applications . . . . . . . . . . . . . . . . 65 6.3.1 Named Entity Recognition . . . . . . . . . . . . 66 6.3.2 Relation extraction . . . . . . . . . . . . . . . . . 67 6.3.3 Question Answering over Linked Data . . . . . 67 6.4 Resources . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 6.4.1 Gold and silver standards . . . . . . . . . . . . . 69 6.5 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 iii the nlp interchange format (nif) 73 7 nif 2.0 core specification 75 7.1 Conformance checklist . . . . . . . . . . . . . . . . . . . 75 7.2 Creation . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 7.2.1 Definition of Strings . . . . . . . . . . . . . . . . 78 7.2.2 Representation of Document Content with the nif:Context Class . . . . . . . . . . . . . . . . . . 80 7.3 Extension of NIF . . . . . . . . . . . . . . . . . . . . . . 82 7.3.1 Part of Speech Tagging with OLiA . . . . . . . . 83 7.3.2 Named Entity Recognition with ITS 2.0, DBpe- dia and NERD . . . . . . . . . . . . . . . . . . . 84 7.3.3 lemon and Wiktionary2RDF . . . . . . . . . . . 86 8 nif 2.0 resources and architecture 89 8.1 NIF Core Ontology . . . . . . . . . . . . . . . . . . . . . 89 8.1.1 Logical Modules . . . . . . . . . . . . . . . . . . 90 8.2 Workflows . . . . . . . . . . . . . . . . . . . . . . . . . . 91 8.2.1 Access via REST Services . . . . . . . . . . . . . 92 8.2.2 NIF Combinator Demo . . . . . . . . . . . . . . 92 8.3 Granularity Profiles . . . . . . . . . . . . . . . . . . . . . 93 8.4 Further URI Schemes for NIF . . . . . . . . . . . . . . . 95 8.4.1 Context-Hash-based URIs . . . . . . . . . . . . . 99 9 evaluation and related work 101 9.1 Questionnaire and Developers Study for NIF 1.0 . . . . 101 9.2 Qualitative Comparison with other Frameworks and Formats . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 9.3 URI Stability Evaluation . . . . . . . . . . . . . . . . . . 103 9.4 Related URI Schemes . . . . . . . . . . . . . . . . . . . . 104 iv the nlp interchange format in use 109 10 use cases and applications for nif 111 10.1 Internationalization Tag Set 2.0 . . . . . . . . . . . . . . 111 10.1.1 ITS2NIF and NIF2ITS conversion . . . . . . . . . 112 10.2 OLiA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 10.3 RDFaCE . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 10.4 Tiger Corpus Navigator . . . . . . . . . . . . . . . . . . 121 10.4.1 Tools and Resources . . . . . . . . . . . . . . . . 122 10.4.2 NLP2RDF in 2010 . . . . . . . . . . . . . . . . . . 123 10.4.3 Linguistic Ontologies . . . . . . . . . . . . . . . . 124 10.4.4 Implementation . . . . . . . . . . . . . . . . . . . 125 10.4.5 Evaluation . . . . . . . . . . . . . . . . . . . . . . 126 10.4.6 Related Work and Outlook . . . . . . . . . . . . 129 10.5 OntosFeeder – a Versatile Semantic Context Provider for Web Content Authoring . . . . . . . . . . . . . . . . 131 10.5.1 Feature Description and User Interface Walk- through . . . . . . . . . . . . . . . . . . . . . . . 132 10.5.2 Architecture . . . . . . . . . . . . . . . . . . . . . 134 10.5.3 Embedding Metadata . . . . . . . . . . . . . . . 135 10.5.4 Related Work and Summary . . . . . . . . . . . 135 10.6 RelFinder: Revealing Relationships in RDF Knowledge Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136 10.6.1 Implementation . . . . . . . . . . . . . . . . . . . 137 10.6.2 Disambiguation . . . . . . . . . . . . . . . . . . . 138 10.6.3 Searching for Relationships . . . . . . . . . . . . 139 10.6.4 Graph Visualization . . . . . . . . . . . . . . . . 140 10.6.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . 141 11 publication of corpora using nif 143 11.1 Wikilinks Corpus . . . . . . . . . . . . . . . . . . . . . . 143 11.1.1 Description of the corpus . . . . . . . . . . . . . 143 11.1.2 Quantitative Analysis with Google Wikilinks Cor- pus . . . . . . . . . . . . . . . . . . . . . . . . . . 144 11.2 RDFLiveNews . . . . . . . . . . . . . . . . . . . . . . . . 144 11.2.1 Overview . . . . . . . . . . . . . . . . . . . . . . 145 11.2.2 Mapping to RDF and Publication on the Web of Data . . . . . . . . . . . . . . . . . . . . . . . . . 146 v conclusions 149 12 lessons learned, conclusions and future work 151 12.1 Lessons Learned for NIF . . . . . . . . . . . . . . . . . . 151 12.2 Conclusions . . . . . . . . . . . . . . . . . . . . . . . . . 151 12.3 Future Work . . . . . . . . . . . . . . . . . . . . . . . . . 153
39

Analysis of diurnal gene regulation and metabolic diversity in Synechocystis sp. PCC 6803 and other phototrophic cyanobacteria

Beck, Johannes Christian 21 June 2018 (has links)
Cyanobakterien sind meist photoautotroph lebende Prokaryoten, welche nahezu alle Biotope der Welt besiedeln. Sie gehören zu den wichtigsten Produzenten der weltweiten Nahrungskette. Um sich auf den täglichen Wechsel von Tag und Nacht einzustellen, besitzen Cyanobakterien eine innere Uhr, bestehend aus den Proteinen KaiA, KaiB und KaiC, deren biochemische Interaktionen zu einem 24-stündigen Rhythmus von Phosphorylierung und Dephosphorylierung führen. Die circadiane Genexpression im Modellorganismus Synechocystis sp. PCC 6803 habe ich mittels drei verschiedener Zeitserienexperimente untersucht, wobei ich einen genauen Zeitplan der Genaktivierung in einer Tag-Nacht-Umgebung, aber keine selbsterhaltenden Rhythmen entdecken konnte. Allerdings beobachtete ich einen überaus starken Anstieg der ribosomalen RNA in der Dunkelheit. Aufgrund ihrer hohen Wachstumsraten und der geringen Anforderungen an die Umwelt bilden Cyanobakterien eine gute Grundlage für die nachhaltige Erzeugung von Biokraftstoffen, für einen industriellen Einsatz sind aber weitere Optimierung und ein verbessertes Verständnis des Metabolismus von Nöten. Hierfür habe ich die Orthologie von verschiedenen Cyanobakterien sowie die Konservierung von Genen und Stoffwechselwegen untersucht. Mit einer neu entwickelten Methode konnte ich gemeinsam vorkommende Gene identifizieren und zeigen, dass diese Gene häufig an einem gemeinsamen biologischen Prozess beteiligt sind, und damit bisher unbekannte Beziehungen aufdecken. Zusätzlich zu den diskutierten Modulen habe ich den SimilarityViewer entwickelt, ein grafisches Computerprogramm für die Identifizierung von gemeinsam vorkommenden Partnern für jedes beliebige Gen. Des Weiteren habe ich für alle Organismen automatische Rekonstruktionen des Stoffwechsels erstellt und konnte zeigen, dass diese die Synthese von gewünschten Stoffen gut vorhersagen, was hilfreich für zukünftige Forschung am Metabolismus von Cyanobakterien sein wird. / Cyanobacteria are photoautotrophic prokaryotes populating virtually all habitats on the surface of the earth. They are one of the prime producers for the global food chain. To cope with the daily alternation of light and darkness, cyanobacteria harbor a circadian clock consisting of the three proteins KaiA, KaiB, and KaiC, whose biochemical interactions result in a phosphorylation cycle with a period of approximately 24 hours. I conducted three time-series experiments in the model organism Synechocystis sp. PCC 6803, which revealed a tight diurnal schedule of gene activation. However, I could not identify any self-sustained oscillations. On the contrary, I observed strong diurnal accumulation of ribosomal RNAs during dark periods, which challenges common assumptions on the amount of ribosomal RNAs. Due to their high growth rates and low demand on their environment, cyanobacteria emerged as a viable option for sustainable production of biofuels. For an industrialized production, however, optimization of growth and comprehensive knowledge of the cyanobacterial metabolism is inevitable. To address this issue, I analyzed the orthology of multiple cyanobacteria and studied the conservation of genes and metabolic pathways. Systematic analysis of genes shared by similar subsets of organisms indicates high rates of functional relationship in such co-occurring genes. I designed a novel approach to identify modules of co-occurring genes, which exhibit a high degree of functional coherence and reveal unknown functional relationships between genes. Complementing the precomputed modules, I developed the SimilarityViewer, a graphical toolbox that facilitates further analysis of co-occurrence with respect to specific cyanobacterial genes of interest. Simulations of automatically generated metabolic reconstructions revealed the biosynthetic capacities of individual cyanobacterial strains, which will assist future research addressing metabolic engineering of cyanobacteria.
40

Radio frequency ranging for precise indoor localization

Sark, Vladica 15 February 2018 (has links)
In den letzten Jahrzehnten sind Satellitennavigationssysteme zu einem unverzichtbaren Teil des modernen Lebens geworden. Viele innovative Anwendungen bieten ortsabhängige Dienste an, welche auf diesen Navigationssystemen aufbauen. Allerdings sind diese Dienste in Innenräumen nicht verfügbar. Daher werden seit einigen Jahren alternative Lokalisierungsmethoden für Innenräume aktiv erforscht und entwickelt. Der Schwerpunkt dieser Arbeit liegt darauf, die Genauigkeit von Lokalisationsmethoden in Innenräumen zu erhöhen, sowie auf der effektiven Integration der entsprechenden Verfahren in drahtlose Kommunikationssysteme. Es werden zwei Ansätze vorgeschlagen und untersucht, welche die Präzision von ToF-basierten Methoden erhöhen. Zum einen wird im „Modified Equivalent Time Sampling“ (METS) Verfahren eine überabgetastete Version der vom Radioempfänger gelieferten Wellenform erzeugt und zur ToF Bestimmung verwendet. Der zweite erforschte Ansatz hat zum Ziel, Fehler auf Grund von Taktfrequenz-Abweichungen zu kompensieren. Dieses ist für kooperative Lokalisationsmethoden (N-Way ranging) von Bedeutung. Das in der Arbeit entwickelte Verfahren führt zu einer erheblichen Reduzierung der Fehler in der Abstandsmessung und damit der Positionsbestimmung. Darüber hinaus wurde eine neue Methode untersucht, um Lokalisationsverfahren in Funksysteme für die ISM Bänder bei 2,4 GHz und 5 GHz zu integrieren. Die Methode wurde auf einer Software Defined Radio (SDR) Plattform implementiert und bewertet. Es konnte eine Genauigkeit bis zu einem Meter in der Positionsbestimmung demonstriert werden. Schließlich wurde ein Verfahren vorgeschlagen und untersucht, mit welchem Lokalisationsfähigkeit in bestehende Funksysteme integriert werden kann. Die betrachtete Methode wurde in einem 60 GHz Funksystem mit hoher Datenrate implementiert. Die Untersuchungen zeigten eine Positionsgenauigkeit von 1 cm bei einer gleichzeitig hohen Datenrate für die Übertragung von Nutzdaten. / In the last couple of decades the Global Navigation Satellite Systems (GNSS) have become a very important part of our everyday life. A huge number of applications offer location based services and navigation functions which rely on these systems. Nevertheless, the offered localization services are not available indoors and their performance is significantly affected in urban areas. Therefore, in the recent years, a large number of wireless indoor localization systems are being actively investigated and developed. The main focus of this work is on improving precision and accuracy of indoor localization systems, as well as on the implementation and integration of localization functionality in wireless data transmission systems. Two approaches for improving the localization precision and accuracy of ToF based methods are proposed. The first approach, referred to as modified equivalent time sampling (METS) is used to reconstruct an oversampled versions of the waveforms acquired at the radio receiver and used for ToF based localization. The second proposed approach is used to compensate the ranging error due to clock frequency offset in cooperative localization schemes like N-Way ranging. This approach significantly reduces the ranging and, therefore, localization errors and has much better performance compared to the existing solutions. An approach for implementation of localization system in the 2.4/5 GHz ISM band is further proposed in this work. This approach is implemented and tested on a software defined radio platform. A ranging precision of better than one meter is demonstrated. Finally, an approach for integrating localization functionality into an arbitrary wireless data transmission system is proposed. This approach is implemented in a 60 GHz wireless system. A ranging precision of one centimeter is demonstrated.

Page generated in 0.069 seconds