111 |
Automating Geospatial RDF Dataset Integration and Enrichment / Automatische geografische RDF Datensatzintegration und AnreicherungSherif, Mohamed Ahmed Mohamed 12 December 2016 (has links) (PDF)
Over the last years, the Linked Open Data (LOD) has evolved from a mere 12 to more than 10,000 knowledge bases. These knowledge bases come from diverse domains including (but not limited to) publications, life sciences, social networking, government, media, linguistics. Moreover, the LOD cloud also contains a large number of crossdomain knowledge bases such as DBpedia and Yago2. These knowledge bases are commonly managed in a decentralized fashion and contain partly verlapping information. This architectural choice has led to knowledge pertaining to the same domain being published by independent entities in the LOD cloud. For example, information on drugs can be found in Diseasome as well as DBpedia and Drugbank. Furthermore, certain knowledge bases such as DBLP have been published by several bodies, which in turn has lead to duplicated content in the LOD . In addition, large amounts of geo-spatial information have been made available with the growth of heterogeneous Web of Data.
The concurrent publication of knowledge bases containing related information promises to become a phenomenon of increasing importance with the growth of the number of independent data providers. Enabling the joint use of the knowledge bases published by these providers for tasks such as federated queries, cross-ontology question answering and data integration is most commonly tackled by creating links between the resources described within these knowledge bases. Within this thesis, we spur the transition from isolated knowledge bases to enriched Linked Data sets where information can be easily integrated and processed. To achieve this goal, we provide concepts, approaches and use cases that facilitate the integration and enrichment of information with other data types that are already present on the Linked Data Web with a focus on geo-spatial data.
The first challenge that motivates our work is the lack of measures that use the geographic data for linking geo-spatial knowledge bases. This is partly due to the geo-spatial resources being described by the means of vector geometry. In particular, discrepancies in granularity and error measurements across knowledge bases render the selection of appropriate distance measures for geo-spatial resources difficult. We address this challenge by evaluating existing literature for point set measures that can be used to measure the similarity of vector geometries. Then, we present and evaluate the ten measures that we derived from the literature on samples of three real knowledge bases.
The second challenge we address in this thesis is the lack of automatic Link Discovery (LD) approaches capable of dealing with geospatial knowledge bases with missing and erroneous data. To this end, we present Colibri, an unsupervised approach that allows discovering links between knowledge bases while improving the quality of the instance data in these knowledge bases. A Colibri iteration begins by generating links between knowledge bases. Then, the approach makes use of these links to detect resources with probably erroneous or missing information. This erroneous or missing information detected by the approach is finally corrected or added.
The third challenge we address is the lack of scalable LD approaches for tackling big geo-spatial knowledge bases. Thus, we present Deterministic Particle-Swarm Optimization (DPSO), a novel load balancing technique for LD on parallel hardware based on particle-swarm optimization. We combine this approach with the Orchid algorithm for geo-spatial linking and evaluate it on real and artificial data sets. The lack of approaches for automatic updating of links of an evolving knowledge base is our fourth challenge. This challenge is addressed in this thesis by the Wombat algorithm. Wombat is a novel approach for the discovery of links between knowledge bases that relies exclusively on positive examples. Wombat is based on generalisation via an upward refinement operator to traverse the space of Link Specifications (LS). We study the theoretical characteristics of Wombat and evaluate it on different benchmark data sets.
The last challenge addressed herein is the lack of automatic approaches for geo-spatial knowledge base enrichment. Thus, we propose Deer, a supervised learning approach based on a refinement operator for enriching Resource Description Framework (RDF) data sets. We show how we can use exemplary descriptions of enriched resources to generate accurate enrichment pipelines. We evaluate our approach against manually defined enrichment pipelines and show that our approach can learn accurate pipelines even when provided with a small number of training examples.
Each of the proposed approaches is implemented and evaluated against state-of-the-art approaches on real and/or artificial data sets. Moreover, all approaches are peer-reviewed and published in a conference or a journal paper. Throughout this thesis, we detail the ideas, implementation and the evaluation of each of the approaches. Moreover, we discuss each approach and present lessons learned. Finally, we conclude this thesis by presenting a set of possible future extensions and use cases for each of the proposed approaches.
|
112 |
Numerische Methoden zur Analyse hochdimensionaler Daten / Numerical Methods for Analyzing High-Dimensional DataHeinen, Dennis 01 July 2014 (has links)
Diese Dissertation beschäftigt sich mit zwei der wesentlichen Herausforderungen, welche bei der Bearbeitung großer Datensätze auftreten, der Dimensionsreduktion und der Datenentstörung. Der erste Teil dieser Dissertation liefert eine Zusammenfassung über Dimensionsreduktion. Ziel der Dimensionsreduktion ist eine sinnvolle niedrigdimensionale Darstellung eines vorliegenden hochdimensionalen Datensatzes. Insbesondere diskutieren und vergleichen wir bewährte Methoden des Manifold-Learning. Die zentrale Annahme des Manifold-Learning ist, dass der hochdimensionale Datensatz (approximativ) auf einer niedrigdimensionalen Mannigfaltigkeit liegt. Störungen im Datensatz sind bei allen Dimensionsreduktionsmethoden hinderlich.
Der zweite Teil dieser Dissertation stellt eine neue Entstörungsmethode für hochdimensionale Daten vor, eine Wavelet-Shrinkage-Methode für die Glättung verrauschter Abtastwerte einer zugrundeliegenden multivariaten stückweise stetigen Funktion, wobei die Abtastpunkte gestreut sein können. Die Methode stellt eine Verallgemeinerung und Weiterentwicklung der für die Bildkompression eingeführten "Easy Path Wavelet Transform" (EPWT) dar. Grundlage ist eine eindimensionale Wavelet-Transformation entlang (adaptiv) zu konstruierender Pfade durch die Abtastpunkte. Wesentlich für den Erfolg der Methode sind passende adaptive Pfadkonstruktionen. Diese Dissertation beinhaltet weiterhin eine kurze Diskussion der theoretischen Eigenschaften von Wavelets entlang von Pfaden sowie numerische Resultate und schließt mit möglichen Modifikationen der Entstörungsmethode.
|
113 |
Enhancing Security in Managing Personal Data by Web SystemsWild, Stefan 12 June 2017 (has links) (PDF)
Web systems have become an integral part in daily life of billions of people. Social is a key characteristic today’s web projects need to feature in order to be successful in the social age. To benefit from an improved user experience, individual persons are continually invited to reveal more and more personal data to web systems.
With a rising severity of attacks on web systems, it is evident that their security is inadequate for the amount of accumulated personal data. Numerous threat reports indicate that social media has become a top-ranking attack target, with climbing impacts, with ramifications beyond single individuals and with a booming black market to trade leaked personal data.
To enhance information security in managing personal data by web systems for the mutual benefit of individual persons, companies and governments, this dissertation proposes a solution architecture and three research contributions. While the solution architecture establishes the foundation for a more secure management of personal data by web systems, the research contributions represent complementary components for protecting personal data against unwanted data disclosure, tampering and use without the actual data owner’s intent or knowledge. Not only do these components enable seamless integration and combination, but they also contribute to assure quality and maintainability. The dissertation concludes with discussing evaluation results and providing an outlook towards future work.
|
114 |
Netzorientierte Fuzzy-Pattern-Klassifikation nichtkonvexer ObjektmengenmorphologienHempel, Arne-Jens 06 September 2011 (has links)
Die Arbeit ordnet sich in das Gebiet der unscharfen Klassifikation ein und stellt im Detail eine Weiterführung der Forschung zur Fuzzy-Pattern-Klassifikation dar. Es handelt sich dabei um eine leistungsfähige systemtheoretische Methodik zur klassifikatorischen Modellierung komplexer, hochdimensionaler, technischer oder nichttechnischer Systeme auf der Basis von metrischen Messgrößen und/oder nichtmetrischen Experten-Bewertungen. Die Beschreibung der Unschärfe von Daten, Zuständen und Strukturen wird hierbei durch einen einheitlichen Typ einer Zugehörigkeitsfunktion des Potentialtyps realisiert. Ziel der Betrachtungen ist die weiterführende Nutzung des bestehenden Klassenmodells zur unscharfen Beschreibung nichtkonvexer Objektmengenmorphologien. Ausgehend vom automatischen datengetriebenen Aufbau der konvexen Klassenbeschreibung, deren vorteilhaften Eigenschaften sowie Defiziten wird im Rahmen der Arbeit eine Methodik vorgestellt, die eine Modellierung beliebiger Objektmengenmorphologien erlaubt, ohne das bestehende Klassifikationskonzept zu verlassen.
Kerngedanken des Vorgehens sind:
1.) Die Aggregation von Fuzzy-Pattern-Klassen auf der Basis so genannter komplementärer Objekte.
2.) Die sequentielle Verknüpfung von Fuzzy-Pattern-Klassen und komplementären Klassen im Sinne einer unscharfen Mengendifferenz.
3.) Die Strukturierung des Verknüpfungsprozesses durch die Clusteranalyse von Komplementärobjektmengen und damit der Verwendung von Konfigurationen aus komplementären Fuzzy-Pattern-Klassen.
Das dabei gewonnene nichtkonvexe Fuzzy-Klassifikationsmodell impliziert eine Vernetzung von Fuzzy-Klassifikatoren in Form von Klassifikatorbäumen. Im Ergebnis entstehen Klassifikatorstrukturen mit hoher Transparenz, die - neben der üblichen zustandsorientierten klassifikatorischen Beschreibung in den Einzelklassifikatoren - zusätzliche Informationen über den Ablauf der Klassifikationsentscheidungen erfassen. Der rechnergestützte Entwurf und die Eigenschaften der entstehenden Klassifikatorstruktur werden an akademischen Teststrukturen und realen Daten demonstriert. Die im Rahmen der Arbeit dargestellte Methodik wird in Zusammenhang mit dem Fuzzy-Pattern-Klassifikationskonzept realisiert, ist jedoch aufgrund ihrer Allgemeingültigkeit auf eine beliebige datenbasierte konvexe Klassenbeschreibung übertragbar. / This work contributes to the field of fuzzy classification. It dedicates itself to the subject of "Fuzzy-Pattern-Classification", a versatile method applied for classificatory modeling of complex, high dimensional systems based on metric and nonmetric data, i.e. sensor readings or expert statements. Uncertainties of data, their associated morphology and therewith classificatory states are incorporated in terms of fuzziness using a uniform and convex type of membership function.
Based on the properties of the already existing convex Fuzzy-Pattern-Class models and their automatic, data-driven setup a method for modeling nonconvex relations without leaving the present classification concept is introduced.
Key points of the elaborated approach are:
1.) The aggregation of Fuzzy-Pattern-Classes with the help of so called complementary objects.
2.) The sequential combination of Fuzzy-Pattern-Classes and complementary Fuzzy-Pattern-Classes in terms of a fuzzy set difference.
3.) A clustering based structuring of complementary Fuzzy-Pattern-Classes and therewith a structuring of the combination process.
A result of this structuring process is the representation of the resulting nonconvex fuzzy classification model in terms of a classifier tree. Such a nonconvex Fuzzy-Classifier features high transparency, which allows a structured understanding of the classificatory decision in working mode.
Both the automatic data-based design as well as properties of such tree-like fuzzy classifiers will be illustrated with the help of academic and real word data.
Even though the proposed method is introduced for a specific type of membership function, the underlying idea may be applied to any convex membership function.
|
115 |
Enhancing Security in Managing Personal Data by Web SystemsWild, Stefan 12 June 2017 (has links)
Web systems have become an integral part in daily life of billions of people. Social is a key characteristic today’s web projects need to feature in order to be successful in the social age. To benefit from an improved user experience, individual persons are continually invited to reveal more and more personal data to web systems.
With a rising severity of attacks on web systems, it is evident that their security is inadequate for the amount of accumulated personal data. Numerous threat reports indicate that social media has become a top-ranking attack target, with climbing impacts, with ramifications beyond single individuals and with a booming black market to trade leaked personal data.
To enhance information security in managing personal data by web systems for the mutual benefit of individual persons, companies and governments, this dissertation proposes a solution architecture and three research contributions. While the solution architecture establishes the foundation for a more secure management of personal data by web systems, the research contributions represent complementary components for protecting personal data against unwanted data disclosure, tampering and use without the actual data owner’s intent or knowledge. Not only do these components enable seamless integration and combination, but they also contribute to assure quality and maintainability. The dissertation concludes with discussing evaluation results and providing an outlook towards future work.
|
116 |
On Safe Usage of Shared Data in Safety-Critical Control SystemsJäger, Georg 16 September 2022 (has links)
Prognostiziert durch Konzepte der Industrie 4.0 und den Cyber-Physischen-Systemen, können autonome Systeme zukünftig dynamisch auf Datenquellen in ihrer Umgebung zugreifen.
Während die gemeinsame Nutzung solcher Datenquellen ein enormes Performanzpotenzial bietet, stellt die benötigte Systemarchitektur vorherrschende Sicherheitsprozesse vor neue Herausforderungen.
Die vorliegende Arbeit motiviert zunächst, dass diese nur zur Laufzeit des Systems adressiert werden könne, bevor sie daraus zwei zentrale Ziele ableitet und verfolgt.
Zum einen wird ein Beschreibungsmodel für die Darstellung von Fehlercharakteristika gemeinsam genutzter Daten vorgestellt.
Dieses generische Fehlermodell erlaubt es zum anderen eine Sicherheitsanalyse zu definieren, die eine spezifische, dynamische Systemkomposition zur Laufzeit mit Hinblick auf die zu erwartenden Unsicherheiten bewerten kann.
Die als Region of Safety betitelte Analysestrategie erlaubt, in Kombination mit dem generischen Fehlermodell, die Sicherheit der auf gemeinsam genutzten Daten basierenden Kollisionsvermeidungsstrategie zweier Roboter noch zur Designzeit zu garantieren, obwohl die spezifischen Fehlercharakteristika der Daten erst zur Laufzeit bekannt werden.:List of Acronyms
List of Theorems
List of Definitions
List of Figures
List of Tables
1. Introduction – Safety in Future Smart Industries
1.1. The Example of Smart Warehouses
1.2. Functional Safety Standards
1.2.1. Overview of Functional Safety Standards
1.2.2. IEC 61508
1.3. Scope of this Thesis
1.3.1. Objectives
1.3.2. Contributions
1.3.3. Outline
1.4. Related Publications by the Author
1.5. Mathematical Notation
2. State of the Art
2.1. State of the Art in Run-Time Safety Assessment
2.1.1. Approaches at the Functional Level
2.1.2. Approaches at the Technical Level
2.1.3. Conclusions
2.2. State of the Art in Failure Modeling
2.2.1. The Definition of (Sensor) Failure Model
2.2.2. Interval-Based Failure Modeling
2.2.3. Distribution-Based Failure Modeling
2.2.4. Failure-Type-Based Failure Modeling
2.2.5. Conclusions
2.3. Conclusions from the State of the Art
3. Generic Failure Model
3.1. Defining the Generic Failure Model
3.1.1. Time- and Value-Correlated Random Distribution
3.1.2. A Failure Type’s Failure Amplitudes
3.1.3. A Failure Type’s State Function
3.1.4. Polynomial Representation of a Failure Type
3.1.5. Discussion on the Fulfillment of the Predefined Criteria
3.2. Converting a Generic Failure Model to an Interval
3.2.1. Converting a Time- and Value-Correlated Random Distribution
3.2.2. A Failure Type’s Interval
3.3. Processing Chain for Generating Generic Failure Models
3.3.1. Identifying Failure Types
3.3.2. Parameterizing Failure Types
3.3.3. Confidence Calculation
3.4. Exemplary Application to Artificial Failure Characteristics
3.4.1. Generating the Artificial Data Set – Manually Designing GFMs
3.4.2. Identifying Failure Types
3.4.3. Parameterizing Failure Types
3.4.4. Confidence Calculation
3.4.5. Comparison to State-of-the-Art Models
3.5. Summary
4. Region of Safety
4.1. Explicitly Modeling Uncertainties for Dynamically Composed Systems
4.2. Regions of Safety for Dynamically Composed Systems
4.2.1. Estimating Regions of Attraction in Presence of Uncertainty
4.2.2. Introducing the Concept of Region of Safety
4.2.3. Discussion on the Fulfillment of the Predefined Criteria
4.3. Evaluating the Concept of Region of Safety
4.3.1. Defining the Scenario and Considered Uncertainties
4.3.2. Designing a Control Lyapunov Function
4.3.3. Determining an Appropriate Value for λc
4.3.4. The Effect of Varying Sensor Failures on Regions of Safety
4.4. Summary
5. Evaluation and Integration
5.1. Multi-Robot Collision Avoidance
5.1.1. Assumptions
5.1.2. Design of the Circle and Navigation Scenarios
5.1.3. Kinematics
5.1.4. Control Policy
5.1.5. Intention Modeling by Model Uncertainty
5.1.6. Fusing Regions of Safety of Multiple Stability Points
5.2. Failure Modeling for Shared Data – A Marker Detection Failure Model
5.2.1. Data Acquisition
5.2.2. Failure Model Generation
5.2.3. Evaluating the Quality of the Failure Model
5.3. Safe Handling of Shared Data in a Collision Avoidance Strategy
5.3.1. Configuration for Region of Safety Estimation
5.3.2. Estimating Regions of Safety
5.3.3. Evaluation Using the Circle Scenario
5.3.4. Evaluation Using the Navigation Scenario
5.4. Summary
6. Conclusions and Future Work
6.1. Summary
6.2. Limitations and Future Work
6.2.1. Limitations and Future Work on the Generic Failure Model
6.2.2. Limitations and Future Work on Region of Safety
6.2.3. Future Work on Safety in Dynamically Composed Systems
Appendices
A. Defining Factors of Risk According to IEC 61508
B. Evaluation Results for the Identification Stage
C. Overview of Failure Amplitudes of Marker Detection Results
Bibliography / The concepts of Cyber-Physical-Systems and Industry 4.0 prognosticate autonomous systems to integrate sources of shared data dynamically at their run-time.
While this promises substantial increases in their performance, the openness of the required system architecture poses new challenges to processes guaranteeing their safety.
This thesis firstly motivates that these can be addressed only at their run-time, before it derives and pursues two corresponding goals.
Firstly, a model for describing failure characteristics of shared data is presented.
Secondly, this Generic Failure Model is built upon to define a run-time safety assessment methodology that enables analyzing dynamic system compositions integrating shared data with respect to the expected uncertainties at run-time.
This analysis strategy, entitled Region of Safety, allows in combination with the generic failure model to guarantee the safety of robots sharing position data for collision avoidance already at design-time, although specific failure characteristics become available only at run-time.:List of Acronyms
List of Theorems
List of Definitions
List of Figures
List of Tables
1. Introduction – Safety in Future Smart Industries
1.1. The Example of Smart Warehouses
1.2. Functional Safety Standards
1.2.1. Overview of Functional Safety Standards
1.2.2. IEC 61508
1.3. Scope of this Thesis
1.3.1. Objectives
1.3.2. Contributions
1.3.3. Outline
1.4. Related Publications by the Author
1.5. Mathematical Notation
2. State of the Art
2.1. State of the Art in Run-Time Safety Assessment
2.1.1. Approaches at the Functional Level
2.1.2. Approaches at the Technical Level
2.1.3. Conclusions
2.2. State of the Art in Failure Modeling
2.2.1. The Definition of (Sensor) Failure Model
2.2.2. Interval-Based Failure Modeling
2.2.3. Distribution-Based Failure Modeling
2.2.4. Failure-Type-Based Failure Modeling
2.2.5. Conclusions
2.3. Conclusions from the State of the Art
3. Generic Failure Model
3.1. Defining the Generic Failure Model
3.1.1. Time- and Value-Correlated Random Distribution
3.1.2. A Failure Type’s Failure Amplitudes
3.1.3. A Failure Type’s State Function
3.1.4. Polynomial Representation of a Failure Type
3.1.5. Discussion on the Fulfillment of the Predefined Criteria
3.2. Converting a Generic Failure Model to an Interval
3.2.1. Converting a Time- and Value-Correlated Random Distribution
3.2.2. A Failure Type’s Interval
3.3. Processing Chain for Generating Generic Failure Models
3.3.1. Identifying Failure Types
3.3.2. Parameterizing Failure Types
3.3.3. Confidence Calculation
3.4. Exemplary Application to Artificial Failure Characteristics
3.4.1. Generating the Artificial Data Set – Manually Designing GFMs
3.4.2. Identifying Failure Types
3.4.3. Parameterizing Failure Types
3.4.4. Confidence Calculation
3.4.5. Comparison to State-of-the-Art Models
3.5. Summary
4. Region of Safety
4.1. Explicitly Modeling Uncertainties for Dynamically Composed Systems
4.2. Regions of Safety for Dynamically Composed Systems
4.2.1. Estimating Regions of Attraction in Presence of Uncertainty
4.2.2. Introducing the Concept of Region of Safety
4.2.3. Discussion on the Fulfillment of the Predefined Criteria
4.3. Evaluating the Concept of Region of Safety
4.3.1. Defining the Scenario and Considered Uncertainties
4.3.2. Designing a Control Lyapunov Function
4.3.3. Determining an Appropriate Value for λc
4.3.4. The Effect of Varying Sensor Failures on Regions of Safety
4.4. Summary
5. Evaluation and Integration
5.1. Multi-Robot Collision Avoidance
5.1.1. Assumptions
5.1.2. Design of the Circle and Navigation Scenarios
5.1.3. Kinematics
5.1.4. Control Policy
5.1.5. Intention Modeling by Model Uncertainty
5.1.6. Fusing Regions of Safety of Multiple Stability Points
5.2. Failure Modeling for Shared Data – A Marker Detection Failure Model
5.2.1. Data Acquisition
5.2.2. Failure Model Generation
5.2.3. Evaluating the Quality of the Failure Model
5.3. Safe Handling of Shared Data in a Collision Avoidance Strategy
5.3.1. Configuration for Region of Safety Estimation
5.3.2. Estimating Regions of Safety
5.3.3. Evaluation Using the Circle Scenario
5.3.4. Evaluation Using the Navigation Scenario
5.4. Summary
6. Conclusions and Future Work
6.1. Summary
6.2. Limitations and Future Work
6.2.1. Limitations and Future Work on the Generic Failure Model
6.2.2. Limitations and Future Work on Region of Safety
6.2.3. Future Work on Safety in Dynamically Composed Systems
Appendices
A. Defining Factors of Risk According to IEC 61508
B. Evaluation Results for the Identification Stage
C. Overview of Failure Amplitudes of Marker Detection Results
Bibliography
|
117 |
Identifying markers of cell identity from single-cell omics dataVlot, Hendrika Cornelia 12 September 2023 (has links)
Einzelzell-Omics-Daten stehen derzeit im Fokus der Entwicklung computergestützter Methoden in der Molekularbiologie und Genetik. Einzelzellexperimenten lieferen dünnbesetzte, hochdimensionale Daten über zehntausende Gene oder hunderttausende regulatorische Regionen in zehntausenden Zellen. Diese Daten bieten den Forschenden die Möglichkeit, Gene und regulatorische Regionen zu identifizieren, welche die Bestimmung und Aufrechterhaltung der Zellidentität koordinieren. Die gängigste Strategie zur Identifizierung von Zellidentitätsmarkern besteht darin, die Zellen zu clustern und dann Merkmale zu finden, welche die Cluster unterscheiden, wobei davon ausgegangen wird, dass die Zellen innerhalb eines Clusters die gleiche Identität haben. Diese Annahme ist jedoch nicht immer zutreffend, insbesondere nicht für Entwicklungsdaten bei denen sich die Zellen in einem Kontinuum befinden und die Definition von Clustergrenzen biologisch gesehen potenziell willkürlich ist. Daher befasst sich diese Dissertation mit Clustering-unabhängigen Strategien zur Identifizierung von Markern aus Einzelzell-Omics-Daten. Der wichtigste Beitrag dieser Dissertation ist SEMITONES, eine auf linearer Regression basierende Methode zur Identifizierung von Markern. SEMITONES identifiziert (Gruppen von) Markern aus verschiedenen Arten von Einzelzell-Omics-Daten, identifiziert neue Marker und übertrifft bestehende Marker-Identifizierungsansätze. Außerdem ermöglicht die Identifizierung von regulatorischen Markerregionen durch SEMITONES neue Hypothesen über die Regulierung der Genexpression während dem Erwerb der Zellidentität. Schließlich beschreibt die Dissertation einen Ansatz zur Identifizierung neuer Markergene für sehr ähnliche, dennoch underschiedliche neurale Vorlauferzellen im zentralen Nervensystem von Drosphila melanogaster. Ingesamt zeigt die Dissertation, wie Cluster-unabhängige Ansätze zur Aufklärung bisher uncharakterisierter biologischer Phänome aus Einzelzell-Omics-Daten beitragen. / Single-cell omics approaches are the current frontier of computational method development in molecular biology and genetics. A single single-cell experiment provides sparse, high-dimensional data on tens of thousands of genes or hundreds of thousands of regulatory regions (i.e. features) in tens of thousands of cells (i.e. samples). This data provides researchers with an unprecedented opportunity to identify those genes and regulatory regions that determine and coordinate cell identity acquisition and maintenance. The most common strategy for identifying cell identity markers consists of clustering the cells and then identifying differential features between these clusters, assuming that cells within a cluster share the same identity. This assumption is, however, not guaranteed to hold, particularly for developmental data where cells lie along a continuum and inferring cluster boundaries becomes non-trivial and potentially biologically arbitrary. In response, this thesis presents clustering-independent strategies for marker feature identification from single-cell omics data. The primary contribution of this thesis is a linear regression-based method for marker feature identification from single-cell omics data called SEMITONES. SEMITONES can identify markers or marker sets from diverse single-cell omics data types, identifies novel markers, outperforms existing marker identification approaches. The thesis also describes how the identification of marker regulatory regions by SEMITONES enables the generation of novel hypotheses regarding gene regulation during cell identity acquisition. Lastly, the thesis describes the clustering-independent identification of novel marker genes for highly similar yet distinct neural progenitor cells in the Drosophila melanogaster central nervous system. Altogether, the thesis demonstrates how clustering-independent approaches aid the elucidation of yet uncharacterised biological patterns from single cell-omics data.
|
118 |
Narcissism and Friendship Quality: An Investigation of Long-Term FriendshipsWehner, Caroline 21 October 2022 (has links)
Vor dem Hintergrund der Fragen, wer bereit ist eine enge Beziehung zu einer Person mit hohem Narzissmus einzugehen und wie Personen mit hohem Narzissmus ihre Freundschaften wahrnehmen, war das Ziel dieser Arbeit die wahrgenommene Beziehungsqualität in langfristigen Freundschaften in Abhängigkeit von Narzissmus zu untersuchen. In der ersten Studie wurde eine dyadische Perspektive eingenommen und beobachtet, ob sich die Qualität der Freundschaft in Abhängigkeit von dem Narzissmuslevel zweier Freunde unterscheidet. Wie angenommen, schätzten Personen in Dyaden mit höherem Narzissmus die Qualität ihrer Freundschaft geringer ein als Personen in Dyaden mit niedrigerem Narzissmus. Über alle Narzissmusaspekte hinweg wurden mehr Konflikte wahrgenommen. Dyaden mit hohem antagonistischem Narzissmus empfanden zudem weniger Wertschätzung und Intimität. Die Befunde wurden zugunsten der Annahme interpretiert, dass narzisstisches Verhalten von denjenigen toleriert wird, die selbst narzisstische Züge besitzen. In der zweiten Studie wurde eine längsschnittliche Perspektive eingenommen, um die Interaktionseffekte von Narzissmus und wahrgenommener Freundschaftsqualität in 4 Messzeitpunkten zu untersuchen. Innerhalb von Personen zeigte sich, dass diejenigen, die ihren Narzissmus niedriger als üblich einschätzten, in der Folge höhere Wertschätzung empfanden, und dass diejenigen, die eine niedrigere Wertschätzung als üblich empfanden ihr Verhalten als antagonistischer einschätzten. Die zu Beginn von Freundschaften gefundenen Effekte scheinen daher übertragbar auf die Phase der Aufrechterhaltung von Freundschaften, wobei besonders der antagonistische Narzissmus die negativen Auswirkungen von Narzissmus zu treiben scheint. Insgesamt wurde in dieser Arbeit die bisherige Forschung zu Narzissmus und sozialen Beziehungen durch die Beobachtung der Beziehungsqualität in langfristigen Freundschaften erweitert, indem sowohl eine dyadische als auch eine längsschnittliche Perspektive einbezogen wurde. / Who is willing to be in a close relationship to an individual with high narcissism, and how do individuals with high narcissism perceive their friendships? Three aspects of narcissism were distinguished (agentic, antagonistic, neurotic) to determine their association with four aspects of friendship quality (appreciation, intimacy, conflict, dominance). In the first study, a dyadic perspective was taken to observe whether friendship quality differs depending on the dyadic narcissism level of friends. As hypothesized, individuals in dyads with higher narcissism perceived their friendship quality as lower, compared to individuals in dyads with lower narcissism. More conflicts were perceived across narcissism aspects. Dyads with high antagonistic narcissism also perceived lower appreciation and intimacy. Results were interpreted in favor of the assumption that maladaptive traits are tolerated by those who possess these traits themselves. In the second study, a longitudinal perspective was taken to examine interactional effects of narcissism and friendship quality across 4 measurement occasions. On a within-person level, individuals scoring lower than usual on narcissism were found to subsequently perceive higher appreciation, and those perceiving lower appreciation than usual subsequently increased in antagonistic narcissism. Results suggested that the effects found in relationship formation tend to generalize to relationship maintenance. Overall, this work expanded previous research on narcissism and social relationships by observing relationship quality in long-term friendships including a dyadic as well as a longitudinal perspective. To answer the question of who is willing to be friends with someone high in narcissism, results suggest that it would be individuals who also score high on narcissism. In regard to the question of how individuals with high narcissism perceive their friendships it was found that they tend to be willing to accept lower friendship quality.
|
119 |
Konzept einer an semantischen Kriterien orientierten Kommunikation für medizinische InformationssystemeNguyen-Dobinsky, Trong-Nghia 03 April 1998 (has links)
Einleitung In einem größeren Universitätsklinikum wie in der Charité sind EDV-gestützte Verfahren in verschiedenen Einrichtungen und für verschiedene Aufgaben im Einsatz: Verwaltung, Krankenversorgung, Forschung und Lehre. Diese Subsysteme sind in der Regel nicht in der Lage, Daten untereinander so auszutauschen, daß die in den Daten enthaltene Semantik nicht verlorengeht. Die Ursache liegt im wesentlichen in der Komplexität und in der Unschärfe der medizinischen Informationen. Medizinische Standards (HL7, DICOM, SNOMED, ICD, ICPM, ...) lassen sich für den Austausch von Daten verwenden, die gut formalisierbar und mit einer klaren Bedeutung behaftet sind. Nicht formalisierbare Daten, die z. B. in einem Befund oft vorkommen, lassen sich nicht ohne weiteres mit diesen Standards darstellen. Ziel Entwicklung eines Konzeptes für den Austausch medizinischer Daten, das die o. g. Probleme vermeidet. Material und Methoden Die Analyse der vorhandenen Subsysteme, Standards und Konzepte zeigt, daß das Konzept einerseits eine sehr einfache Syntax und eine simple Struktur aufweisen muß. Andererseits muß die medizinische Semantik voll erhalten bleiben. Als Vorbild kann die relationale Datenbank dienen, die mit einem Datentyp (Relation bzw. Tabelle) und einem einzigen Operator (SELECT) auf diesen Datentyp auskommt. Ergebnisse Das Konzept ist objektorientiert. Es enthält nur einen Datentyp. Das ist das AMICI-Objekt (AMICI: Architecture for Medical Information Exchange and Communication Interface). Über dieses AMICI-Objekt wird der gesamte Datenaustausch vorgenommen. Kann das Empfängersystem ein Objekt nicht oder nicht korrekt interpretieren, so wird die Interpretation vom Sendesystem übernommen. Ein Subsystem wird im Netzwerk über einen medizinischen Kontext angeschlossen, der das Interessengebiet und die Fähigkeit des Subsystems beschreibt. Das Subsystem kann an Hand der im Netz bekannten medizinischen Kontexte feststellen, welche weiteren Subsysteme für den eigenen Zweck interessant sein könnten. Alle AMICI-Objekte erhalten eine weltweit eindeutige Identifikation, so daß die Daten aus verschiedenen Institutionen, auch international, miteinander gemischt werden können. Diskussion Das Konzept kann als Basis für weitere Dienstleitungen in einem Klinikum bzw. einem Krankenhaus dienen. Namentlich zu nennen sind telemedizinische Anwendungen, bei denen nicht nur die Kommunikation zwischen Ärzten, sondern auch zwischen Patienten und Arzt möglich ist. Weiterhin betrifft dies den Einsatz von Software-Agenten, die sich um den Informationsbedarf eines Arztes individuell kümmern. / Introduction Large hospitals like the University hospital Charité use in different units different information systems for recording patient and medical data. There are also different tasks: administration, healthcare, research and education. These medical information systems are often called subsystems. They are usually not able to exchange data without lost of semantic. The complexity and the variability of medical terminology cause this problem. Existing medical standards (e. g. HL7, DICOM, SNOMED, ICD, ICPM, ...) are helpful for well formalised terms. Non-formalised terms that are often used in diagnostic reports can not be represented by existing standards. Aims Development of a concept for medical information exchange which fulfills the requirements mentioned above. Material and Methods The system analysis that is performed based on existing subsystems, medical standards and concepts provides two essential requirements. On the one hand the syntax of such standard must be extremely simple. On the other hand the standard must be able to transfer extremely complex semantics. As an example relational databases (RDB) provide a good idea of such simple syntax and complex semantics. RDB's include only one data type. It is called relation or table. To manipulate tables one needs only one operation. That is the SELECT command in SQL. Result The concept is object oriented. It includes only one object called AMICI-object like RDB's (AMICI: Architecture for Medical Information Exchange and Communication Interface). Data exchange is completely performed by these AMICI-objects. If the receiving subsystem is not able to interpret and represent an object, the sending subsystem will take over this task. Within a network a subsystem uses a special AMICI-object called medical context to describe its features and its area of interest. A subsystem can inquire medical contexts to explore installed and running subsystems in the network. An international unique identifier identifies every AMICI object so that you can mix objects provided by different international institutions, e. g. to use them in multi-center-studies. Discussion This concept can also be used as a basic service for higher level applications in a hospital. Two of them are telemedicine and software agents. Telemedicine is not only a tool for physicians. It should be also a tool for communication and interaction between patient and physician. Physicians can use personal software agents for information acquisition, which meets exactly his specific requirements.
|
120 |
Intuitive Visualisierung universitätsinterner Publikationsdaten zur Unterstützung von Entscheidungsprozessen / Intuitive visualization of university-internal publication data as support for decision processesBolte, Fabian 23 November 2016 (has links) (PDF)
Die vorliegende Arbeit nutzt die Publikationsdaten der TU Chemnitz zur Darstellung der Entwicklung von Kooperationen zwischen Instituten und Fakultäten über die Zeit. Dabei wird die Unzulänglichkeit gängiger Netzwerkanalysen mithilfe von Graphen, die komplexen Beziehungen um eine zeitliche Dimension zu erweitern, aufgezeigt. Stattdessen wird eine Anwendung auf Basis des Streamgraphen vorgestellt, welche nicht nur den Vergleich der Entwicklung beliebiger Kombinationen von Instituten und Fakultäten ermöglicht, sondern auch spezifische Auskünfte zu den Kooperationsarten und deren zeitlicher Verlagerung gibt. Dafür werden zwei Erweiterungen für den Streamgraphen vorgestellt, welche seinen Informationsumfang erweitern und ihn damit zur Erfüllung der gesetzten Anforderungen befähigen. / This thesis uses data about publications from members of the TU Chemnitz to visualize the progress of cooperations between institutes and faculties over time. Thereby it is shown, that the attempt to expand common used network analyses, via graphs, by a temporal dimension, is insufficient for this task. Instead we present an application, based on a streamgraph, which enables the user to compare the development of any combination of institutes and faculties, as well as giving specific information about cooperation types and their temporal shift. Therefore, two extensions to the streamgraph are proposed, which increase the amount of information visible and provide tools to satisfy the stated requirements.
|
Page generated in 0.0429 seconds