• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2491
  • 350
  • Tagged with
  • 2817
  • 2817
  • 2817
  • 2817
  • 2817
  • 1715
  • 1714
  • 1706
  • 1706
  • 1705
  • 1195
  • 689
  • 683
  • 513
  • 210
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Gesundheitsrisiken inhalierter Partikel

Koch, Thea, Spieth, Peter 04 September 2007 (has links)
Although not all hazardous effects on human health have been clearly defined so far, the health risks of particulate matter can be considered evident. Pulmonary and cardiovascular diseases, in particular, are caused or aggravated by inhaled particulate matter. The aim of this article is to describe the incorporation and the effects on organ function of inhaled particles. Furthermore, the potential risks of de novo synthesised nanoparticles are discussed in the context of the public controversy regarding environmental particulate matter pollution. / Obwohl die schädlichen Auswirkungen inhalierbarer Partikel auf unseren Organismus bisher noch nicht vollständig geklärt sind, kann eine Gesundheitsgefährdung durch Feinstäube als erwiesen angesehen werden. Insbesondere pulmonale und kardiovaskuläre Erkrankungen werden durch Feinstaubexposition ausgelöst oder verschlimmert. Dieser Artikel stellt Aufnahme und Auswirkungen inhalierter Partikel im menschlichen Organismus dar und erörtert potenzielle Gefahren de novo synthetisierter Nanopartikel im Kontext der auch in der breiten Öffentlichkeit kontrovers geführten Feinstaubdiskussion.
62

Sequences Signature and Genome Rearrangements in Mitogenomes

Al Arab, Marwa 17 May 2018 (has links)
During the last decades, mitochondria and their DNA have become a hot topic of research due to their essential roles which are necessary for cells survival and pathology. In this study, multiple methods have been developed to help with the understanding of mitochondrial DNA and its evolution. These methods tackle two essential problems in this area: the accurate annotation of protein-coding genes and mitochondrial genome rearrangements. Mitochondrial genome sequences are published nowadays with increasing pace, which creates the need for accurate and fast annotation tools that do not require manual intervention. In this work, an automated pipeline for fast de-novo annotation of mitochondrial protein-coding genes is implemented. The pipeline includes methods for enhancing multiple sequence alignment, detecting frameshifts and building protein profiles guided by phylogeny. The methods are tested on animal mitogenomes available in RefSeq, the comparison with reference annotations highlights the high quality of the produced annotations. Furthermore, the frameshift method predicted a large number of frameshifts, many of which were unknown. Additionally, an efficient partially-local alignment method to investigate genomic rearrangements in mitochondrial genomes is presented in this study. The method is novel and introduces a partially-local dynamic programming algorithm on three sequences around the breakpoint region. Unlike the existing methods which study the rearrangement at the genes order level, this method allows to investigate the rearrangement on the molecular level with nucleotides precision. The algorithm is tested on both artificial data and real mitochondrial genomic sequences. Surprisingly, a large fraction of rearrangements involve the duplication of local sequences. Since the implemented approach only requires relatively short parts of genomic sequence around a breakpoint, it should be applicable to non-mitochondrial studies as well.
63

#StuFoExpo 2022

Technische Universität Dresden 25 May 2023 (has links)
Am 10. November 2022, 16 Uhr, begann die diesjährige digitale StuFoExpo 2022 – die fünfte Ausstellung studentischer Forschungsprojekte an der TU Dresden. Paul Druschke, ein ehemaliger StuFo-Teilnehmer, übernahm die Rolle des Moderators und führte galant und charmant durch den Nachmittag bzw. Abend. Rektorin Frau Prof. Ursula Staudinger eröffnete die Veranstaltung mit einem Grußwort und zeigte sich von den engagierten Studierenden an der Technischen Universität Dresden begeistert. Außerdem betonte sie die wachsenden Herausforderungen unseres Planeten und die damit einhergehende Bedeutung, dass junge Leute in ihrer Forschung Verantwortung dafür übernehmen und vielfältige lösungsorientierte Perspektiven eröffnen. An diese Perspektiven anknüpfendend, stellte Dr. Franziska Schulze-Stocker das Programm FOSTER – Funds for Student Research vor, ein Programm zur Förderung studentischer Forschung an der TU Dresden. Anschließend folgte einer der Höhepunkte des Abends: die sechzehn Videopitches. Die 90-sekündigen Kurzvideos wurden von den Teilnehmenden als Ergänzung zu den Postern vorbereitet und sollten Neugierde und Interesse am eigenen Forschungsprojekt wecken. An Kreativität und Einfallsvermögen mangelte es den Teilnehmenden nicht und die Resultate sind spannend und interessant anzuschauen. Wer neugierig auf die Projekte und deren Darstellung geworden ist, kann sich hier Pitches, Poster und Inhalte der Projekte ansehen.
64

Exploration behavior after reversals is predicted by STN-GPe synaptic plasticity in a basal ganglia model

Maith, Oliver, Baladron, Javier, Einhäuser, Wolfgang, Hamker, Fred H. 13 February 2024 (has links)
Humans can quickly adapt their behavior to changes in the environment. Classical reversal learning tasks mainly measure how well participants can disengage from a previously successful behavior but not how alternative responses are explored. Here, we propose a novel 5-choice reversal learning task with alternating position-reward contingencies to study exploration behavior after a reversal. We compare human exploratory saccade behavior with a prediction obtained from a neuro-computational model of the basal ganglia. A new synaptic plasticity rule for learning the connectivity between the subthalamic nucleus (STN) and external globus pallidus (GPe) results in exploration biases to previously rewarded positions. The model simulations and human data both show that during experimental experience exploration becomes limited to only those positions that have been rewarded in the past. Our study demonstrates how quite complex behavior may result from a simple sub-circuit within the basal ganglia pathways.
65

Entwicklung und Bewertung von Algorithmen zur Umfeldmodellierung mithilfe von Radarsensoren im Automotive Umfeld

Lochbaum, Julius 10 March 2022 (has links)
Moderne Fahrzeuge verfügen über verschiedene Assistenzsysteme, welche den Fahrer unterstützen können. Damit diese Systeme auf die jeweilige Verkehrssituation reagieren können, ist eine Erkennung des Fahrzeugumfelds notwendig. Dabei werden verschiedene Sensoren eingesetzt, welche die Umgebung erfassen können. Entfernungen und Geschwindigkeiten lassen sich z.B. sehr gut mit Radar-Sensoren bestimmen. Aus diesen Sensordaten kann ein virtuelles Umfeldmodell erstellt werden. Dazu sind mehrere Algorithmen erforderlich, welche die Sensordaten aufbereiten und auswerten. Um diese Algorithmen testen zu können, wurde von BMW ein Tool zur Darstellung der Sensordaten entwickelt. Das „Radar Analysis Tool“ (RAT) kann die Sensordaten aufgezeichneter Testfahrten abspielen. Dabei ist es möglich, implementierte Algorithmen mit den aufgezeichneten Daten zu testen. Das Ziel dieser Arbeit ist die Implementierung mehrerer Algorithmen zur Umfeldmodellierung, welche nach verschiedenen Eigenschaften verglichen werden. Dabei werden auch neue Ansätze entwickelt und implementiert. Anhand des Vergleichs lässt sich erkennen, welche Algorithmen besonders gut für den Einsatz im Fahrzeug geeignet sind. Eine Voraussetzung für die Implementierung der Algorithmen ist die Erweiterung des Tools RAT. Dabei wird z.B. eine neue 2D-Ansicht des Fahrzeugumfelds hinzugefügt. Außerdem wird eine neue Schnittstelle entwickelt, welche die einfache Anbindung von Algorithmen in RAT ermöglicht. Um die verschiedenen Algorithmen auswählen zu können, wird zusätzlich eine Konfiguration implementiert. Dadurch müssen keine Änderungen am Quellcode des Tools vorgenommen werden, um die Algorithmen zu wechseln. Um die Algorithmen vergleichen zu können, wird ein Konzept zur Auswertung entworfen. Anhand der Auswertung lassen sich die Vor- und Nachteile der jeweiligen Verfahren erkennen. Diese Ergebnisse helfen, die Auswahl von Algorithmen für den finalen Einsatz im Fahrzeug zu treffen.
66

Advanced Methods for Entity Linking in the Life Sciences

Christen, Victor 25 January 2021 (has links)
The amount of knowledge increases rapidly due to the increasing number of available data sources. However, the autonomy of data sources and the resulting heterogeneity prevent comprehensive data analysis and applications. Data integration aims to overcome heterogeneity by unifying different data sources and enriching unstructured data. The enrichment of data consists of different subtasks, amongst other the annotation process. The annotation process links document phrases to terms of a standardized vocabulary. Annotated documents enable effective retrieval methods, comparability of different documents, and comprehensive data analysis, such as finding adversarial drug effects based on patient data. A vocabulary allows the comparability using standardized terms. An ontology can also represent a vocabulary, whereas concepts, relationships, and logical constraints additionally define an ontology. The annotation process is applicable in different domains. Nevertheless, there is a difference between generic and specialized domains according to the annotation process. This thesis emphasizes the differences between the domains and addresses the identified challenges. The majority of annotation approaches focuses on the evaluation of general domains, such as Wikipedia. This thesis evaluates the developed annotation approaches with case report forms that are medical documents for examining clinical trials. The natural language provides different challenges, such as similar meanings using different phrases. The proposed annotation method, AnnoMap, considers the fuzziness of natural language. A further challenge is the reuse of verified annotations. Existing annotations represent knowledge that can be reused for further annotation processes. AnnoMap consists of a reuse strategy that utilizes verified annotations to link new documents to appropriate concepts. Due to the broad spectrum of areas in the biomedical domain, different tools exist. The tools perform differently regarding a particular domain. This thesis proposes a combination approach to unify results from different tools. The method utilizes existing tool results to build a classification model that can classify new annotations as correct or incorrect. The results show that the reuse and the machine learning-based combination improve the annotation quality compared to existing approaches focussing on the biomedical domain. A further part of data integration is entity resolution to build unified knowledge bases from different data sources. A data source consists of a set of records characterized by attributes. The goal of entity resolution is to identify records representing the same real-world entity. Many methods focus on linking data sources consisting of records being characterized by attributes. Nevertheless, only a few methods can handle graph-structured knowledge bases or consider temporal aspects. The temporal aspects are essential to identify the same entities over different time intervals since these aspects underlie certain conditions. Moreover, records can be related to other records so that a small graph structure exists for each record. These small graphs can be linked to each other if they represent the same. This thesis proposes an entity resolution approach for census data consisting of person records for different time intervals. The approach also considers the graph structure of persons given by family relationships. For achieving qualitative results, current methods apply machine-learning techniques to classify record pairs as the same entity. The classification task used a model that is generated by training data. In this case, the training data is a set of record pairs that are labeled as a duplicate or not. Nevertheless, the generation of training data is a time-consuming task so that active learning techniques are relevant for reducing the number of training examples. The entity resolution method for temporal graph-structured data shows an improvement compared to previous collective entity resolution approaches. The developed active learning approach achieves comparable results to supervised learning methods and outperforms other limited budget active learning methods. Besides the entity resolution approach, the thesis introduces the concept of evolution operators for communities. These operators can express the dynamics of communities and individuals. For instance, we can formulate that two communities merged or split over time. Moreover, the operators allow observing the history of individuals. Overall, the presented annotation approaches generate qualitative annotations for medical forms. The annotations enable comprehensive analysis across different data sources as well as accurate queries. The proposed entity resolution approaches improve existing ones so that they contribute to the generation of qualitative knowledge graphs and data analysis tasks.
67

Algorithms for Map Generation and Spatial Data Visualization in LIFE

Lin, Ying-Chi 27 February 2018 (has links)
The goal of this master thesis is to construct a software system, named the LIFE Spatial Data Visualization System (LIFE-SDVS), to automatically visualize the data obtained in the LIFE project spatially. LIFE stands for the Leipzig Research Centre for Civilization Diseases. It is part of the Medical Faculty of the University of Leipzig and conducts a large medical research project focusing on civilization diseases in the Leipzig population. Currently, more than 20,000 participants have joined this population-based cohort study. The analyses in LIFE have been mostly limited to non-spatial aspects. To integrate geographical facet into the findings, a spatial visualization tool is necessary. Hence, LIFE-SDVS, an automatic map visualization tool wrapped in an interactive web interface, is constructed. LIFE-SDVS is conceptualized with a three-layered architecture: data source, functionalities and spatial visualization layers. The implementation of LIFE-SDVS was achieved by two software components: an independent, self-contained R package lifemap and the LIFE Shiny Application. The package lifemap enables the automatic spatial visualization of statistics on the map of Leipzig and to the extent of the authors knowledge, is the first R package to achieve boundary labeling for maps. The package lifemap also contains two self-developed algorithms. The Label Positioning Algorithm was constructed to find good positions within each region on a map for placing labels, statistical graphics and as starting points for boundary label leaders. The Label Alignment Algorithm solves the leader intersection problem of boundary labeling. However, to use the plotting functions in lifemap, the users need to have basic knowledge of R and it is a tedious job to manually input the argument values whenever changes on the maps are necessary. An interactive Shiny web application, the LIFE Shiny Application, is therefore built to create a user friendly data exploration and map generation tool. LIFE Shiny Application is capable of obtaining experimental data directly from the LIFE database at runtime. Additionally, a data preprocessing unit can transform the raw data into the format needed for spatial visualization. On the LIFE Shiny Application user interface, users can specify the data to display, including what data to be fetched from database and which part of the data shall be visualized, by using the filter functions provided. Many map features are also available to improve the aesthetic presentation of the maps. The resulting maps can also be downloaded for further usage in scientific publications or reports. Two use cases using LIFE hand grip strength and body mass index data demonstrate the functionalities of LIFESDVS. The current LIFE-SDVS sets a foundation for the spatial visualization of LIFE data. Suggestions on adding further functionalities into the future version are also provided.
68

Optimierung der Visualisierung eines Dashboards für das Microservice-Monitoring

Urban, Dario 29 November 2021 (has links)
Microservice-Architekturen haben sich mittlerweile etabliert und werden von immer mehr Firmen übernommen. Die erhöhte Komplexität der Microservice-Architektur aufgrund der Verteilung des Systems hat jedoch zur Folge, dass die effiziente und erfolgreiche Administration des Systems erschwert wird. Ziel der Arbeit ist es, alle notwendigen Metriken für ein effizientes und erfolgreiches Microservice-Monitoring zu identifizieren und auf Basis dieser Erkenntnisse das Linkerd-Dashboard prototypisch weiterzuentwickeln. Hierfür wurde eine Literaturrecherche durchgeführt. Darüber hinaus wurden Praktiker mittels eines Online-Fragebogens befragt. Abschließend wurde die prototypische Weiterentwicklung mithilfe eines halbstrukturierten Interviews evaluiert. Die Literaturrecherche ergab, dass Central-Processing-Unit (CPU)- und Random-Access-Memory (RAM)-Nutzung, Antwortzeit, Workload, Fehlerrate und Service-Interaktion eine Metrik-Menge sind, mit der Microservice-Architekturen effektiv überwacht werden können. Außerdem konnte konstatiert werden, dass die Darstellung der Metriken hauptsächlich mit Visualisierungen realisiert wird. CPU- und RAM-Auslastung sind eine sinnvolle Erweiterung des Linkerd-Dashboards, da diese in der Literatur sowie im Fragebogen als wichtige Kennzahlen deklariert und alle anderen als essenziell eingestuften Metriken bereits vom Linkerd-Dashboard abgedeckt werden. Der Prototyp wurde als gelungen eingestuft, benötigt aber einige kleinere Verbesserungen der Visualisierung, bevor er in der Produktion eingesetzt werden kann.
69

Algorithmische Gouvernementalität am Beispiel von OKCupid

Wandelt, Alina 16 August 2021 (has links)
No description available.
70

Entwicklung und Evaluation der Darstellung von Testabdeckungen in Getaviz

Sillus, Aaron 29 September 2021 (has links)
Die Softwarevisualisierung nutzt unter anderem dreidimensionale Modelle zur Darstellung von Software. Diese Modelle erlauben die Exploration von Softwareprojekten durch Interaktion mit einer 3D-Szene. Das Institut für Wirtschaftsinformatik der Universität Leipzig entwickelt im Rahmen der Forschung auf diesem Gebiet das Programm Getaviz, welches verschiedene Funktionen umfasst, um die Analyse von Software zu unterstützen. Im Rahmen der vorliegenden Arbeit wird eine Erweiterung zur Darstellung der Testabdeckung in Getaviz entwickelt. Hierzu werden Techniken aus dem Usability Engineering verwendet, um eine hohe Benutzungsfreundlichkeit zu erreichen. Insbesondere findet der Entwicklungsprozess in mehreren Iterationen statt, in denen das Design durch eine formative Untersuchung bewertet und für die nächste Iteration angepasst wird. Der Entwicklungsprozess sowie der finale Stand sind außerdem auf GitHub (https://github.com/AaronSil/Getaviz/tree/development) als Repository dokumentiert.:Inhaltsverzeichnis Abbildungsverzeichnis Tabellenverzeichnis 1 Einleitung 1.1 Motivation und Problemstellung 1.2 Ziel und Aufbau der Arbeit 2 Grundlagen 2.1 Softwarevisualisierung 2.2 Getaviz 2.3 Testabdeckung 2.4 Testabdeckung in der Softwarevisualisierung 2.5 Usability-Engineering 3 Konzeption des Prototyps 3.1 Vorgehen 3.2 Anforderungsanalyse 3.2.1 Eingrenzung des Umfangs 3.2.2 Funktionale Anforderungen 3.2.3 Nicht-funktionale Anforderungen 3.2.4 Zielstellung für die erste Iteration 4 Konzeption der Evaluation 4.1 Untersuchungsgegenstand und -design 4.2 Methoden 4.3 Testdesign 4.3.1 Vorbereitung und Aufbau 4.3.2 Durchführung 4.3.3 Nachbereitung 5 Durchführung der Evaluation 5.1 Stichprobenzusammensetzung 5.2 Erste Iteration 5.3 Zweite Iteration 5.4 Dritte Iteration 6 Implementierung des Prototyps 6.1 Erweiterung des Generators 6.2 Sourcecode-Controller 6.3 Treemap 6.4 Sphären 6.5 Color-Coding 6.6 Farb-Controller 6.7 Experiment-Popover-Fenster 6.8 Tooltip-Controller 6.9 Package Explorer 6.10 Sonstige Features 7 Untersuchungsergebnisse 7.1 Kategorisierung der Ergebnisse 7.2 Interpretation der Ergebnisse 7.3 Diskussion 8 Fazit und Ausblick Literaturverzeichnis Selbstständigkeitserklärung Anhang Anhang 1: Fragebogen Anhang 2: Interviewleitfaden Anhang 3: Eckdaten der Iterationen Anhang 4: Szenarien Anhang 5: Implementierung des Prototyps Anhang 6: Auswertung - Fragebogen Anhang 7: Auswertung - Findings

Page generated in 0.1171 seconds