• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 49
  • 38
  • 4
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 97
  • 76
  • 54
  • 52
  • 52
  • 51
  • 27
  • 21
  • 18
  • 18
  • 14
  • 14
  • 13
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Et non sit tibi cura quis dicat, sed quid dicatur. Kleine Gebrauchsgeschichte eines Seneca-Zitates

Fasbender, Christoph 17 October 2011 (has links)
Der Vortrag verfolgt die Geschichte und rhetorischen Funktionalisierungen des Seneca-Zitats, dass es nicht darauf ankomme, wer spricht, sondern allein darauf, was gesagt werde, von der Spätantike bis ins Spätmittelalter. Das Zitat erweist sich als polyfunktional: Geistlichen dient es zur Absicherung gegenüber der Gemeinde, Akademikern hilft es in Fällen anonymer Überlieferung - sogar eine Frau, die über das Waffenhandwerk publiziert, lenkt damit von sich als Verfasserin ab.
62

Deep Learning for Uncertainty Measurement

Kim, Alisa 12 February 2021 (has links)
Diese Arbeit konzentriert sich auf die Lösung des Problems der Unsicherheitsmessung und ihrer Auswirkungen auf Geschäftsentscheidungen, wobei zwei Ziele verfolgt werden: Erstens die Entwicklung und Validierung robuster Modelle zur Quantifizierung der Unsicherheit, wobei insbesondere sowohl die etablierten statistischen Modelle als auch neu entwickelte maschinelle Lernwerkzeuge zum Einsatz kommen. Das zweite Ziel dreht sich um die industrielle Anwendung der vorgeschlagenen Modelle. Die Anwendung auf reale Fälle bei der Messung der Volatilität oder bei einer riskanten Entscheidung ist mit einem direkten und erheblichen Gewinn oder Verlust verbunden. Diese These begann mit der Untersuchung der impliziten Volatilität (IV) als Proxy für die Wahrnehmung der Unsicherheit von Anlegern für eine neue Klasse von Vermögenswerten - Kryptowährungen. Das zweite Papier konzentriert sich auf Methoden zur Identifizierung risikofreudiger Händler und nutzt die DNN-Infrastruktur, um das Risikoverhalten von Marktakteuren, das auf Unsicherheit beruht und diese aufrechterhält, weiter zu untersuchen. Das dritte Papier befasste sich mit dem herausfordernden Bestreben der Betrugserkennung 3 und bot das Entscheidungshilfe-modell, das eine genauere und interpretierbarere Bewertung der zur Prüfung eingereichten Finanzberichte ermöglichte. Angesichts der Bedeutung der Risikobewertung und der Erwartungen der Agenten für die wirtschaftliche Entwicklung und des Aufbaus der bestehenden Arbeiten von Baker (2016) bot das vierte Papier eine neuartige DL-NLP-basierte Methode zur Quantifizierung der wirtschaftspolitischen Unsicherheit. Die neuen Deep-Learning-basierten Lösungen bieten eine überlegene Leistung gegenüber bestehenden Ansätzen zur Quantifizierung und Erklärung wirtschaftlicher Unsicherheiten und ermöglichen genauere Prognosen, verbesserte Planungskapazitäten und geringere Risiken. Die angebotenen Anwendungsfälle bilden eine Plattform für die weitere Forschung. / This thesis focuses on solving the problem of uncertainty measurement and its impact on business decisions while pursuing two goals: first, develop and validate accurate and robust models for uncertainty quantification, employing both the well established statistical models and newly developed machine learning tools, with particular focus on deep learning. The second goal revolves around the industrial application of proposed models, applying them to real-world cases when measuring volatility or making a risky decision entails a direct and substantial gain or loss. This thesis started with the exploration of implied volatility (IV) as a proxy for investors' perception of uncertainty for a new class of assets - crypto-currencies. The second paper focused on methods to identify risk-loving traders and employed the DNN infrastructure for it to investigate further the risk-taking behavior of market actors that both stems from and perpetuates uncertainty. The third paper addressed the challenging endeavor of fraud detection and offered the decision support model that allowed a more accurate and interpretable evaluation of financial reports submitted for audit. Following the importance of risk assessment and agents' expectations in economic development and building on the existing works of Baker (2016) and their economic policy uncertainty (EPU) index, it offered a novel DL-NLP-based method for the quantification of economic policy uncertainty. In summary, this thesis offers insights that are highly relevant to both researchers and practitioners. The new deep learning-based solutions exhibit superior performance to existing approaches to quantify and explain economic uncertainty, allowing for more accurate forecasting, enhanced planning capacities, and mitigated risks. The offered use-cases provide a road-map for further development of the DL tools in practice and constitute a platform for further research.
63

From Logic Programming to Human Reasoning:: How to be Artificially Human

Dietz Saldanha, Emmanuelle-Anna 26 June 2017 (has links)
Results of psychological experiments have shown that humans make assumptions, which are not necessarily valid, that they are influenced by their background knowledge and that they reason non-monotonically. These observations show that classical logic does not seem to be adequate for modeling human reasoning. Instead of assuming that humans do not reason logically at all, we take the view that humans do not reason classical logically. Our goal is to model episodes of human reasoning and for this purpose we investigate the so-called Weak Completion Semantics. The Weak Completion Semantics is a Logic Programming approach and considers the least model of the weak completion of logic programs under the three-valued Łukasiewicz logic. As the Weak Completion Semantics is relatively new and has not yet been extensively investigated, we first motivate why this approach is interesting for modeling human reasoning. After that, we show the formal correspondence to the already established Stable Model Semantics and Well-founded Semantics. Next, we present an extension with an additional context operator, that allows us to express negation as failure. Finally, we propose a contextual abductive reasoning approach, in which the context of observations is relevant. Some properties do not hold anymore under this extension. Besides discussing the well-known psychological experiments Byrne’s suppression task and Wason’s selection task, we investigate an experiment in spatial reasoning, an experiment in syllogistic reasoning and an experiment that examines the belief-bias effect. We show that the results of these experiments can be adequately modeled under the Weak Completion Semantics. A result which stands out here, is the outcome of modeling the syllogistic reasoning experiment, as we have a higher prediction match with the participants’ answers than any of twelve current cognitive theories. We present an abstract evaluation system for conditionals and discuss well-known examples from the literature. We show that in this system, conditionals can be evaluated in various ways and we put up the hypothesis that humans use a particular evaluation strategy, namely that they prefer abduction to revision. We also discuss how relevance plays a role in the evaluation process of conditionals. For this purpose we propose a semantic definition of relevance and justify why this is preferable to a exclusively syntactic definition. Finally, we show that our system is more general than another system, which has recently been presented in the literature. Altogether, this thesis shows one possible path on bridging the gap between Cognitive Science and Computational Logic. We investigated findings from psychological experiments and modeled their results within one formal approach, the Weak Completion Semantics. Furthermore, we proposed a general evaluation system for conditionals, for which we suggest a specific evaluation strategy. Yet, the outcome cannot be seen as the ultimate solution but delivers a starting point for new open questions in both areas.
64

Coherent gas flow patterns in heterogeneous permeability fields: Coherent gas flow patterns in heterogeneous permeability fields: from bench-scale to field-scale

Samani, Shirin 02 August 2012 (has links)
Gas injection into saturated porous media has a high practical relevance. It is applied in groundwater remediation (air sparging), in CO2 sequestration into saline aquifers, and in enhanced oil recovery of petroleum reservoirs. This wide range of application necessitates a comprehensive understanding of gas flow patterns that may develop within the porous media and required modeling of multi-phase flow. There is an ongoing controversy in literature, if continuum models are able to describe the complex flow pattern observed in heterogeneous porous media, especially the channelized stochastic flow pattern. Based on Selker’s stochastic hypothesis, a gas channel is caused by a Brownian-motion process during gas injection. Therefore, the pore-scale heterogeneity will determine the shape of the single stochastic gas channels. On the other hand there are many studies on air sparging, which are based on continuum modeling. Up to date it is not clear under which conditions a continuum model can describe the essential features of the complex gas flow pattern. The aim of this study is to investigate the gas flow pattern on bench-scale and field scale using the continuum model TOUGH2. Based on a comprehensive data set of bench-scale experiments and field-scale experiments, we conduct for the first time a systematic study and evaluate the prediction ability of the continuum model. A second focus of this study is the development of a “real world”-continuum model, since on all scales – pore-scale, bench scale, field scale – heterogeneity is a key driver for the stochastic gas flow pattern. Therefore, we use different geostatistical programs to include stochastic conditioned and unconditioned parameter fields. Our main conclusion from bench-scale experiments is that a continuum model, which is calibrated by different independent measurements, has excellent prediction ability for the average flow behavior (e.g. the gas volume-injection rate relation). Moreover, we investigate the impact of both weak and strong heterogeneous parameter fields (permeability and capillary pressure) on gas flow pattern. The results show that a continuum model with weak stochastic heterogeneity cannot represent the essential features of the experimental gas flow pattern (e.g., the single stochastic gas channels). Contrary, applying a strong heterogeneity the continuum model can represent the channelized flow. This observation supports Stauffer’s statement that a so-called subscale continuum model with strong heterogeneity is able to describe the channelized flow behavior. On the other hand, we compare the theoretical integral gas volumes with our experiments and found that strong heterogeneity always yields too large gas volumes. At field-scale the 3D continuum model is used to design and optimize the direct gas injection technology. The field-scale study is based on the working hypotheses that the key parameters are the same as at bench-scale. Therefore, we assume that grain size and injection rate will determine whether coherent channelized flow or incoherent bubbly flow will develop at field-scale. The results of four different injection regimes were compared with the data of the corresponding field experiments. The main conclusion is that because of the buoyancy driven gas flow the vertical permeability has a crucial impact. Hence, the vertical and horizontal permeability should be implemented independently in numerical modeling by conditioned parameter fields.
65

Augmented Reality-Umgebungen im Urheberrecht

Dietrich, Jannis P. 24 February 2021 (has links)
Die Studie untersucht mit der Augmented Reality (AR)-Technologie ein vergleichsweise neues techni-sches Phänomen aus urheberrechtlicher Perspektive, das sich insbesondere durch eine dynamische Ver-mischung von Realität und Virtualität kennzeichnet. Schwerpunktmäßig wird die Einordnung solcher interaktiver Werke als Filmwerk untersucht und abge-lehnt, um dann einen konkreten Vorschlag für die passendere Werkart des Multimediawerks zu unter-breiten und die Verkehrsfähigkeit und Urheberschaft hieran zu untersuchen. Konkret werden zunächst die technische Funktionsweise und die Anwendungsfelder der AR-Technologie untersucht (Kapitel 1) um in der Folge auf die Schutzfähigkeit einzugehen (Kapitel 2). Hierbei wird ins-besondere die Verwandtschaft mit anderen Werken mit einer künstlerisch-technischen Doppelnatur (hybride Werke), namentlich den Videospielen, herausgearbeitet. Daran angelehnt wird einerseits die Schutzmöglichkeit des zugrundeliegenden Codes als Computerprogramm und andererseits der erzeug-ten AR-Oberfläche insbesondere als Filmwerk untersucht. Die Einordnung als Film und auch als sonstige bekannte Werkart kann hier im Ergebnis nicht überzeugen und auch die herrschende Ansicht zur Ein-ordnung von Videospielen als Film wird kritisch hinterfragt. Es wird ein Vorschlag für eine unbenannte Werkart – das Multimediawerk – erarbeitet. Hierunter kön-nen moderne interaktive Gestaltungen flexibel und zeitgemäß subsumiert werden, insbesondere auch die digitale Oberfläche von Augmented Reality Umgebungen. Im dritten Kapitel werden dann die praktische Verkehrsfähigkeit sowie die Urheberschaft an entspre-chenden Multimediawerken untersucht. Ein Schwerpunkt liegt dabei insbesondere auf der Herleitung einer analogen Anwendbarkeit der Sonderregelungen zur Verwertung von Filmen (§§ 88 ff. UrhG) auf das hier vorgeschlagene Multimediawerk. / This study focuses on augmented reality (AR) technology from a copyright perspective. This compara-tively new technical phenomenon is characterized in particular by a dynamic intermingling of reality and virtuality. One of the key aspects of the study is the potential classification of such interactive works as cinemato-graphic works, which is examined and rejected. Consequently, a proposal of a better suited work type, the multimedia work, is presented before the marketability and authorship of such works is analyzed. First, the technical functionality and scope of AR technology are examined (chapter 1) in order to sub-sequently address its protectability (chapter 2). In particular, the similarity to other works defined by a combined aesthetic and technical nature (hybrid works), namely video games, is explored. Based on this, the possibility of protecting the underlying code as a computer program, on the one hand, and protecting the generated AR surface, in particular as a cinematographic work, on the other hand, is analyzed. It is concluded that the classification as cinematographic work, and also as any other known type of work, is to be rejected and furthermore, the prevailing view classifying video games as cine-matographic works is critically questioned. A proposal for an unnamed type of work – the multimedia work – is made. Modern interactive designs, in particular the digital surface of augmented reality environments, can be subsumed as such in a flex-ible and contemporary way. This study concludes with the third chapter, analyzing the practical marketability of such multimedia works as well as their authorship. A particular focus is set on the development of an analogous applica-bility of the legal framework for the exploitation of films (Sec. 88 et seq. German Copyright Act) to the multimedia work proposed here.
66

Hybrid Hardware/Software Architectures for Network Packet Processing in Security Applications

Fießler, Andreas Christoph Kurt 14 June 2019 (has links)
Die Menge an in Computernetzwerken verarbeiteten Daten steigt stetig, was Netzwerkgeräte wie Switches, Bridges, Router und Firewalls vor Herausfordungen stellt. Die Performance der verbreiteten, CPU/softwarebasierten Ansätze für die Implementierung dieser Aufgaben ist durch den inhärenten Overhead in der sequentiellen Datenverarbeitung limitiert, weshalb solche Funktionalitäten vermehrt auf dedizierten Hardwarebausteinen realisiert werden. Diese bieten eine schnelle, parallele Verarbeitung mit niedriger Latenz, sind allerdings aufwendiger in der Entwicklung und weniger flexibel. Nicht jede Anwendung kann zudem für parallele Verarbeitung optimiert werden. Diese Arbeit befasst sich mit hybriden Ansätzen, um eine bessere Ausnutzung der jeweiligen Stärken von Soft- und Hardwaresystemen zu ermöglichen, mit Schwerpunkt auf der Paketklassifikation. Es wird eine Firewall realisiert, die sowohl Flexibilität und Analysetiefe einer Software-Firewall als auch Durchsatz und Latenz einer Hardware-Firewall erreicht. Der Ansatz wird auf einem Standard-Rechnersystem, welches für die Hardware-Klassifikation mit einem rekonfigurierbaren Logikbaustein (FPGA) ergänzt wird, evaluiert. Eine wesentliche Herausforderung einer hybriden Firewall ist die Identifikation von Abhängigkeiten im Regelsatz. Es werden Ansätze vorgestellt, welche den redundanten Klassifikationsaufwand auf ein Minimum reduzieren, wie etwa die Wiederverwendung von Teilergebnissen der hybriden Klassifikatoren oder eine exakte Abhängigkeitsanalyse mittels Header Space Analysis. Für weitere Problemstellungen im Bereich der hardwarebasierten Paketklassifikation, wie dynamisch konfigurierbare Filterungsschaltkreise und schnelle, sichere Hashfunktionen für Lookups, werden Machbarkeit und Optimierungen evaluiert. Der hybride Ansatz wird im Weiteren auf ein System mit einer SDN-Komponente statt einer FPGA-Erweiterung übertragen. Auch hiermit können signifikante Performancegewinne erreicht werden. / Network devices like switches, bridges, routers, and firewalls are subject to a continuous development to keep up with ever-rising requirements. As the overhead of software network processing already became the performance-limiting factor for a variety of applications, also former software functions are shifted towards dedicated network processing hardware. Although such application-specific circuits allow fast, parallel, and low latency processing, they require expensive and time-consuming development with minimal possibilities for adaptions. Security can also be a major concern, as these circuits are virtually a black box for the user. Moreover, the highly parallel processing capabilities of specialized hardware are not necessarily an advantage for all kinds of tasks in network processing, where sometimes a classical CPU is better suited. This work introduces and evaluates concepts for building hybrid hardware-software-systems that exploit the advantages of both hardware and software approaches in order to achieve performant, flexible, and versatile network processing and packet classification systems. The approaches are evaluated on standard software systems, extended by a programmable hardware circuit (FPGA) to provide full control and flexibility. One key achievement of this work is the identification and mitigation of challenges inherent when a hybrid combination of multiple packet classification circuits with different characteristics is used. We introduce approaches to reduce redundant classification effort to a minimum, like re-usage of intermediate classification results and determination of dependencies by header space analysis. In addition, for some further challenges in hardware based packet classification like filtering circuits with dynamic updates and fast hash functions for lookups, we describe feasibility and optimizations. At last, the hybrid approach is evaluated using a standard SDN switch instead of the FPGA accelerator to prove portability.
67

Künstliche Intelligenz und Kommunikation in Koordinierungsproblemen

Hoidn, Florian 09 June 2021 (has links)
Kommunikation entsteht, ohne dass hierfür notwendigerweise semantische oder syntaktische Regeln definiert werden müssen: Irgendwann haben unsere Vorfahren erlernt, miteinander zu kommunizieren, ohne dass ihnen jemand erklärte, wie das geht. In dieser Arbeit wird der philosophischen Frage nachgegangen, wie das möglich ist. Es soll geklärt werden, welche Bedingungen im Abstrakten dafür hinreichend sind, dass Wesen miteinander zu kommunizieren erlernen, und zwar insbesondere, ohne dass man ihnen hierfür eine konkrete Sprache vorgibt. Die Arbeit baut auf neuen Modellen und Erkenntnissen aus der Signalspieltheorie auf. Diese belegen, dass selbst einfache verstärkungsbasierte Lernverfahren in bestimmten Koordinierungsproblemen selbständig erlernen können, Information miteinander auszutauschen. Diese Erkenntnisse werden in dieser Arbeit mit Techniken aus dem maschinellen Lernen, insbesondere aus dem Bereich des deep reinforcement learning, kombiniert. Hiermit soll demonstriert werden, dass rudimentär intelligente Akteure selbstständig in relativ komplexen Sprachen miteinander kommunizieren können, wenn dies einer effizienteren Lösung nicht-trivialer Koordinierungsprobleme dient. Anders als in vergleichbaren Ansätzen, werden die lernfähigen Algorithmen, die in dieser Arbeit zum Einsatz kommen, weder dazu trainiert, real existierende Sprachen zu benutzen, noch werden sie dazu programmiert, künstliche Protokollsprachen zu verwenden. Vielmehr wird ihnen lediglich eine Menge von Signalen vorgegeben. Sowohl die syntaktischen Regeln, wie diese Signale aneinandergereiht werden dürfen, als auch die Semantik der Signale entstehen von alleine. / Communication emerges without the need for explicit definitions of semantic or syntactic rules: At some point, our ancestors learned to communicate with one another without anyone explaining to them how to do that. In this work, I'll try to answer the philosophical question of how that is possible. The goal is to find abstract conditions that are sufficient for the emergence of communication between creatures that do not have any predefined language available to them. This work builds on recent models and insights from the theory of signaling games. There, it is shown that simple reinforcement learning agents are able to learn to exchange meaningful information in suitable coordination problems autonomously. These insights will be combined with more powerful deep reinforcement learning techniques. Thus, it shall be demonstrated that moderately intelligent agents can learn to communicate in relatively complex languages, if this is useful to them in sufficiently non-trivial coordination problems. In contrast to existing work on communication based on artificial intelligence, the learning algorithms that will be applied here, will neither be trained to communicate in an existing natural language, nor will they be hard coded to use a predefined protocol. Instead, they will construct their messages freely from arbitrary sets of signals. The syntactic rules according to which these elementary signals can be chained together, as well as their semantics, will emerge autonomously.
68

Data curation for qualitative data reuse and big social research / Connecting communities of practice

Mannheimer, Sara 12 September 2022 (has links)
In den letzten Jahren haben Innovationen bei Datenquellen und Methoden für die sozialwissenschaftliche Forschung zugenommen. Diese Forschungsarbeit zielt darauf ab, die Auswirkungen dieser Innovationen auf drei Praxisgemeinschaften besser zu verstehen: qualitativ Forschende, Big Social Data Forschende und Datenkurator*innen. Folgenden Forschungsfragen werden behandelt. RQ1: Wie unterscheidet sich die Kuratierung von Big Social Data und qualitativen Daten? RQ2: Welche Auswirkungen haben diese Ähnlichkeiten und Unterschiede auf die Kuratierung von Big Social Data und qualitativen Daten und was können wir aus der Kombination dieser beiden Communities lernen? Ich beantwortete diese Fragen durch eine Literaturrecherche, in der ich Gemeinsamkeiten zwischen qualitativer Datennachnutzung und Big Social Data identifizierte. Dann führte ich semi-strukturierte Interviews mit den drei Praxisgemeinschaften durch. Die Analyse identifizierte sechs Schlüsselthemen für die qualitative Datennachnutzung und Big Social Data: Kontext, Datenqualität und Vertrauenswürdigkeit, Datenvergleichbarkeit, informierte Einwilligung, Datenschutz und Vertraulichkeit sowie geistiges Eigentum und Dateneigentum. Ich habe außerdem fünf weitere Themen identifiziert: Domänenunterschiede, Strategien für eine verantwortungsvolle Praxis, Fragen der Datenpflege, Menschen oder Inhalte als Untersuchungsobjekte sowie unterschiedliche Schwerpunkte und Ansätze. Die Verbindung dieser drei Praxisgemeinschaften kann ein breiteres Verständnis der Schlüsselfragen unterstützen und zu verantwortungsbewussteren Forschungspraktiken führen. Datenkurator*innen verfügen über die Fähigkeiten und Perspektiven, um zwischen den Praxisgemeinschaften zu übersetzen und eine verantwortungsvolle qualitative Nachnutzung von Daten und Big Social Data zu unterstützen. / Recent years have seen the rise of innovations in data sources and methods for social science research. This research aims to better understand the impact of these innovations on three communities of practice: qualitative researchers, big social researchers, and data curators. I address the following research questions. RQ1: How is big social data curation similar to and different from qualitative data curation? RQ1a: How are epistemological, ethical, and legal issues different or similar for qualitative data reuse and big social research? RQ1b: How can data curation practices support and resolve some of these epistemological and ethical issues? RQ2: What are the implications of these similarities and differences for big social data curation and qualitative data curation, and what can we learn from combining these two conversations? I answered these questions through a literature review, in which I identified issues in common between qualitative data reuse and big social research. Then I conducted semi-structured interviews with the three communities of practice. The research identified six key issues for qualitative data reuse and big social research: context, data quality and trustworthiness, data comparability, informed consent, privacy and confidentiality, and intellectual property and data ownership. I also identified five additional themes: domain differences, strategies for responsible practice, data curation issues, human subjects vs. content, and different focuses and approaches. Connecting these three communities of practice can support a broader understanding of the key issues and lead to more responsible research practices. Data curators have the skills and perspectives to translate between communities of practice and provide guidance for responsible qualitative data reuse and big social data.
69

Real-time 3D-based Virtual Eye Contact for Video Communication

Waizenegger, Wolfgang 09 August 2019 (has links)
Das Problem des fehlenden Augenkontaktes vermindert den Eindruck einer natürlichen Kommunikationssituation bei Videokonferenzen. Während eine Person auf den Bildschirm blickt, wird sie von Kameras aufgenommen, die sich normalerweise direkt daneben befinden. Mit dem Aufkommen von massiv paralleler Computer Hardware und ganz speziell den sehr leistungsstarken Spielegrafikkarten ist es möglich geworden, viele Eingabeansichten für eine Echtzeit 3D Rekonstruktion zu verarbeiten. Eine größere Anzahl von Eingabeansichten mildert Verdeckungsprobleme ab und führt zu vollständigeren 3D Daten. In dieser Arbeit werden neue Algorithmen vorgeschlagen, welche eine hochqualitative Echtzeit 3D Rekonstruktion, die kontinuierliche Anpassung der photometrischen Kameraparameter und die benutzerunabhängige Schätzung der Augenkontaktkameras ermöglichen. Die Echtzeit 3D Analyse besteht aus zwei komplementären Ansätzen. Einerseits gibt es einen Algorithmus, der auf der Verarbeitung geometrischer Formen basiert und auf der anderen Seite steht eine patchbasierte Technik, die 3D Hypothesen durch das Vergleichen von Bildtexturen evaluiert. Zur Vorbereitung für die Bildsynthese ist es notwendig, Texturen von verschiedenen Ansichten anzugleichen. Hierfür wird die Anwendung eines neuen Algorithmus zur kontinuierlichen photometrischen Justierung der Kameraparameter vorgeschlagen. Die photometrische Anpassung wird iterativ, im Wechsel mit einer 3D Registrierung der entsprechenden Ansichten, ausgeführt. So ist die Qualität der photometrischen Parameter direkt mit jener der Ergebnisse der 3D Analyse verbunden und vice versa. Eine weitere wichtige Voraussetzung für eine korrekte Synthese der Augenkontaktansicht ist die Schätzung einer passenden virtuellen Augenkontaktkamera. Hierfür wird die Augenkontaktkamera kontinuierlich an die Augenposition der Benutzer angeglichen. Auf diese Weise wird eine virtuelle Kommunikationsumgebung geschaffen, die eine natürlichere Kommunikation ermöglicht. / A major problem, that decreases the naturalness of conversations via video communication, is missing eye contact. While a person is looking on the display, she or he is recorded from cameras that are usually attached next to the display frame. With the advent of massively parallel computer hardware and in particular very powerful consumer graphics cards, it became possible to simultaneously process multiple input views for real-time 3D reconstruction. Here, a greater amount of input views mitigate occlusion problems and lead to a more complete set of 3D data that is available for view synthesis. In this thesis, novel algorithms are proposed that enable for high quality real-time 3D reconstruction, the on-line alignment of photometric camera parameters, and the automatic and user independent estimation of the eye contact cameras. The real-time 3D analysis consist of two complementary approaches. On the one hand, a shape based algorithm and on the other hand, a patch based technique that evaluates 3D hypotheses via comparison of image textures. Preparative to rendering, texture from multiple views needs to be aligned. For this purpose, a novel algorithm for photometric on-line adjustment of the camera parameters is proposed. The photometric adjustment is carried out iteratively in alternation with a 3D registration of the respective views. In this way, the quality of photometric parameters is directly linked to the 3D analysis results and vice versa. Based on the textured 3D data, the eye contact view is rendered. An important prerequisite for this task is the estimation of a suitable virtual eye contact camera. In this thesis, a novel approach is formulated that enables for an automatic adaptation to arbitrary new users. Therefor, the eye contact camera is dynamically adapted to the current eye positions of the users. In this way, a virtual communication environment is created that allows for a more natural conversation.
70

Explainable deep learning classifiers for disease detection based on structural brain MRI data

Eitel, Fabian 14 November 2022 (has links)
In dieser Doktorarbeit wird die Frage untersucht, wie erfolgreich deep learning bei der Diagnostik von neurodegenerativen Erkrankungen unterstützen kann. In 5 experimentellen Studien wird die Anwendung von Convolutional Neural Networks (CNNs) auf Daten der Magnetresonanztomographie (MRT) untersucht. Ein Schwerpunkt wird dabei auf die Erklärbarkeit der eigentlich intransparenten Modelle gelegt. Mit Hilfe von Methoden der erklärbaren künstlichen Intelligenz (KI) werden Heatmaps erstellt, die die Relevanz einzelner Bildbereiche für das Modell darstellen. Die 5 Studien dieser Dissertation zeigen das Potenzial von CNNs zur Krankheitserkennung auf neurologischen MRT, insbesondere bei der Kombination mit Methoden der erklärbaren KI. Mehrere Herausforderungen wurden in den Studien aufgezeigt und Lösungsansätze in den Experimenten evaluiert. Über alle Studien hinweg haben CNNs gute Klassifikationsgenauigkeiten erzielt und konnten durch den Vergleich von Heatmaps zur klinischen Literatur validiert werden. Weiterhin wurde eine neue CNN Architektur entwickelt, spezialisiert auf die räumlichen Eigenschaften von Gehirn MRT Bildern. / Deep learning and especially convolutional neural networks (CNNs) have a high potential of being implemented into clinical decision support software for tasks such as diagnosis and prediction of disease courses. This thesis has studied the application of CNNs on structural MRI data for diagnosing neurological diseases. Specifically, multiple sclerosis and Alzheimer’s disease were used as classification targets due to their high prevalence, data availability and apparent biomarkers in structural MRI data. The classification task is challenging since pathology can be highly individual and difficult for human experts to detect and due to small sample sizes, which are caused by the high acquisition cost and sensitivity of medical imaging data. A roadblock in adopting CNNs to clinical practice is their lack of interpretability. Therefore, after optimizing the machine learning models for predictive performance (e.g. balanced accuracy), we have employed explainability methods to study the reliability and validity of the trained models. The deep learning models achieved good predictive performance of over 87% balanced accuracy on all tasks and the explainability heatmaps showed coherence with known clinical biomarkers for both disorders. Explainability methods were compared quantitatively using brain atlases and shortcomings regarding their robustness were revealed. Further investigations showed clear benefits of transfer-learning and image registration on the model performance. Lastly, a new CNN layer type was introduced, which incorporates a prior on the spatial homogeneity of neuro-MRI data. CNNs excel when used on natural images which possess spatial heterogeneity, and even though MRI data and natural images share computational similarities, the composition and orientation of neuro-MRI is very distinct. The introduced patch-individual filter (PIF) layer breaks the assumption of spatial invariance of CNNs and reduces convergence time on different data sets without reducing predictive performance. The presented work highlights many challenges that CNNs for disease diagnosis face on MRI data and defines as well as tests strategies to overcome those.

Page generated in 0.0386 seconds