• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • 2
  • 1
  • Tagged with
  • 6
  • 5
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Monitoring von ökologischen und biometrischen Prozessen mit statistischen Filtern

Frühwirth-Schnatter, Sylvia January 1991 (has links) (PDF)
Diese Arbeit ist ein Überblick über die Ideen und Methoden der dynamischen stochastischen Modellierung von normalverteilten und nicht-normalverteilten Prozessen. Nach einer Einführung der allgemeinen Modellform werden Aussagemöglichkeiten wie Filtern, Glätten und Vorhersagen diskutiert und das Problem der Identifikation unbekannter Hyperparameter behandelt. Die allgemeinen Ausführungen werden an zwei Fallstudien, einer Zeitreihe des mittleren jährlichen Grundwasserspiegels und einer Zeitreihe von Tagesmittelwerten von SO2-Emissionen illustriert. (Autorenref.) / Series: Forschungsberichte / Institut für Statistik
2

Erschließung domänenübergreifender Informationsräume mit Multimodellen / Access of cross-domain information spaces using multi-models

Fuchs, Sebastian 23 October 2015 (has links) (PDF)
Mit dem Übergang von bauwerksorientierter zu prozessorientierter Arbeitsweise erlangt die domänenübergreifende Bereitstellung von Informationen wachsende Bedeutung. Das betrifft bspw. die Erstellung von Controlling-Kennwerten, die Vorbereitung von Simulationen oder die Betrachtung neuer Aspekte wie Energieeffizienz. Aktuelle Datenformate und Erschließungsmethoden können diese Herausforderung jedoch nicht befriedigend bewältigen. Daher bedarf es einer Methode, welche interdisziplinäre Bauinformationsprozesse uneingeschränkt ermöglicht. Vorhandene Kommunikationsprozesse und Fachanwendungen sollen dabei beibehalten und weitergenutzt werden können. Mit der Multimodell-Methode wird ein Lösungsansatz für die strukturellen Probleme interdisziplinärer Bauinformationsprozesse vorgestellt. Multimodelle bündeln heterogene Fachmodelle unterschiedlicher Domänen und erlauben die Verbindung ihrer Elemente in externen, ID-basierten Linkmodellen. Da die Fachmodelle unberührt bleiben, wird auf diesem Weg eine lose und temporäre Kopplung ermöglicht. Durch den Verzicht auf ein führendes oder integrierendes Datenschema werden keine Transformationsprozesse benötigt, können etablierte und heute übliche Datenformate weitergenutzt und die verlinkten Fachmodelle neutral ausgetauscht werden. Die in Multimodellen verknüpften Daten bieten einen informationellen Mehrwert gegenüber alleinstehenden Fachmodellen. Zusammengehörende Informationen können über die persistenten Links automatisch ausgewertet werden, anstelle manuell vom Menschen immer wieder flüchtig neu zugeordnet werden zu müssen. Somit erscheint ein Multimodell gegenüber einem Benutzer wie ein einziger abgeschlossener Informationsraum. Um solche datenmodell-, datenformat- und domänenübergreifenden Informationsräume komfortabel erstellen und filtern zu können, wird die deklarative Multimodell-Abfragesprache MMQL eingeführt. Diese erlaubt einen generischen Zugriff auf die Originaldaten und bildet die Kernkonzepte der Multimodell-Erschließung - mehrwertige Linkerzeugung und strukturelle Linksemantik - ab. Ein zugehöriger Interpreter ermittelt den Lösungsweg für konkrete Anweisungen und führt diesen auf realen Daten aus. Die Umsetzung und Bereitstellung der Konzepte als IT-Komponenten auf verschiedenen Ebenen - von der Datenstruktur über Bibliotheken und Services bis hin zur alleinstehenden, universellen Multimodell-Software M2A2 - erlaubt die sofortige und direkte Anwendung der Multimodell-Methode in der Praxis. / With the transition of building-oriented to process-oriented work, the provision of cross-domain information gained growing importance - for example in the creation of controlling parameters, the preparation of simulations or when considering new aspects such as energy efficiency. However, current data formats and access methods cannot cope with this challenge satisfactory. Therefore, a method is required, that enables interdisciplinary construction information processes fully. Thereby existing communication processes and domain applications have to be retained and continued to be used as possible. With the multi-model method, an approach to structural problems of such interdisciplinary construction information processes is presented. Multi-models combine heterogeneous models of different domains and allow the connection of their elements in external ID-based link models. As the domain models remain unaffected, a loose and temporary coupling is possible in this way. By not using a leading or integrating data schema, no transformation processes are required, common established data formats can be retained and the linked domain models can be exchanged neutrally. The linked data in multi-models offer an additional value of information over single domain models. Information belonging together can be automatically evaluated by the persistent links - instead of being repeatedly reassigned by people in a volatile way. Thus, a multi-model appears to a user as a single self-contained information space. In order to create and filter such cross-format and cross-domain information spaces comfortably, the declarative multi-model query language MMQL is introduced. It allows for generic access to the original data and integrates the core concepts of the multi-model development - n-ary link generation and structural link semantics. An associated interpreter determines the approach for specific instructions and executes it on real data. The implementation and deployment of the concepts as IT components at various levels - from the data structure via libraries and services, to the universal multi-model software M2A2 - allows an immediate and direct application of the multi-model method in practice.
3

Structure adaptive stylization of images and video

Kyprianidis, Jan Eric January 2013 (has links)
In the early days of computer graphics, research was mainly driven by the goal to create realistic synthetic imagery. By contrast, non-photorealistic computer graphics, established as its own branch of computer graphics in the early 1990s, is mainly motivated by concepts and principles found in traditional art forms, such as painting, illustration, and graphic design, and it investigates concepts and techniques that abstract from reality using expressive, stylized, or illustrative rendering techniques. This thesis focuses on the artistic stylization of two-dimensional content and presents several novel automatic techniques for the creation of simplified stylistic illustrations from color images, video, and 3D renderings. Primary innovation of these novel techniques is that they utilize the smooth structure tensor as a simple and efficient way to obtain information about the local structure of an image. More specifically, this thesis contributes to knowledge in this field in the following ways. First, a comprehensive review of the structure tensor is provided. In particular, different methods for integrating the minor eigenvector field of the smoothed structure tensor are developed, and the superiority of the smoothed structure tensor over the popular edge tangent flow is demonstrated. Second, separable implementations of the popular bilateral and difference of Gaussians filters that adapt to the local structure are presented. These filters avoid artifacts while being computationally highly efficient. Taken together, both provide an effective way to create a cartoon-style effect. Third, a generalization of the Kuwahara filter is presented that avoids artifacts by adapting the shape, scale, and orientation of the filter to the local structure. This causes directional image features to be better preserved and emphasized, resulting in overall sharper edges and a more feature-abiding painterly effect. In addition to the single-scale variant, a multi-scale variant is presented, which is capable of performing a highly aggressive abstraction. Fourth, a technique that builds upon the idea of combining flow-guided smoothing with shock filtering is presented, allowing for an aggressive exaggeration and an emphasis of directional image features. All presented techniques are suitable for temporally coherent per-frame filtering of video or dynamic 3D renderings, without requiring expensive extra processing, such as optical flow. Moreover, they can be efficiently implemented to process content in real-time on a GPU. / In den Anfängen der Computergrafik war die Forschung hauptsächlich von dem Anspruch getragen, realistisch aussehende synthetische Bilder zu erstellen. Im Gegensatz dazu ist die nicht-photorealistische Computergraphik, ein Untergebiet der Computergrafik, welches in den frühen 1990er Jahren gegründet wurde, vor allem motiviert durch Konzepte und Prinzipien der traditionellen Kunst wie Malerei, Illustration und Grafikdesign. Diese Arbeit beschäftigt sich mit der künstlerischen Verarbeitung von zweidimensionalen Bildinhalten und präsentiert mehrere neue automatische Verfahren für die Erstellung von vereinfachten künstlerischen Darstellungen von Farbbildern, Videos und 3D- Renderings. Wichtigste Neuerung dieser Techniken ist die Verwendung des Strukturtensors als eine einfache und effiziente Möglichkeit, Informationen über die lokale Struktur eines Bildes zu erhalten. Konkret werden die folgenden Beiträge gemacht. Erstens wird eine umfassende übersicht über den Strukturtensor gegeben. Insbesondere werden verschiedene Methoden für die Integration des kleineren Eigenvektorfeldes des geglätteten Strukturtensors entwickelt, und die Überlegenheit des geglätteten Strukturtensors gegenüber dem populären Edge-Tangent-Flow demonstriert. Zweitens werden separable Implementierungen des bilateralen Filters und des Difference of Gaussians Filters vorgestellt. Durch die Anpassung der Filter an die lokale Struktur des Bildes werden Bildfehler vermieden, wobei der Vorgang rechnerisch effizient bleibt. Zusammengenommen bieten beide Techniken eine effektive Möglichkeit, um einen Cartoon-ähnlichen Effekt zu erzielen. Drittens wird eine Verallgemeinerung des Kuwahara-Filters vorgestellt. Durch die Anpassung von Form, Umfang und Orientierung der Filter an die lokale Struktur werden Bildfehler verhindert. Außerdem werden direktionale Bildmerkmale besser berücksichtigt und betont, was zu schärferen Kanten und einem malerischen Effekt führt. Neben der single-scale Variante wird auch eine multi-scale Variante vorgestellt, welche im Stande ist, eine höhere Abstraktion zu erzielen. Viertens wird eine Technik vorgestellt, die auf der Kombination von flussgesteuerter Glättung und Schock-Filterung beruht, was zu einer intensiven Verstärkung und Betonung der direktionalen Bildmerkmale führt. Alle vorgestellten Techniken erlauben die zeitlich kohärente Verarbeitung von Einzelbildern eines Videos oder einer dynamischen 3D-Szene, ohne dass andere aufwendige Verfahren wie zum Beispiel die Berechnung des optischen Flusses, benötigt werden. Darüberhinaus können die Techniken effizient implementiert werden und ermöglichen die Verarbeitung in Echtzeit auf einem Grafikprozessor (GPU).
4

Erschließung domänenübergreifender Informationsräume mit Multimodellen

Fuchs, Sebastian 23 October 2015 (has links)
Mit dem Übergang von bauwerksorientierter zu prozessorientierter Arbeitsweise erlangt die domänenübergreifende Bereitstellung von Informationen wachsende Bedeutung. Das betrifft bspw. die Erstellung von Controlling-Kennwerten, die Vorbereitung von Simulationen oder die Betrachtung neuer Aspekte wie Energieeffizienz. Aktuelle Datenformate und Erschließungsmethoden können diese Herausforderung jedoch nicht befriedigend bewältigen. Daher bedarf es einer Methode, welche interdisziplinäre Bauinformationsprozesse uneingeschränkt ermöglicht. Vorhandene Kommunikationsprozesse und Fachanwendungen sollen dabei beibehalten und weitergenutzt werden können. Mit der Multimodell-Methode wird ein Lösungsansatz für die strukturellen Probleme interdisziplinärer Bauinformationsprozesse vorgestellt. Multimodelle bündeln heterogene Fachmodelle unterschiedlicher Domänen und erlauben die Verbindung ihrer Elemente in externen, ID-basierten Linkmodellen. Da die Fachmodelle unberührt bleiben, wird auf diesem Weg eine lose und temporäre Kopplung ermöglicht. Durch den Verzicht auf ein führendes oder integrierendes Datenschema werden keine Transformationsprozesse benötigt, können etablierte und heute übliche Datenformate weitergenutzt und die verlinkten Fachmodelle neutral ausgetauscht werden. Die in Multimodellen verknüpften Daten bieten einen informationellen Mehrwert gegenüber alleinstehenden Fachmodellen. Zusammengehörende Informationen können über die persistenten Links automatisch ausgewertet werden, anstelle manuell vom Menschen immer wieder flüchtig neu zugeordnet werden zu müssen. Somit erscheint ein Multimodell gegenüber einem Benutzer wie ein einziger abgeschlossener Informationsraum. Um solche datenmodell-, datenformat- und domänenübergreifenden Informationsräume komfortabel erstellen und filtern zu können, wird die deklarative Multimodell-Abfragesprache MMQL eingeführt. Diese erlaubt einen generischen Zugriff auf die Originaldaten und bildet die Kernkonzepte der Multimodell-Erschließung - mehrwertige Linkerzeugung und strukturelle Linksemantik - ab. Ein zugehöriger Interpreter ermittelt den Lösungsweg für konkrete Anweisungen und führt diesen auf realen Daten aus. Die Umsetzung und Bereitstellung der Konzepte als IT-Komponenten auf verschiedenen Ebenen - von der Datenstruktur über Bibliotheken und Services bis hin zur alleinstehenden, universellen Multimodell-Software M2A2 - erlaubt die sofortige und direkte Anwendung der Multimodell-Methode in der Praxis.:1. Einleitung 1 1.1. Motivation 1 1.2. Ausgangspunkt 2 1.3. Zielsetzung 3 1.4. Lösungsansatz 5 1.5. Aufbau der Arbeit 7 2. Informationsräume im Bauwesen 9 2.1. Grundlagen der Datenmodelle 10 2.2. Baufachmodelle 17 2.3. Domänenübergreifende Bauinformationsräume 25 2.4. Resümee 39 3. Das Multimodellkonzept 41 3.1. Das Multimodell-Paradigma 42 3.2. Multimodellbasierte Arbeitsweise 48 3.3. Prinzip und Aufbau von Multimodellen 55 3.4. Anwendbare Fachmodelle 67 3.5. Multimodell-Spezialisierung 72 3.6. Multimodell-Operationen 78 3.7. Resümee 81 4. Die Multimodell-Abfragesprache MMQL 83 4.1. Konzeption 84 4.2. Zugriff auf Originaldaten 90 4.3. Multimodell-Filtern 102 4.4. Linkmanipulation 118 4.5. Resümee 124 5. Interpretation von MMQL-Anweisungen 127 5.1. Grundlagen der Ausführung der Sprache 128 5.2. Ermittlung von Multimodell-Views 134 5.3. Links erstellen 148 5.4. Links löschen 153 5.5. Diskussion und Resümee 153 6. Implementierung und Anwendung 159 6.1. Universelle Multimodell-Software M2A2 160 6.2. Multimodell-Spezialisierung für das Bauprojektmanagement 165 6.3. Multimodellbasierte Ermittlung von Zahlungsplänen 167 6.4. Bewertung und Resümee 174 7. Fazit 177 7.1. Zusammenfassung 177 7.2. Ergebnisdiskussion 178 7.3. Ausblick 183 A. Datenmodelle und Spezifikationen 185 A.1. Das Generische Multimodell 185 A.2. Fachmodell Dokumentencontainer 187 A.3. MMQL: Formale Sprachbeschreibung 188 B. Elementarmodell-Vokabulare 191 B.1. Domain 191 B.2. Phase 192 B.3. Level of Detail 196 B.4. Status 196 C. Implementierungsdetails 197 C.1. Liste der in M2A2 implementierten Baufachmodelle 197 C.2. Implementierte Erweiterungen der M2A2-Plattform 198 C.3. XML-Schema des Mefisto-Multimodell-Containers 199 Literaturverzeichnis 201 / With the transition of building-oriented to process-oriented work, the provision of cross-domain information gained growing importance - for example in the creation of controlling parameters, the preparation of simulations or when considering new aspects such as energy efficiency. However, current data formats and access methods cannot cope with this challenge satisfactory. Therefore, a method is required, that enables interdisciplinary construction information processes fully. Thereby existing communication processes and domain applications have to be retained and continued to be used as possible. With the multi-model method, an approach to structural problems of such interdisciplinary construction information processes is presented. Multi-models combine heterogeneous models of different domains and allow the connection of their elements in external ID-based link models. As the domain models remain unaffected, a loose and temporary coupling is possible in this way. By not using a leading or integrating data schema, no transformation processes are required, common established data formats can be retained and the linked domain models can be exchanged neutrally. The linked data in multi-models offer an additional value of information over single domain models. Information belonging together can be automatically evaluated by the persistent links - instead of being repeatedly reassigned by people in a volatile way. Thus, a multi-model appears to a user as a single self-contained information space. In order to create and filter such cross-format and cross-domain information spaces comfortably, the declarative multi-model query language MMQL is introduced. It allows for generic access to the original data and integrates the core concepts of the multi-model development - n-ary link generation and structural link semantics. An associated interpreter determines the approach for specific instructions and executes it on real data. The implementation and deployment of the concepts as IT components at various levels - from the data structure via libraries and services, to the universal multi-model software M2A2 - allows an immediate and direct application of the multi-model method in practice.:1. Einleitung 1 1.1. Motivation 1 1.2. Ausgangspunkt 2 1.3. Zielsetzung 3 1.4. Lösungsansatz 5 1.5. Aufbau der Arbeit 7 2. Informationsräume im Bauwesen 9 2.1. Grundlagen der Datenmodelle 10 2.2. Baufachmodelle 17 2.3. Domänenübergreifende Bauinformationsräume 25 2.4. Resümee 39 3. Das Multimodellkonzept 41 3.1. Das Multimodell-Paradigma 42 3.2. Multimodellbasierte Arbeitsweise 48 3.3. Prinzip und Aufbau von Multimodellen 55 3.4. Anwendbare Fachmodelle 67 3.5. Multimodell-Spezialisierung 72 3.6. Multimodell-Operationen 78 3.7. Resümee 81 4. Die Multimodell-Abfragesprache MMQL 83 4.1. Konzeption 84 4.2. Zugriff auf Originaldaten 90 4.3. Multimodell-Filtern 102 4.4. Linkmanipulation 118 4.5. Resümee 124 5. Interpretation von MMQL-Anweisungen 127 5.1. Grundlagen der Ausführung der Sprache 128 5.2. Ermittlung von Multimodell-Views 134 5.3. Links erstellen 148 5.4. Links löschen 153 5.5. Diskussion und Resümee 153 6. Implementierung und Anwendung 159 6.1. Universelle Multimodell-Software M2A2 160 6.2. Multimodell-Spezialisierung für das Bauprojektmanagement 165 6.3. Multimodellbasierte Ermittlung von Zahlungsplänen 167 6.4. Bewertung und Resümee 174 7. Fazit 177 7.1. Zusammenfassung 177 7.2. Ergebnisdiskussion 178 7.3. Ausblick 183 A. Datenmodelle und Spezifikationen 185 A.1. Das Generische Multimodell 185 A.2. Fachmodell Dokumentencontainer 187 A.3. MMQL: Formale Sprachbeschreibung 188 B. Elementarmodell-Vokabulare 191 B.1. Domain 191 B.2. Phase 192 B.3. Level of Detail 196 B.4. Status 196 C. Implementierungsdetails 197 C.1. Liste der in M2A2 implementierten Baufachmodelle 197 C.2. Implementierte Erweiterungen der M2A2-Plattform 198 C.3. XML-Schema des Mefisto-Multimodell-Containers 199 Literaturverzeichnis 201
5

Data-based Therapy Recommender Systems

Gräßer, Felix Magnus 10 November 2021 (has links)
Für viele Krankheitsbilder und Indikationen ist ein breites Spektrum an Arzneimitteln und Arzneimittelkombinationen verfügbar. Darüber hinaus stellen Therapieziele oft Kompromisse zwischen medizinischen Zielstellungen und Präferenzen und Erwartungen von Patienten dar, um Zufriedenheit und Adhärenz zu gewährleisten. Die Auswahl der optimalen Therapieoption kann daher eine große Herausforderung für den behandelnden Arzt darstellen. Klinische Entscheidungsunterstützungssysteme, die Wirksamkeit oder Risiken unerwünschter Arzneimittelwirkung für Behandlungsoptionen vorhersagen, können diesen Entscheidungsprozess unterstützen und \linebreak Leitlinien-basierte Empfehlungen ergänzen, wenn Leitlinien oder wissenschaftliche Literatur fehlen oder ungeeignet sind. Bis heute sind keine derartigen Systeme verfügbar. Im Rahmen dieser Arbeit wird die Anwendung von Methoden aus der Domäne der Recommender Systems (RS) und des Maschinellen Lernens (ML) in solchen Unterstützungssystemen untersucht. Aufgrund ihres erfolgreichen Einsatzes in anderen Empfehlungssystemen und der einfachen Interpretierbarkeit werden zum einen Nachbarschafts-basierte Collaborative Filter (CF) an die besonderen Anforderungen und Herausforderungen der Therapieempfehlung angepasst. Zum anderen werden ein Modell-basierter CF-Ansatz (SLIM) und ein ML Algorithmus (GBM) erprobt. Alle genannten Ansätze werden anhand eines exemplarischen Therapieempfehlungssystems evaluiert, das auf die Behandlung der Autoimmunkrankheit Psoriasis abzielt. Um das Risiko der Empfehlung kontraindizierter oder gar gesundheitsgefährdender Medikamente zu reduzieren, werden Regeln aus evidenzbasierten Leitlinien und Expertenempfehlungen implementiert, um solche Therapieoptionen aus den Empfehlungslisten herauszufiltern. Insbesondere die Nachbarschafts-basierten CF-Algorithmen zeigen insgesamt kleine durchschnittliche Abweichungen zwischen geschätztem und tatsächlichem Therapie-Outcome. Auch die aus den Outcome-Schätzungen abgeleiteten Empfehlungen zeigen eine hohe Übereinstimmung mit der tatsächlich angewandten Behandlung. Die Modell-basierten Ansätze sind den Nachbarschafts-basierten Ansätzen insgesamt unterlegen, was auf den begrenzten Umfang der verfügbaren Trainingsdaten zurückzuführen ist und die Generalisierungsfähigkeit der Modelle erschwert. Im Vergleich mit menschlichen Experten sind alle untersuchten Algorithmen jedoch hinsichtlich Übereinstimmung mit der tatsächlich angewandten Therapie unterlegen. Eine objektive und effiziente Bewertung des Behandlungserfolgs kann als Voraussetzung für ein erfolgreiches ``Krankheitsmanagement'' angesehen werden. Daher wird in weiteren Untersuchungen für ausgwählten klinische Anwendungen der Einsatz von ML Methoden zur automatischen Quantifizierung von Gesunheitszustand und Therapie-Outcome erprobt. Zusätzlich, als weitere Quelle für Informationen über Therapiewirksamkeiten, wird der Einsatz von Sentiment Analysis Methoden zur Extraktion solcher Informationen aus Medikamenten-Bewertungen untersucht. / Under most medical conditions and indications, a great variety of pharmaceutical drugs and drug combinations are available. Beyond that, trade-offs need to be found between the medical requirements and the patients' preferences and expectations in order to support patients’ satisfaction and adherence to treatments. As a consequence, the selection of an optimal therapy option for an individual patient poses a challenging task to prescribers. Clinical Decision Support Systems (CDSSs), which predict outcome as effectiveness and risk of adverse effects for available treatment options, can support this decision-making process and complement guideline-based decision-making where evidence from scientific literature is missing or inappropriate. To date, no such systems are available. Within this work, the application of methods from the Recommender Systems (RS) domain and Machine Learning (ML) in such decision support systems is studied. Due to their successful application in other recommender systems and good interpretability, neighborhood-based CF algorithms are transferred to the medical domain and are adapted to meet the requirements and challenges of the therapy recommendation task. Moreover, a model-based CF method (SLIM) and a state of the art ML algorithm (GBM) are employed. All algorithms are evaluated in an exemplary therapy recommender system, targeting the treatment of the autoimmune skin disease Psoriasis. In order to reduce the risk of recommending contraindicated or even health-endangering drugs, rules derived from evidence-based guidelines and expert recommendations are implemented to filter such options from the recommendation lists. Especially the neighborhood-based CF algorithms show small average errors between estimated and observed outcome. Also, the recommendations derived from outcome estimates show high agreement with the ground truth. The performance of both model-based approaches is inferior to the neighborhood-based recommender. This is primarily assumed to be due to the limited training data sizes, which renders generalizability of the learned models difficult. Compared with recommendations provided by various experts, all proposed approaches are, however, inferior in terms of agreement with the ground truth. An objective and efficient assessment of treatment response can be regarded a prerequisite for successful ``disease management''. Therefore, the use of ML methods for the automatic quantification of health status and therapy outcome for selected clinical applications is investigated in further experiments. Moreover, as additional source of information about drug effectiveness, the use of Sentiment Analysis, in order to extract such information from drug reviews, is investigated.
6

Transformation and approximation of rational Krylov spaces with an application to 2.5-dimensional direct current resistivity modeling

Stein, Saskia 17 April 2021 (has links)
Die vorliegende Arbeit befasst sich mit der Fragestellung, inwiefern sich gegebene Verfahren zur Approximation von rationalen Krylow-Räumen zur Berechnung von Matrixfunktionen eignen. Als Modellproblem wird dazu eine 2.5D-Formulierung eines Problems aus der Gleichstrom-Geoelektrik mit finiten Elementen formuliert und dann mittels Matrixfunktionen auf rationalen Krylow-Unterräumen gelöst. Ein weiterer Teil beschäftigt sich mit dem Vergleich zweier Verfahren zur Transformation bestehender rationaler Krylow-Räume. Bei beiden Varianten werden die zugrunde liegenden Pole getauscht ohne dass ein explizites Invertieren von Matrizen notwendig ist. In dieser Arbeit werden die über mehrere Publikationen verteilten Grundlagen einheitlich zusammengetragen und fehlende Zusammenhänge ergänzt. Beide Verfahren eignen sich prinzipiell um rationale Krylow-Räume zu approximieren. Dies wird anhand mehrerer Beispiele gezeigt. Anhand des Modellproblems werden Beschränkungen der Methoden verdeutlicht.

Page generated in 0.0566 seconds