• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 23
  • 11
  • 4
  • 1
  • Tagged with
  • 39
  • 27
  • 12
  • 12
  • 12
  • 10
  • 10
  • 9
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Improving the Depiction of Uncertainty in Simulation Models by Exploiting the Potential of Gaussian Quadratures

Stepanyan, Davit 12 March 2021 (has links)
Simulationsmodelle sind ein etabliertes Instrument zur Analyse von Auswirkungen exogener Schocks in komplexen Systemen. Die in jüngster Zeit gestiegene verfügbare Rechenleistung und -geschwindigkeit hat die Entwicklung detaillierterer und komplexerer Simulationsmodelle befördert. Dieser Trend hat jedoch Bedenken hinsichtlich der Unsicherheit solcher Modellergebnisse aufgeworfen und daher viele Nutzer von Simulationsmodellen dazu motiviert, Unsicherheiten in ihren Simulationen zu integrieren. Eine Möglichkeit dies systematisch zu tun besteht darin, stochastische Elemente in die Modellgleichungen zu integrieren, wodurch das jeweilige Modell zu einem Problem (mehrfacher) numerischer Integrationen wird. Da es für solche Probleme meist keine analytischen Lösungen gibt, werden numerische Approximationsmethoden genutzt. Die derzeit zur Quantifizierung von Unsicherheiten in Simulationsmodellen genutzt en Techniken, sind entweder rechenaufwändig (Monte Carlo [MC] -basierte Methoden) oder liefern Ergebnisse von heterogener Qualität (Gauß-Quadraturen [GQs]). In Anbetracht der Bedeutung von effizienten Methoden zur Quantifizierung von Unsicherheit im Zeitalter von „big data“ ist es das Ziel dieser Doktorthesis, Methoden zu entwickeln, die die Näherungsfehler von GQs verringern und diese Methoden einer breiteren Forschungsgemeinschaft zugänglich machen. Zu diesem Zweck werden zwei neuartige Methoden zur Quantifizierung von Unsicherheiten entwickelt und in vier verschiedene, große partielle und allgemeine Gleichgewichtsmodelle integriert, die sich mit Agrarumweltfragen befassen. Diese Arbeit liefert methodische Entwicklungen und ist von hoher Relevanz für angewandte Simulationsmodellierer. Obwohl die Methoden in großen Simulationsmodellen für Agrarumweltfragen entwickelt und getestet werden, sind sie nicht durch Modelltyp oder Anwendungsgebiet beschränkt, sondern können ebenso in anderen Zusammenhängen angewandt werden. / Simulation models are an established tool for assessing the impacts of exogenous shocks in complex systems. Recent increases in available computational power and speed have led to simulation models with increased levels of detail and complexity. However, this trend has raised concerns regarding the uncertainty of such model results and therefore motivated many users of simulation models to consider uncertainty in their simulations. One way is to integrate stochastic elements into the model equations, thus turning the model into a problem of (multiple) numerical integration. As, in most cases, such problems do not have analytical solutions, numerical approximation methods are applied. The uncertainty quantification techniques currently used in simulation models are either computational expensive (Monte Carlo [MC]-based methods) or produce results of varying quality (Gaussian quadratures [GQs]). Considering the importance of efficient uncertainty quantification methods in the era of big data, this thesis aims to develop methods that decrease the approximation errors of GQs and make these methods accessible to the wider research community. For this purpose, two novel uncertainty quantification methods are developed and integrated into four different large-scale partial and general equilibrium models addressing agro-environmental issues. This thesis provides method developments and is of high relevance for applied simulation modelers who struggle to apply computationally burdensome stochastic modeling methods. Although the methods are developed and tested in large-scale simulation models addressing agricultural issues, they are not restricted to a model type or field of application.
32

Testing the compatibility of constraints for parameters of a geodetic adjustment model

Lehmann, Rüdiger, Neitzel, Frank 06 August 2014 (has links)
Geodetic adjustment models are often set up in a way that the model parameters need to fulfil certain constraints. The normalized Lagrange multipliers have been used as a measure of the strength of constraint in such a way that if one of them exceeds in magnitude a certain threshold then the corresponding constraint is likely to be incompatible with the observations and the rest of the constraints. We show that these and similar measures can be deduced as test statistics of a likelihood ratio test of the statistical hypothesis that some constraints are incompatible in the same sense. This has been done before only for special constraints (Teunissen in Optimization and Design of Geodetic Networks, pp. 526–547, 1985). We start from the simplest case, that the full set of constraints is to be tested, and arrive at the advanced case, that each constraint is to be tested individually. Every test is worked out both for a known as well as for an unknown prior variance factor. The corresponding distributions under null and alternative hypotheses are derived. The theory is illustrated by the example of a double levelled line. / Geodätische Ausgleichungsmodelle werden oft auf eine Weise formuliert, bei der die Modellparameter bestimmte Bedingungsgleichungen zu erfüllen haben. Die normierten Lagrange-Multiplikatoren wurden bisher als Maß für den ausgeübten Zwang verwendet, und zwar so, dass wenn einer von ihnen betragsmäßig eine bestimmte Schwelle übersteigt, dann ist davon auszugehen, dass die zugehörige Bedingungsgleichung nicht mit den Beobachtungen und den restlichen Bedingungsgleichungen kompatibel ist. Wir zeigen, dass diese und ähnliche Maße als Teststatistiken eines Likelihood-Quotiententests der statistischen Hypothese, dass einige Bedingungsgleichungen in diesem Sinne inkompatibel sind, abgeleitet werden können. Das wurde bisher nur für spezielle Bedingungsgleichungen getan (Teunissen in Optimization and Design of Geodetic Networks, pp. 526–547, 1985). Wir starten vom einfachsten Fall, dass die gesamte Menge der Bedingungsgleichungen getestet werden muss, und gelangen zu dem fortgeschrittenen Problem, dass jede Bedingungsgleichung individuell zu testen ist. Jeder Test wird sowohl für bekannte, wie auch für unbekannte a priori Varianzfaktoren ausgearbeitet. Die zugehörigen Verteilungen werden sowohl unter der Null- wie auch unter der Alternativhypthese abgeleitet. Die Theorie wird am Beispiel einer Doppelnivellementlinie illustriert.
33

Algorithmen zur effizienten Simulation großer Mehrkörpersysteme für Modelica

Schubert, Christian 05 December 2014 (has links)
In der vorliegenden Arbeit werden mithilfe von Methoden zur numerischen Behandlung schwach besetzter Matrizen O(n³)- und O(n)-Berechnungsalgorithmen für Mehrkörpersysteme aus deren Bewegungsgleichungen abgeleitet. Durch Verwendung von Dualen Basen kann gezeigt werden, dass sich die bezüglich der Berechnungszeit effizienten Algorithmen sowohl auf Systeme mit explizit als auch implizit formulierten Bindungsgleichungen anwenden lassen. Mit diesen gewonnen Erkenntnissen wird die derzeitige Implementierung der vorgestellten Algorithmen im Sprachstandard Modelica untersucht. Es werden Ansatzmöglichkeiten aufgezeigt, mit denen ausgewählte Modelica Compiler große Mehrkörpersysteme effizienter lösen können. Zum einen wird durch eine graphentheoretische Verallgemeinerung des O(n)-Algorithmus dieser direkt in dem freien Modelica Werkzeug OpenModelica umgesetzt. Zum anderen wird die Methode der Subsysteme für den O(n)-Algorithmus vorgestellt. Sie ermöglicht es, beliebig komplexe Teilsysteme als eigenständige Modellelemente zu erstellen. Die Berechnung von kinematischen Schleifen kann auf diese Weise wesentlich beschleunigt werden. Ferner wird gezeigt, dass sich mit der Methode der Subsysteme Modellgleichungen eines idealen homokinetischen Gelenks ableiten lassen, die frei von Zwangsbedingungen sind. Dies führt ebenfalls zu einer schnelleren und robusteren Berechnung.:1. Einleitung 1.1. Motivation 1.2. Präzisierung der Aufgabe 1.3. Aufbau der Arbeit 2. Mechanik der Mehrkörpersysteme 2.1. Bewegungsgleichung des starren Körpers 2.2. Beschreibung einer Bindung 2.3. Bewegungsgleichung eines Mehrkörpersystems 2.4. Zusammenfassung zur Mechanik der Mehrkörpersysteme 3. Lösungsalgorithmen für Mehrkörpersysteme 3.1. Die Graphen eines Mehrkörpersystems 3.2. Lösungsalgorithmen für Systeme mit Baumstruktur 3.3. Lösungsalgorithmen am Beispiel einer ebenen Pendelkette 3.4. Berücksichtigung kinematischer Schleifen 3.5. Zusammenfassung der Lösungsalgorithmen eines Mehrkörpersystems 4. Effiziente Berechnung von Mehrkörpersystemen 4.1. Berechnung von Mehrkörpersystemen basierend auf Modelica 4.2. O(n)-Algorithmus für Modelica Compiler 4.3. O(n)-Algorithmus für Bibliothekselemente 5. Zusammenfassung und Ausblick A. Anhang A.1. Grundlagen der Tensorrechnung A.2. Duale Basis einer Bindung A.3. Herleitung des Subsystems des Viergelenks A.4. Homokinetisches Gelenk als Subsystem / Using methods from sparse matrice theory, O(n³)- and O(n)-algorithms for multibody systems are derived from the equations of motion. The concept of Dual Bases reveals that efficient algorithms for explicit joint descriptions, regarding calculation time, may also be applied to systems which use implicit joint constraints. Consequently, the feasibility of implementing these results in Modelica is examined. This leads to new approaches which enable selected Modelica compilers to solve large multibody systems more efficiently. On the one hand side a graph-theoretic generalization of the O(n)-algorithm has been implemented into the OpenModelica compiler. On the other hand, a method of subsystems for the O(n)-algorithm has been devised. It allows to derive the model equations for arbitrary complex sub-systems which can be implemented as new model elements for an O(n)-algorithm library. This has been carried out for recurring kinematic loops of Mobile Machinery improving simulation speed considerably. Furthermore, it is shown that a fast and robust model of an ideal constant velocity joint can be derived that way.:1. Einleitung 1.1. Motivation 1.2. Präzisierung der Aufgabe 1.3. Aufbau der Arbeit 2. Mechanik der Mehrkörpersysteme 2.1. Bewegungsgleichung des starren Körpers 2.2. Beschreibung einer Bindung 2.3. Bewegungsgleichung eines Mehrkörpersystems 2.4. Zusammenfassung zur Mechanik der Mehrkörpersysteme 3. Lösungsalgorithmen für Mehrkörpersysteme 3.1. Die Graphen eines Mehrkörpersystems 3.2. Lösungsalgorithmen für Systeme mit Baumstruktur 3.3. Lösungsalgorithmen am Beispiel einer ebenen Pendelkette 3.4. Berücksichtigung kinematischer Schleifen 3.5. Zusammenfassung der Lösungsalgorithmen eines Mehrkörpersystems 4. Effiziente Berechnung von Mehrkörpersystemen 4.1. Berechnung von Mehrkörpersystemen basierend auf Modelica 4.2. O(n)-Algorithmus für Modelica Compiler 4.3. O(n)-Algorithmus für Bibliothekselemente 5. Zusammenfassung und Ausblick A. Anhang A.1. Grundlagen der Tensorrechnung A.2. Duale Basis einer Bindung A.3. Herleitung des Subsystems des Viergelenks A.4. Homokinetisches Gelenk als Subsystem
34

Störungssystematikbestimmte Instandhaltung in einem Wafertransportsystem

Niekisch, Torsten 16 November 2001 (has links)
Störungssystematikbestimmte Instandhaltung (SSBIH) in einem Wafertransportsystem In der vorliegenden Arbeit wird eine Instandhaltungsmethode beschrieben, mit welcher es im Wafertransportsystem von Infineon Dresden gelungen ist, die Anzahl sogenannter Traktionsprobleme innerhalb kürzester Zeit und mit minimalem Aufwand zu halbieren. Neben der Beschreibung der Umsetzung der Methode, wird vertiefend auf die theoretischen Grundlagen und die Voraussetzungen für die Anwendbarkeit eingegangen. Des weiteren wird anhand der Besonderheiten komplexer Logistiksyteme in der Halbleiterfertigung erläutert, weshalb diese zustandsbestimmte Instandhaltungsstrategie bisher nicht zum allgemeinen Stand der Technik gehörte. Es werden Beispiele für eine Übertragbarkeit angeführt. Eine solche ist insbesondere dann gegeben, wenn das Störungsverhalten auf Toleranzsystemen basiert, in welchen vollständige Austauschbarkeit nicht nur gefordert, sondern ein Großteil der möglichen Elementepaarungen auch tatsächlich getestet wird. Im hier beschriebenen Fall fanden pro Tag ca. 750 000 Ereignisse zwischen ca. 4500 Conveyorelementen und mehr als 10 000 Transportcarriern statt. (Anlagen: Carriertraktionsprobleme, Microsoft-Access-DB, 29,4 MB ; Conveyorstörungen, Microsoft-Access-DB, 22,9 MB ; Stockerstörungen, Microsoft-Access-DB, 22,6 MB ; Verteilungsfunktion, Microsoft-Access-DB, 514 KB ; Störungsentwicklung, Microsoft Excel-Tabelle, 2,03 MB -- Nutzung: Referat Informationsvermittlung der SLUB)
35

Signal transmission in stochastic neuron models with non-white or non-Gaussian noise

Droste, Felix 02 September 2015 (has links)
Die vorliegende Arbeit befasst sich mit dem Einfluss von nicht-weißem oder nicht-Gauß’schem synaptischen Rauschen auf die Informationsübertragung in stochastischen Neuronenmodellen. Ziel ist es, zu verstehen, wie eine Nervenzelle ein Signal in ihrer Pulsaktivität kodiert. Synaptisches Rauschen beschreibt hier den Einfluss anderer Nervenzellen, die nicht das interessierende Signal tragen, aber seine Übertragung durch ihre synaptische Wirkung auf die betrachtete Zelle beeinflussen. In stochastischen Neuronenmodellen wird diese Hintergrundaktivität durch einen stochastischen Prozess mit geeigneter Statistik beschrieben. Ist die Rate, mit der präsynaptische Pulse auftreten, hoch und zeitlich konstant, die Wirkung einzelner Pulse aber verschwindend gering, so wird das synaptische Rauschen durch einen Gauß’schen Prozess beschrieben. Oft wird zudem angenommen, dass das Rauschen unkorreliert (weiß) ist. In dieser Arbeit wird neuronale Signalübertragung in dem Fall untersucht, dass eine solche Näherung nicht mehr gerechtfertigt ist, d.h. wenn der synaptische Hintergrund durch einen stochastischen Prozess beschrieben werden muss, der nicht weiß, nicht Gauß’sch, oder weder weiß noch Gauß’sch ist. Mittels Simulationen und analytischer Rechnungen werden drei Szenarien behandelt: Zunächst betrachten wir eine Zelle, die nicht ein, sondern zwei Signale empfängt, welche zusätzlich durch synaptische Kurzzeitplastizität gefiltert werden. In diesem Fall muss der Hintergrund durch ein farbiges Rauschen beschrieben werden. Im zweiten Szenario betrachten wir den Fall, dass der Effekt einzelner Pulse nicht mehr als schwach angenommen werden kann. Das Rauschen ist dann nicht mehr Gauß’sch, sondern ein Schrotrauschen. Schließlich untersuchen wir den Einfluss einer präsynaptischen Population, deren Feuerrate nicht zeitlich konstant ist, sondern zwischen Phasen hoher und niedriger Aktivität, sogenannten up und down states, springt. In diesem Fall ist das Rauschen weder weiß noch Gauß’sch. / This thesis is concerned with the effect of non-white or non-Gaussian synaptic noise on the information transmission properties of single neurons. Synaptic noise subsumes the massive input that a cell receives from thousands of other neurons. In the framework of stochastic neuron models, this input is described by a stochastic process with suitably chosen statistics. If the overall arrival rate of presynaptic action potentials is high and constant in time and if each individual incoming spike has only a small effect on the dynamics of the cell, the massive synaptic input can be modeled as a Gaussian process. For mathematical tractability, one often assumes that furthermore, the input is devoid of temporal structure, i.e. that it is well described by a Gaussian white noise. This is the so-called diffusion approximation (DA). The present thesis explores neuronal signal transmission when the conditions that underlie the DA are no longer met, i.e. when one must describe the synaptic background activity by a stochastic process that is not white, not Gaussian, or neither. We explore three distinct scenarios by means of simulations and analytical calculations: First, we study a cell that receives not one but two signals, additionally filtered by synaptic short-term plasticity (STP), so that the background has to be described by a colored noise. The second scenario deals with synaptic weights that cannot be considered small; here, the effective noise is no longer Gaussian and the shot-noise nature of the input has to be taken into account. Finally, we study the effect of a presynaptic population that does not fire at a rate which is constant in time but instead undergoes transitions between states of high and low activity, so-called up and down states.
36

3-D inversion of helicopter-borne electromagnetic data

Scheunert, Mathias 19 January 2016 (has links) (PDF)
In an effort to improve the accuracy of common 1-D analysis for frequency domain helicopter-borne electromagnetic data at reasonable computing costs, a 3-D inversion approach is developed. The strategy is based on the prior localization of an entire helicopter-borne electromagnetic survey to parts which are actually affected by expected local 3-D anomalies and a separate inversion of those sections of the surveys (cut-&-paste strategy). The discrete forward problem, adapted from the complete Helmholtz equation, is formulated in terms of the secondary electric field employing the finite difference method. The analytical primary field calculation incorporates an interpolation strategy that allows to effectively handle the enormous number of transmitters. For solving the inverse problem, a straightforward Gauss-Newton method and a Tikhonov-type regularization scheme are applied. In addition, different strategies for the restriction of the domain where the inverse problem is solved are used as an implicit regularization. The derived linear least squares problem is solved with Krylov-subspace methods, such as the LSQR algorithm, that are able to deal with the inherent ill-conditioning. As the helicopter-borne electromagnetic problem is characterized by a unique transmitter-receiver relation, an explicit representation of the Jacobian matrix is used. It is shown that this ansatz is the crucial component of the 3-D HEM inversion. Furthermore, a tensor-based formulation is introduced that provides a fast update of the linear system of the forward problem and an effective handling of the sensitivity related algebraic quantities. Based on a synthetic data set of a predefined model problem, different application examples are used to demonstrate the principal functionality of the presented algorithm. Finally, the algorithm is applied to a data set obtained from a real field survey in the Northern German Lowlands. / Die vorliegende Arbeit beschäftigt sich mit der 3-D Inversion von Hubschrauberelektromagnetikdaten im Frequenzbereich. Das vorgestellte Verfahren basiert auf einer vorhergehenden Eingrenzung des Messgebiets auf diejenigen Bereiche, in denen tatsächliche 3-D Strukturen im Untergrund vermutet werden. Die Resultate der 3-D Inversion dieser Teilbereiche können im Anschluss wieder in die Ergebnisse der Auswertung des komplementären Gesamtdatensatzes integriert werden, welche auf herkömmlichen 1-D Verfahren beruht (sog. Cut-&-Paste-Strategie). Die Diskretisierung des Vorwärtsproblems, abgeleitet von einer Sekundärfeldformulierung der vollständigen Helmholtzgleichung, erfolgt mithilfe der Methode der Finiten Differenzen. Zur analytischen Berechnung der zugehörigen Primärfelder wird ein Interpolationsansatz verwendet, welcher den Umgang mit der enorm hohen Anzahl an Quellen ermöglicht. Die Lösung des inversen Problems basiert auf dem Gauß-Newton-Verfahren und dem Tichonow-Regularisierungsansatz. Als Mittel der zusätzlichen impliziten Regularisierung dient eine räumliche Eingrenzung des Gebiets, auf welchem das inverse Problem gelöst wird. Zur iterativen Lösung des zugrundeliegenden Kleinste-Quadrate-Problems werden Krylov-Unterraum-Verfahren, wie der LSQR Algorithmus, verwendet. Aufgrund der charakteristischen Sender-Empfänger-Beziehung wird eine explizit berechnete Jakobimatrix genutzt. Ferner wird eine tensorbasierte Problemformulierung vorgestellt, welche die schnelle Assemblierung leitfähigkeitsabhängiger Systemmatrizen und die effektive Handhabung der zur Berechnung der Jakobimatrix notwendigen algebraischen Größen ermöglicht. Die Funktionalität des beschriebenen Ansatzes wird anhand eines synthetischen Datensatzes zu einem definierten Testproblem überprüft. Abschließend werden Inversionsergebnisse zu Felddaten gezeigt, welche im Norddeutschen Tiefland erhoben worden.
37

Transformation model selection by multiple hypotheses testing

Lehmann, Rüdiger 17 October 2016 (has links) (PDF)
Transformations between different geodetic reference frames are often performed such that first the transformation parameters are determined from control points. If in the first place we do not know which of the numerous transformation models is appropriate then we can set up a multiple hypotheses test. The paper extends the common method of testing transformation parameters for significance, to the case that also constraints for such parameters are tested. This provides more flexibility when setting up such a test. One can formulate a general model with a maximum number of transformation parameters and specialize it by adding constraints to those parameters, which need to be tested. The proper test statistic in a multiple test is shown to be either the extreme normalized or the extreme studentized Lagrange multiplier. They are shown to perform superior to the more intuitive test statistics derived from misclosures. It is shown how model selection by multiple hypotheses testing relates to the use of information criteria like AICc and Mallows’ Cp, which are based on an information theoretic approach. Nevertheless, whenever comparable, the results of an exemplary computation almost coincide.
38

3-D inversion of helicopter-borne electromagnetic data

Scheunert, Mathias 27 November 2015 (has links)
In an effort to improve the accuracy of common 1-D analysis for frequency domain helicopter-borne electromagnetic data at reasonable computing costs, a 3-D inversion approach is developed. The strategy is based on the prior localization of an entire helicopter-borne electromagnetic survey to parts which are actually affected by expected local 3-D anomalies and a separate inversion of those sections of the surveys (cut-&-paste strategy). The discrete forward problem, adapted from the complete Helmholtz equation, is formulated in terms of the secondary electric field employing the finite difference method. The analytical primary field calculation incorporates an interpolation strategy that allows to effectively handle the enormous number of transmitters. For solving the inverse problem, a straightforward Gauss-Newton method and a Tikhonov-type regularization scheme are applied. In addition, different strategies for the restriction of the domain where the inverse problem is solved are used as an implicit regularization. The derived linear least squares problem is solved with Krylov-subspace methods, such as the LSQR algorithm, that are able to deal with the inherent ill-conditioning. As the helicopter-borne electromagnetic problem is characterized by a unique transmitter-receiver relation, an explicit representation of the Jacobian matrix is used. It is shown that this ansatz is the crucial component of the 3-D HEM inversion. Furthermore, a tensor-based formulation is introduced that provides a fast update of the linear system of the forward problem and an effective handling of the sensitivity related algebraic quantities. Based on a synthetic data set of a predefined model problem, different application examples are used to demonstrate the principal functionality of the presented algorithm. Finally, the algorithm is applied to a data set obtained from a real field survey in the Northern German Lowlands. / Die vorliegende Arbeit beschäftigt sich mit der 3-D Inversion von Hubschrauberelektromagnetikdaten im Frequenzbereich. Das vorgestellte Verfahren basiert auf einer vorhergehenden Eingrenzung des Messgebiets auf diejenigen Bereiche, in denen tatsächliche 3-D Strukturen im Untergrund vermutet werden. Die Resultate der 3-D Inversion dieser Teilbereiche können im Anschluss wieder in die Ergebnisse der Auswertung des komplementären Gesamtdatensatzes integriert werden, welche auf herkömmlichen 1-D Verfahren beruht (sog. Cut-&-Paste-Strategie). Die Diskretisierung des Vorwärtsproblems, abgeleitet von einer Sekundärfeldformulierung der vollständigen Helmholtzgleichung, erfolgt mithilfe der Methode der Finiten Differenzen. Zur analytischen Berechnung der zugehörigen Primärfelder wird ein Interpolationsansatz verwendet, welcher den Umgang mit der enorm hohen Anzahl an Quellen ermöglicht. Die Lösung des inversen Problems basiert auf dem Gauß-Newton-Verfahren und dem Tichonow-Regularisierungsansatz. Als Mittel der zusätzlichen impliziten Regularisierung dient eine räumliche Eingrenzung des Gebiets, auf welchem das inverse Problem gelöst wird. Zur iterativen Lösung des zugrundeliegenden Kleinste-Quadrate-Problems werden Krylov-Unterraum-Verfahren, wie der LSQR Algorithmus, verwendet. Aufgrund der charakteristischen Sender-Empfänger-Beziehung wird eine explizit berechnete Jakobimatrix genutzt. Ferner wird eine tensorbasierte Problemformulierung vorgestellt, welche die schnelle Assemblierung leitfähigkeitsabhängiger Systemmatrizen und die effektive Handhabung der zur Berechnung der Jakobimatrix notwendigen algebraischen Größen ermöglicht. Die Funktionalität des beschriebenen Ansatzes wird anhand eines synthetischen Datensatzes zu einem definierten Testproblem überprüft. Abschließend werden Inversionsergebnisse zu Felddaten gezeigt, welche im Norddeutschen Tiefland erhoben worden.
39

Transformation model selection by multiple hypotheses testing

Lehmann, Rüdiger January 2014 (has links)
Transformations between different geodetic reference frames are often performed such that first the transformation parameters are determined from control points. If in the first place we do not know which of the numerous transformation models is appropriate then we can set up a multiple hypotheses test. The paper extends the common method of testing transformation parameters for significance, to the case that also constraints for such parameters are tested. This provides more flexibility when setting up such a test. One can formulate a general model with a maximum number of transformation parameters and specialize it by adding constraints to those parameters, which need to be tested. The proper test statistic in a multiple test is shown to be either the extreme normalized or the extreme studentized Lagrange multiplier. They are shown to perform superior to the more intuitive test statistics derived from misclosures. It is shown how model selection by multiple hypotheses testing relates to the use of information criteria like AICc and Mallows’ Cp, which are based on an information theoretic approach. Nevertheless, whenever comparable, the results of an exemplary computation almost coincide.

Page generated in 0.0284 seconds