• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 2
  • Tagged with
  • 6
  • 6
  • 6
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Im Schwerpunkt der Anschlusspunkte – Zur Genauigkeit geodätischer Koordinatentransformationen / In the centre of gravity of the control points - on the accuracy of geodetic coordinate transformations

Lehmann, Rüdiger 22 January 2015 (has links) (PDF)
Eine in der Geoda¨sie bekannte Regel besagt, dass die Genauigkeit zu transformierender Neupunkte im Schwerpunkt der Anschlusspunkte am höchsten ist. Weniger bekannt ist, unter welchen Voraussetzungen dies generell gilt. Allgemein unbekannt ist bisher, auf welche Koordinatentransformationen man diese Regel ausdehnen kann. Wir zeigen dies auf und untersuchen einen Fall, in dem diese Regel nicht gilt. Es stellt sich heraus, dass der am genauesten transformierbare Neupunkt theoretisch sogar außerhalb der konvexen Hülle der Anschlusspunkte liegen kann. / A rule well-known in Geodesy states that the accuracy of points to be transformed is best in the centre of gravity of the control points. Less well- known is, under which conditions this rule gen- erally applies. The exact set of coordinate transforms, to which we can extend the validity of this rule, is widelyunknown. We demonstrate this and investigate a case, in which this rule does not apply. It turns out that the most accurately transformable point be even be located outside the convex hull of the control points.
2

Geodätische Fehlerrechnung mit der skalenkontaminierten Normalverteilung / Geodetic Error Calculus by the Scale Contaminated Normal Distribution

Lehmann, Rüdiger 22 January 2015 (has links) (PDF)
Geodätische Messabweichungen werden oft gut durch Wahrscheinlichkeitsverteilungen beschrieben, die steilgipfliger als die Gaußsche Normalverteilung sind. Das gilt besonders, wenn grobe Messabweichungen nicht völlig ausgeschlossen werden können. Neben einigen in der Geodäsie bisher verwendeten Verteilungen (verallgemeinerte Normalverteilung, Hubers Verteilung) diskutieren wir hier die skalenkontaminierte Normalverteilung, die für die praktische Rechnung einige Vorteile bietet. / Geodetic measurement errors are frequently well described by probability distributions, which are more peak-shaped than the Gaussian normal distribution. This is especially true when gross errors cannot be excluded. Besides some distributions used so far in geodesy (generalized normal distribution, Huber’s distribution) we discuss the scale contaminated normal distribution, which offers some advantages in practical calculations.
3

Improved critical values for extreme normalized and studentized residuals in Gauss-Markov models / Verbesserte kritische Werte für extreme normierte und studentisierte Verbesserungen in Gauß-Markov-Modellen

Lehmann, Rüdiger 06 August 2014 (has links) (PDF)
We investigate extreme studentized and normalized residuals as test statistics for outlier detection in the Gauss-Markov model possibly not of full rank. We show how critical values (quantile values) of such test statistics are derived from the probability distribution of a single studentized or normalized residual by dividing the level of error probability by the number of residuals. This derivation neglects dependencies between the residuals. We suggest improving this by a procedure based on the Monte Carlo method for the numerical computation of such critical values up to arbitrary precision. Results for free leveling networks reveal significant differences to the values used so far. We also show how to compute those critical values for non‐normal error distributions. The results prove that the critical values are very sensitive to the type of error distribution. / Wir untersuchen extreme studentisierte und normierte Verbesserungen als Teststatistik für die Ausreißererkennung im Gauß-Markov-Modell von möglicherweise nicht vollem Rang. Wir zeigen, wie kritische Werte (Quantilwerte) solcher Teststatistiken von der Wahrscheinlichkeitsverteilung einer einzelnen studentisierten oder normierten Verbesserung abgeleitet werden, indem die Irrtumswahrscheinlichkeit durch die Anzahl der Verbesserungen dividiert wird. Diese Ableitung vernachlässigt Abhängigkeiten zwischen den Verbesserungen. Wir schlagen vor, diese Prozedur durch Einsatz der Monte-Carlo-Methode zur Berechnung solcher kritischen Werte bis zu beliebiger Genauigkeit zu verbessern. Ergebnisse für freie Höhennetze zeigen signifikante Differenzen zu den bisher benutzten Werten. Wir zeigen auch, wie man solche Werte für nicht-normale Fehlerverteilungen berechnet. Die Ergebnisse zeigen, dass die kritischen Werte sehr empfindlich auf den Typ der Fehlerverteilung reagieren.
4

The 3σ-rule for outlier detection from the viewpoint of geodetic adjustment

Lehmann, Rüdiger 21 January 2015 (has links) (PDF)
The so-called 3σ-rule is a simple and widely used heuristic for outlier detection. This term is a generic term of some statistical hypothesis tests whose test statistics are known as normalized or studentized residuals. The conditions, under which this rule is statistically substantiated, were analyzed, and the extent it applies to geodetic least-squares adjustment was investigated. Then, the efficiency or non-efficiency of this method was analyzed and demonstrated on the example of repeated observations. / Die sogenannte 3σ-Regel ist eine einfache und weit verbreitete Heuristik für die Ausreißererkennung. Sie ist ein Oberbegriff für einige statistische Hypothesentests, deren Teststatistiken als normierte oder studentisierte Verbesserungen bezeichnet werden. Die Bedingungen, unter denen diese Regel statistisch begründet ist, werden analysiert. Es wird untersucht, inwieweit diese Regel auf geodätische Ausgleichungsprobleme anwendbar ist. Die Effizienz oder Nichteffizienz dieser Methode wird analysiert und demonstriert am Beispiel von Wiederholungsmessungen.
5

Testing the compatibility of constraints for parameters of a geodetic adjustment model

Lehmann, Rüdiger, Neitzel, Frank 06 August 2014 (has links) (PDF)
Geodetic adjustment models are often set up in a way that the model parameters need to fulfil certain constraints. The normalized Lagrange multipliers have been used as a measure of the strength of constraint in such a way that if one of them exceeds in magnitude a certain threshold then the corresponding constraint is likely to be incompatible with the observations and the rest of the constraints. We show that these and similar measures can be deduced as test statistics of a likelihood ratio test of the statistical hypothesis that some constraints are incompatible in the same sense. This has been done before only for special constraints (Teunissen in Optimization and Design of Geodetic Networks, pp. 526–547, 1985). We start from the simplest case, that the full set of constraints is to be tested, and arrive at the advanced case, that each constraint is to be tested individually. Every test is worked out both for a known as well as for an unknown prior variance factor. The corresponding distributions under null and alternative hypotheses are derived. The theory is illustrated by the example of a double levelled line. / Geodätische Ausgleichungsmodelle werden oft auf eine Weise formuliert, bei der die Modellparameter bestimmte Bedingungsgleichungen zu erfüllen haben. Die normierten Lagrange-Multiplikatoren wurden bisher als Maß für den ausgeübten Zwang verwendet, und zwar so, dass wenn einer von ihnen betragsmäßig eine bestimmte Schwelle übersteigt, dann ist davon auszugehen, dass die zugehörige Bedingungsgleichung nicht mit den Beobachtungen und den restlichen Bedingungsgleichungen kompatibel ist. Wir zeigen, dass diese und ähnliche Maße als Teststatistiken eines Likelihood-Quotiententests der statistischen Hypothese, dass einige Bedingungsgleichungen in diesem Sinne inkompatibel sind, abgeleitet werden können. Das wurde bisher nur für spezielle Bedingungsgleichungen getan (Teunissen in Optimization and Design of Geodetic Networks, pp. 526–547, 1985). Wir starten vom einfachsten Fall, dass die gesamte Menge der Bedingungsgleichungen getestet werden muss, und gelangen zu dem fortgeschrittenen Problem, dass jede Bedingungsgleichung individuell zu testen ist. Jeder Test wird sowohl für bekannte, wie auch für unbekannte a priori Varianzfaktoren ausgearbeitet. Die zugehörigen Verteilungen werden sowohl unter der Null- wie auch unter der Alternativhypthese abgeleitet. Die Theorie wird am Beispiel einer Doppelnivellementlinie illustriert.
6

On the formulation of the alternative hypothesis for geodetic outlier detection / Über die Formulierung der Alternativhypothese für die geodätische Ausreißererkennung

Lehmann, Rüdiger 24 July 2014 (has links) (PDF)
The concept of outlier detection by statistical hypothesis testing in geodesy is briefly reviewed. The performance of such tests can only be measured or optimized with respect to a proper alternative hypothesis. Firstly, we discuss the important question whether gross errors should be treated as non-random quantities or as random variables. In the first case, the alternative hypothesis must be based on the common mean shift model, while in the second case, the variance inflation model is appropriate. Secondly, we review possible formulations of alternative hypotheses (inherent, deterministic, slippage, mixture) and discuss their implications. As measures of optimality of an outlier detection, we propose the premium and protection, which are briefly reviewed. Finally, we work out a practical example: the fit of a straight line. It demonstrates the impact of the choice of an alternative hypothesis for outlier detection. / Das Konzept der Ausreißererkennung durch statistische Hypothesentests in der Geodäsie wird kurz überblickt. Die Leistungsfähigkeit solch eines Tests kann nur gemessen oder optimiert werden in Bezug auf eine geeignete Alternativhypothese. Als erstes diskutieren wir die wichtige Frage, ob grobe Fehler als nicht-zufällige oder zufällige Größen behandelt werden sollten. Im ersten Fall muss die Alternativhypothese auf das Mean-Shift-Modell gegründet werden, im zweiten Fall ist das Variance-Inflation-Modell passend. Als zweites stellen wir mögliche Formulierungen von Alternativhypothesen zusammen und diskutieren ihre Implikationen. Als Optimalitätsmaß schlagen wir das Premium-Protection-Maß vor, welches kurz überblickt wird. Schließlich arbeiten wir ein praktisches Beispiel aus: Die Anpassung einer ausgleichenden Gerade. Es zeigt die Auswirkung der Wahl einer Alternativhypothese für die Ausreißererkennung.

Page generated in 1.6117 seconds