• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 32
  • 17
  • 2
  • 1
  • Tagged with
  • 52
  • 52
  • 36
  • 20
  • 17
  • 12
  • 12
  • 8
  • 8
  • 8
  • 6
  • 6
  • 6
  • 6
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Improved critical values for extreme normalized and studentized residuals in Gauss-Markov models

Lehmann, Rüdiger January 2012 (has links)
We investigate extreme studentized and normalized residuals as test statistics for outlier detection in the Gauss-Markov model possibly not of full rank. We show how critical values (quantile values) of such test statistics are derived from the probability distribution of a single studentized or normalized residual by dividing the level of error probability by the number of residuals. This derivation neglects dependencies between the residuals. We suggest improving this by a procedure based on the Monte Carlo method for the numerical computation of such critical values up to arbitrary precision. Results for free leveling networks reveal significant differences to the values used so far. We also show how to compute those critical values for non‐normal error distributions. The results prove that the critical values are very sensitive to the type of error distribution. / Wir untersuchen extreme studentisierte und normierte Verbesserungen als Teststatistik für die Ausreißererkennung im Gauß-Markov-Modell von möglicherweise nicht vollem Rang. Wir zeigen, wie kritische Werte (Quantilwerte) solcher Teststatistiken von der Wahrscheinlichkeitsverteilung einer einzelnen studentisierten oder normierten Verbesserung abgeleitet werden, indem die Irrtumswahrscheinlichkeit durch die Anzahl der Verbesserungen dividiert wird. Diese Ableitung vernachlässigt Abhängigkeiten zwischen den Verbesserungen. Wir schlagen vor, diese Prozedur durch Einsatz der Monte-Carlo-Methode zur Berechnung solcher kritischen Werte bis zu beliebiger Genauigkeit zu verbessern. Ergebnisse für freie Höhennetze zeigen signifikante Differenzen zu den bisher benutzten Werten. Wir zeigen auch, wie man solche Werte für nicht-normale Fehlerverteilungen berechnet. Die Ergebnisse zeigen, dass die kritischen Werte sehr empfindlich auf den Typ der Fehlerverteilung reagieren.
32

Dynamical characterization of Markov processes with varying order

Bauer, Michael 26 January 2009 (has links) (PDF)
Time-delayed actions appear as an essential component of numerous systems especially in evolution processes, natural phenomena, and particular technical applications and are associated with the existence of a memory. Under common conditions, external forces or state dependent parameters modify the length of the delay with time. Consequently, an altered dynamical behavior emerges, whose characterization is compulsory for a deeper understanding of these processes. In this thesis, the well-investigated class of time-homogeneous finite-state Markov processes is utilized to establish a variation of memory length by combining a first-order Markov chain with a memoryless Markov chain of order zero. The fluctuations induce a non-stationary process, which is accomplished for two special cases: a periodic and a random selection of the available Markov chains. For both cases, the Kolmogorov-Sinai entropy as a characteristic property is deduced analytically and compared to numerical approximations to the entropy rate of related symbolic dynamics. The convergences of per-symbol and conditional entropies are examined in order to recognize their behavior when identifying unknown processes. Additionally, the connection from Markov processes with varying memory length to hidden Markov models is illustrated enabling further analysis. Hence, the Kolmogorov-Sinai entropy of hidden Markov chains is calculated by means of Blackwell’s entropy rate involving Blackwell’s measure. These results are used to verify the previous computations.
33

Automatische Erkennung von Zuständen in Anthropomatiksystemen

Moldenhauer, Jörg January 2005 (has links)
Zugl.: Karlsruhe, Univ., Diss., 2005
34

Automatische Erkennung von Zuständen in Anthropomatiksystemen

Moldenhauer, Jörg. January 2006 (has links)
Universiẗat, Diss., 2005--Karlsruhe.
35

Training of Hidden Markov models as an instance of the expectation maximization algorithm

Majewsky, Stefan 27 July 2017 (has links) (PDF)
In Natural Language Processing (NLP), speech and text are parsed and generated with language models and parser models, and translated with translation models. Each model contains a set of numerical parameters which are found by applying a suitable training algorithm to a set of training data. Many such training algorithms are instances of the Expectation-Maximization (EM) algorithm. In [BSV15], a generic EM algorithm for NLP is described. This work presents a particular speech model, the Hidden Markov model, and its standard training algorithm, the Baum-Welch algorithm. It is then shown that the Baum-Welch algorithm is an instance of the generic EM algorithm introduced by [BSV15], from which follows that all statements about the generic EM algorithm also apply to the Baum-Welch algorithm, especially its correctness and convergence properties.
36

Human Gait Phase Recognition in Embedded Sensor System

Liu, Zhenbang January 2021 (has links)
Gait analysis can improve our understanding of gait to improve medical diagnosis or treatment in clinical assessment. Studying the gait cycle in an embedded sensor system is essential for the detection of any abnormal walking pattern. This project aims to investigate several methods for gait phase recognition on embedded systems based on Hidden Markov Model (HMM) and Long short term memory (LSTM). This project proposes three methods, single HMM, multiple HMMs, and LSTM models, to identify the phase number in one gait. Single HMM has been constructed with the unit of gait via HMM learning. The corresponding phase number in the hidden state sequence can be selected for the observations via HMM decoding. Multiple HMMs have been constructed with the unit of phase instead of gait via HMM learning. The HMM evaluation can select the corresponding phase number in the hidden state sequence with the largest log- likelihood. Frame blocking and windowing function is also applied to evaluate these two methods. Estimation, validation, and forecast are implemented in the LSTM method as a benchmark. After comparing and evaluating the three methods for phase inference in terms of execution time, accuracy, and limitations, the method with multiple HMMs can provide satisfactory accuracy of gait phase number recognition in a relatively short time. It can be concluded that the multiple HMMs method may be more suitable for application in this phase inference scenario on the embedded sensor processing systems if the timing requirement is not so stringent. / Gånganalys kan förbättra vår förståelse för gång för att förbättra medicinsk diagnos eller behandling vid klinisk bedömning. Att studera gångcykeln i ett inbyggt sensorsystem är avgörande för detektering av onormalt gångmönster. Detta projekt syftar till att undersöka flera metoder för gångfasinferens på inbäddade system baserat på Hidden Markov Model (HMM) och Long short term memory (LSTM). I detta projekt har tre metoder, enstaka HMM, flera HMM och LSTM-modeller, föreslagits för att identifiera fasnumret i en gång. Enstaka HMM har konstruerats med gångenheten via HMM-lärande. Motsvarande fasnummer i den dolda tillståndssekvensen kan väljas för observationerna via HMM-avkodning. Flera HMM har konstruerats med fasenheten istället för gång via HMM-lärande. Motsvarande fasnummer i den dolda tillståndssekvensen kan väljas med störst logsannolikhet via HMM-utvärdering. Frame Blocking och Windowing-funktionen används också för att utvärdera dessa två metoder. Uppskattning, validering och prognos implementeras i LSTM-metoden som ett riktmärke. Efter att ha jämfört och utvärderat de tre metoderna för fasinferens när det gäller exekveringstid, noggrannhet och begränsningar kan metoden med flera HMM: er uppnå tillfredsställande noggrannhet för fasnummerigenkänning på relativt kort tid. Vi kan dra slutsatsen att den flera HMM-metoden kan vara mer lämplig för tillämpning i detta fasinferensscenario på de inbyggda sensorbehandlingssystemen om tidskravet inte är så strikt.
37

Improvement of the jpHMM approach to recombination detection in viral genomes and its application to HIV and HBV / Verbesserung des jpHMM-Ansatzes zur Rekombinationsvorhersage in viralen Genomen und dessen Anwendung auf HIV und HBV

Schultz, Anne-Kathrin 27 April 2011 (has links)
No description available.
38

Testing the compatibility of constraints for parameters of a geodetic adjustment model

Lehmann, Rüdiger, Neitzel, Frank 06 August 2014 (has links) (PDF)
Geodetic adjustment models are often set up in a way that the model parameters need to fulfil certain constraints. The normalized Lagrange multipliers have been used as a measure of the strength of constraint in such a way that if one of them exceeds in magnitude a certain threshold then the corresponding constraint is likely to be incompatible with the observations and the rest of the constraints. We show that these and similar measures can be deduced as test statistics of a likelihood ratio test of the statistical hypothesis that some constraints are incompatible in the same sense. This has been done before only for special constraints (Teunissen in Optimization and Design of Geodetic Networks, pp. 526–547, 1985). We start from the simplest case, that the full set of constraints is to be tested, and arrive at the advanced case, that each constraint is to be tested individually. Every test is worked out both for a known as well as for an unknown prior variance factor. The corresponding distributions under null and alternative hypotheses are derived. The theory is illustrated by the example of a double levelled line. / Geodätische Ausgleichungsmodelle werden oft auf eine Weise formuliert, bei der die Modellparameter bestimmte Bedingungsgleichungen zu erfüllen haben. Die normierten Lagrange-Multiplikatoren wurden bisher als Maß für den ausgeübten Zwang verwendet, und zwar so, dass wenn einer von ihnen betragsmäßig eine bestimmte Schwelle übersteigt, dann ist davon auszugehen, dass die zugehörige Bedingungsgleichung nicht mit den Beobachtungen und den restlichen Bedingungsgleichungen kompatibel ist. Wir zeigen, dass diese und ähnliche Maße als Teststatistiken eines Likelihood-Quotiententests der statistischen Hypothese, dass einige Bedingungsgleichungen in diesem Sinne inkompatibel sind, abgeleitet werden können. Das wurde bisher nur für spezielle Bedingungsgleichungen getan (Teunissen in Optimization and Design of Geodetic Networks, pp. 526–547, 1985). Wir starten vom einfachsten Fall, dass die gesamte Menge der Bedingungsgleichungen getestet werden muss, und gelangen zu dem fortgeschrittenen Problem, dass jede Bedingungsgleichung individuell zu testen ist. Jeder Test wird sowohl für bekannte, wie auch für unbekannte a priori Varianzfaktoren ausgearbeitet. Die zugehörigen Verteilungen werden sowohl unter der Null- wie auch unter der Alternativhypthese abgeleitet. Die Theorie wird am Beispiel einer Doppelnivellementlinie illustriert.
39

Versorgungsqualität im Krankenhaus, Sekundärprophylaxe, Kosten

Milde, Sonja 02 August 2011 (has links) (PDF)
1. Ziel Schlaganfall ist mit deutschlandweit jährlich bis zu 200.000 neuen Fällen ein weit verbreitetes Krankheitsbild. Schlaganfall führt häufig zu neurologischen Schädigungen, Pflegebedürftigkeit oder zum Tod. Das Statistische Bundesamt beziffert die Ausgaben für Schlaganfälle (Hirninfarkte, Schlaganfälle, die nicht als Blutung oder Infarkt bezeichnet werden, Subarachnoidalblutungen und intrazerebrale Blutungen) auf 5,875 Milliarden Euro im Jahr (2008). In entwickelten Ländern entfallen ca. 3% der Gesundheitsausgaben auf Schlaganfall. Vor diesem Hintergrund interessiert, welche Faktoren Sterblichkeit und Pflegebedürftigkeit nach Schlaganfall sowie die Versorgungskosten von Schlaganfallpatienten beeinflussen. Die vorliegende Analyse setzte sich zum Ziel, diese Frage anhand einer retrospektiven, empirischen Analyse von fast 13.000 hessischen Schlaganfallpatienten der Jahre 2005 bis 2007 zu beantworten. Im Einzelnen wird analysiert, (1) welche Faktoren schlechtes Outcome nach der akutstationären Versorgung beeinflussen, (2) welche Faktoren hinsichtlich akutstationärer Versorgungsqualität bzw. hinsichtlich der nachstationären Versorgung das Überleben nach Schlaganfall beeinflussen und (3) welche Aspekte die aus Sicht der Kranken- und Pflegeversicherung entstehenden Versorgungskosten von Schlaganfallpatienten determinieren. Eine retrospektive Analyse der Versorgungsrealität für hessische Schlaganfallpatienten wird unter anderem folgende Detailfragen beantworten: Welche (patientenspezifischen) Faktoren begünstigen die Umsetzung von akutstationären Qualitätsindikatoren? Welche Aspekte verkürzen oder verlängern die Zeit zwischen Schlaganfall und Krankenhausaufnahme (Prähospitalisierungszeit)? Welche Patienten werden in Krankenhäusern mit neurologischen Fachabteilungen betreut und welche Patienten erhalten Rehabilitationsmaßnahmen? Darüber hinaus wird aufgezeigt, wie die Umsetzung von Empfehlungen zur medikamentösen Sekundärprophylaxe erfolgt. 2. Forschungsstand Für Deutschland wurden bereits mehrere Studien zum Outcome nach Schlaganfall durchgeführt. In den meisten Studien wurde das Outcome drei Monate nach Krankenhausentlassung analysiert [z. B. Schneider u. a. (2009), Marquart (2009),Weimar und Diener (2003), Audebert u. a. (2006)], wobei dann die untersuchte Stichprobe aufgrund des Erfassungsaufwandes jeweils bei maximal 3.000 Patienten lag. Einige Studien bewerteten dagegen das Outcome bei Krankenhausentlassung [z. B. Heuschmann u. a. (2004)]. Diesen Studien liegen zumeist Daten aus krankenhausbasierten Registern zugrunde, die eine breite Datenbasis bieten. Wenig Aussagen gibt es dagegen zur Umsetzung der Sekundärprophylaxe nach Schlaganfall [vgl. Schneider u. a. (2009)], gar keine zu deren Einfluss auf die Überlebenswahrscheinlichkeit. Verschiedene Qualitätsregister erfassen seit geraumer Zeit Qualitätsindikatoren für die akutstationäre Versorgung des Schlaganfalls. Inwieweit diese Qualitätsindikatoren jedoch Faktoren abbilden, die mittel- und/ oder langfristige Auswirkungen auf Outcome, Überlebenszeit oder Versorgungskosten haben, ist bisher nicht analysiert worden. Auch zu den Versorgungskosten des Schlaganfalls existieren aktuell nur wenige Studien, in denen eine detaillierte Darstellung von Teilkosten etwa für Pflegebedürftigkeit oder Krankhausaufenthalte aufgrund von Folgeerkrankungen fehlt. Eine Studie, in der Daten krankenhausbasierter Schlaganfallregister mit Abrechnungsdaten der Sozialversicherung verknüpft wurden, ist bisher nicht publiziert worden. 3. Vorgehensweise Die in vorliegender Analyse durchgeführte Verknüpfung der zwei genannten Datenquellen (krankenhausbasiertes Schlaganfallregister - Gesellschaft für Qualitätssicherung Hessen (GQH) und Daten eines Kostenträgers - AOK Hessen) ermöglicht neben einer externen Validierung der Daten die Auswertung von Langzeitdaten (hier: bis 2 Jahre) zu Mortalität und Kosten für eine große Stichprobe von Schlaganfallpatienten. Im Einzelnen werden folgende Fragestellungen untersucht: - Sind die zugrunde liegenden Daten valide? - Sind die hier betrachteten, bei der AOK Hessen versicherten Patienten mit den hessischen Schlaganfallpatienten vergleichbar? - Wie hoch ist die Neuerkrankungsrate bezüglich Schlaganfall? - Welche Prognose hat ein Schlaganfallpatient? - Wie teuer ist ein Schlaganfallpatient? - Welche Bedeutung hat Versorgungsqualität (Struktur- und Prozessqualität) in der akutversorgenden Einrichtung für Outcome und Überlebenszeit nach dem Schlaganfall? bzw. Sind die Indikatoren, die die Versorgungsqualität aktuell abbilden, prognoserelevant für Outcome und Überlebenszeit nach dem Schlaganfall? - Welche Kriterien beeinflussen die Prähospitalisierungszeit und die Wahl der akutversorgenden Einrichtung? - Welche Faktoren beeinflussen die Versorgungsqualität im Krankenhaus? - Wie beeinflusst die der akutstationären Versorgung folgende Versorgung (Rehabilitation, medikamentöse Sekundärprophylaxe, Integrierte Versorgung) die Prognose nach dem Schlaganfall? - Wie beeinflussen Versorgungsqualität und die der akutstationären Versorgung folgende Versorgung (Rehabilitation, medikamentöse Sekundärprophylaxe, Integrierte Versorgung) die Versorgungskosten nach dem Schlaganfall? - Welche Empfehlungen können für die Qualitätssicherung in der akutstationären Versorgung und die Nachbetreuung von Schlaganfallpatienten abgeleitet werden? Die Beantwortung der genannten Fragestellungen erfolgt unter Nutzung multivariater Regressionsmodelle zur Prognose nach dem Schlaganfall und zu den Versorgungskosten nach dem Schlaganfall. Ergänzend werden LOGIT-Modelle eingesetzt, mit deren Hilfe Faktoren ermittelt werden, die die Wahrscheinlichkeit schnell in einem Krankenhaus hoher Strukturqualität (d.h. in einem Krankenhaus mit neurologischer Fachabteilung) versorgt zu werden und die Wahrscheinlichkeit einer qualitativ hochwertigen Versorgung (gemessen in Qualitätsindikatoren) beeinflussen. Außerdem erfolgt eine detaillierte Analyse der Umsetzung medikamentöser Sekundärprophylaxe nach einem Schlaganfall oder einer Transitorischen Ischämischen Attacke (TIA). 4. Ergebnisse Die vorliegende Analyse ist geeignet, die Versorgungsrealität für Schlaganfall- und TIA-Patienten anhand einer vergleichsweise großen Teilgesamtheit dieser Patienten und über einen vergleichsweise großen Follow-Up-Zeitraum zu beschreiben und so Empfehlungen für weitergehende Analysen abzuleiten. Über ein Fünftel der hessischen Schlaganfall- und TIA-Patienten im Betrachtungszeitraum wurden im Median 556 Tage nach Schlaganfall, knapp 60% der Patienten wurden über einen Zwei-Jahreszeitraum analysiert. Im Rahmen der Analyse konnte gezeigt werden, dass die aus dem krankenhausbasierten Register stammenden Angaben zur medikamentösen Sekundärprophylaxe sich nur in geringem Ausmaß durch Abrechnungsdaten bestätigen lassen. Die Chance auf eine, gemessen an den erfassten Qualitätsindikatoren, hohe akutstationäre Versorgungsqualität ist deutlich höher, wenn die akutstationäre Versorgung in Krankenhäusern mit neurologischer Fachabteilung erfolgt. Erfolgt die Einlieferung ins Krankenhaus durch den Rettungsdienst, ist die Chance, innerhalb von drei Stunden nach dem Schlaganfall in einem solchen Krankenhaus behandelt zu werden, gegenüber Einlieferung durch einen anderen Arzt, ein anderes Krankenhaus oder Selbsteinweisung, deutlich erhöht. Fast alle von der GQH erfassten Qualitätsindikatoren haben hinsichtlich des Outcomes bei Krankenhausentlassung Prognoserelevanz. Einzelne Qualitätsindikatoren haben darüberhinaus direkten Einfluss auf die Überlebenszeit nach Schlaganfall. Innerhalb des ersten Jahres nach Schlaganfall verstirbt fast ein Fünftel der betrachteten Patienten, das sind gegenüber Menschen der gleichen Alters- und Geschlechtsgruppe mehr als dreimal so viele Todesfälle. Auf Basis der in der Analyse ermittelten Werte zur Neuerkrankungsrate bei Versicherten der AOK Hessen kann deutschlandweit von 250.000 neuen Schlaganfällen und TIAs ausgegangen werden. Bei Bewertung mit den in der Analyse ermittelten Ein-Jahres-Versorgungskosten ergeben sich für diese Patienten jährlich Kosten von 4,03 Mrd. EUR. Die Betreuung im Rahmen des hessischen Vertrags zur Integrierten Versorgung führte - das konnte die vorliegende Analyse zeigen - zu einer Verlängerung der Überlebenszeit nach Schlaganfall. Die Effekte der Integrierten Versorgung ergaben sich jedoch im Wesentlichen aus einer besseren Umsetzung der medikamentösen Sekundärprophylaxe und häufigeren rehabilitativen Maßnahmen. Aktuell gibt es insbesondere hinsichtlich der Umsetzung medikamentöser Sekundärprophylaxe Probleme an der Schnittstelle zwischen Krankenhausentlassung und der nachfolgenden Versorgung. Eine bessere Abstimmung an dieser Schnittstelle kann die Überlebenszeit nach Schlaganfall verlängern und zusätzlich zu Kosteneinsparungen (aus Sicht der Sozialversicherung) führen. Die Letalität nach Schlaganfall ist, gegenüber der Allgemeinbevölkerung, insbesondere im ersten halben Jahr nach Schlaganfall deutlich erhöht. In diesem Zeitraum entsteht auch der mit Abstand größte Teil der Versorgungskosten. Daher sollten sich Maßnahmen zur Optimierung der Sekundärprophylaxe auf diesen Zeitraum konzentrieren.
40

Models of Discrete-Time Stochastic Processes and Associated Complexity Measures / Modelle stochastischer Prozesse in diskreter Zeit und zugehörige Komplexitätsmaße

Löhr, Wolfgang 24 June 2010 (has links) (PDF)
Many complexity measures are defined as the size of a minimal representation in a specific model class. One such complexity measure, which is important because it is widely applied, is statistical complexity. It is defined for discrete-time, stationary stochastic processes within a theory called computational mechanics. Here, a mathematically rigorous, more general version of this theory is presented, and abstract properties of statistical complexity as a function on the space of processes are investigated. In particular, weak-* lower semi-continuity and concavity are shown, and it is argued that these properties should be shared by all sensible complexity measures. Furthermore, a formula for the ergodic decomposition is obtained. The same results are also proven for two other complexity measures that are defined by different model classes, namely process dimension and generative complexity. These two quantities, and also the information theoretic complexity measure called excess entropy, are related to statistical complexity, and this relation is discussed here. It is also shown that computational mechanics can be reformulated in terms of Frank Knight's prediction process, which is of both conceptual and technical interest. In particular, it allows for a unified treatment of different processes and facilitates topological considerations. Continuity of the Markov transition kernel of a discrete version of the prediction process is obtained as a new result.

Page generated in 0.0566 seconds