• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 37
  • 14
  • 8
  • 1
  • Tagged with
  • 60
  • 46
  • 41
  • 22
  • 22
  • 22
  • 22
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Stability Concepts of Networked Infrastructure Networks

Schultz, Paul 25 July 2018 (has links)
Aktuell unterliegt unsere Stromversorgung mit der Energiewende einer Transformation, welche letzten Endes auch Änderungen der Struktur des Stromnetzes bedingt. Jenes ist ein hochkomplexes System aus unzähligen Erzeugern und Verbrauchern die miteinander wechselwirken. Im Lichte dessen leiten sich, (nicht nur) für zukünftige Stromnetze, einige methodischen Fragen ab. Wie kann die Stabilität verschiedener Betriebszustände oder Szenarien miteinander verglichen werdem? Welches sind die neuralgischen Punkte eines Stromnetzes? Zu welchem Grad bestimmt die Netzwerkstruktur die Systemstabilität? Im Zentrum der vorliegenden Dissertation steht dabei das emergente Phänomen der Synchronisation in Oszillatornetzwerken sowie dessen Stabilität. Im Bezug auf Stromnetze ist die Synchronisation dadurch gekennzeichnet, dass alle Erzeuger und Verbraucher mit der Netzfrequenz im Takt schwingen. Mit probabilistischen Stabilitätsmaßen lässt sich die Systemstabilität auf verschiedene Art quantifizieren. Neben einer Untersuchung möglicher Beschränkungen werden zwei neue probabilistische Maße entwickelt. Dabei spielen insbesondere die Häufigkeit und Dauer von Störungen sowie die Einhaltung der Betriebsgrenzen eine Rolle. Weiterhin wird der Einfluss kleiner Netzwerkstrukturen, sogenannter Motive, auf die Stabilität herausgearbeitet. Hierzu werden die Stabilitätsmaße in statistischen Verfahren mit charakteristischen Größen aus der Netzwerktheorie verknüpft. Es zeigt sich dann, dass das Auftreten spezieller Motive die Systemstabilität erhöht, wohingegen andere diese herabsetzen. Diese Zusammenhänge zwischen Netzwerkmotiven und Stabilität der Synchronisation erweitern die Kenntnisse über Zusammenhänge zwischen Struktur und Stabilität komplexer Systeme. Darüber hinaus erweitern die neu entwickelten probabilistischen Stabilitätsmaße das Methodenspektrum der nichtlinearen Dynamik zur Stabilitätsanalyse, insbesondere für Systeme auf komplexen Netzwerken mit vielen Freiheitsgraden. / In the light of the energy transition, power systems undergo a major transformation enabled by appropriate modifications of the grid’s underlying structure. This network constitutes the complex interaction of numerous producers and consumers. The power grid is additionally subject to intermittent disturbances that also include large deviations. These aspects prompt methodological problems for (future) power grids in particular and complex systems in general. How can the stability of different operating points or scenarios be compared? What are the critical components of the network? To which extent is the stability of an operating point determined by the network structure? This dissertation focusses on the emergent phenomenon of synchronisation on networks. In power grids, this corresponds to all units working at the same rhythm – the rated grid frequency. Regarding an analysis with so-called probabilistic stability measures, important limitations are discussed and novel approaches are developed. In particular, the new measures consider repeated perturbations as well as operational bounds on transient deviations. Moreover, the influence of small network structures, so-called motifs, on the stability is investigated. For this purpose, the stability measures are paired with network characteristics using statistical approaches. On this basis, it turns out that, while the abundance of special motifs enhances stability, others typically diminish it. In conclusion, the development of analysis methods and their comparison with network characteristics uncovers relationships between network motifs and the stability of synchronisation. These results are general to a large class of complex systems and build a foundation to future research in this direction. In addition to that, the novel probabilistic stability measures extend the range of methods in nonlinear dynamics by important aspects, especially for high-dimensional complex systems.
32

If there are exceptions, it is still a rule : a probabilistic understanding of conditionals

Geiger, Sonja Maria January 2007 (has links)
Numerous recent publications on the psychological meaning of “if” have proposed a probabilistic interpretation of conditional sentences. According to the proponents of probabilistic approaches, sentences like “If the weather is nice, I will be at the beach tomorrow” (or “If p, then q” in the abstract version) express a high probability of the consequent (being at the beach), given the antecedent (nice weather). When people evaluate conditional sentences, they assumingly do so by deriving the conditional probability P(q|p) using a procedure called the Ramsey test. This is a contradicting view to the hitherto dominant Mental Model Theory (MMT, Johnson-Laird, 1983), that proposes conditional sentences refer to possibilities in the world that are represented in form of mental models. Whereas probabilistic approaches gained a lot of momentum in explaining the interpretation of conditionals, there is still no conclusive probabilistic account of conditional reasoning. This thesis investigates the potential of a comprehensive probabilistic account on conditionals that covers the interpretation of conditionals as well as conclusion drawn from these conditionals when used as a premise in an inference task. The first empirical chapter of this thesis, Chapter 2, implements a further investigation of the interpretation of conditionals. A plain version of the Ramsey test as proposed by Evans and Over (2004) was tested against a similarity sensitive version of the Ramsey test (Oberauer, 2006) in two experiments using variants of the probabilistic truth table task (Experiments 2.1 and 2.2). When it comes to decide whether an instance is relevant for the evaluation of a conditional, similarity seems to play a minor role. Once the decision about relevance is made, believability judgments of the conditional seem to be unaffected by the similarity manipulation and judgments are based on frequency of instances, in the way predicted by the plain Ramsey test. In Chapter 3 contradicting predictions of the probabilistic approaches on conditional reasoning of Verschueren et al (2005), Evans and Over (2004) and Oaksford & Chater (2001) are tested against each other. Results from the probabilistic truth table task modified for inference tasks supports the account of Oaksford and Chater (Experiment 3.1). A learning version of the task and a design with every day conditionals yielded results unpredicted by any of the theories (Experiments 3.2-3.4). Based on these results, a new probabilistic 2-stage model of conditional reasoning is proposed. To preclude claims that the use of the probabilistic truth table task (or variants thereof) favors judgments reflecting conditional probabilities, Chapter 4 combines methodologies used by proponents of the MMT with the probabilistic truth table task. In three Experiments (4.1 -4.3) it could be shown for believability judgments of the conditional and inferences drawn from it, that causal information about counterexamples only prevails, when no frequencies of exceptional cases are present. Experiment 4.4 extends these findings to every day conditionals. A probabilistic estimation process based on frequency information is used to explain results on all tasks. The findings confirm with a probabilistic approach on conditionals and moreover constitute an explanatory challenge for the MMT. In conclusion of all the evidence gathered in this dissertation it seems justified to draw the picture of a comprehensive probabilistic view on conditionals quite optimistically. Probability estimates not only explain the believability people assign to a conditional sentence, they also explain to what extend people are willing to draw conclusions from those sentences. / Zahlreiche aktuelle Publikationen über die psychologische Bedeutung der Worte „Wenn - dann“ schlagen eine probabilistische Interpretation von Konditionalen vor. Vertretern dieses probabilistischen Ansatz zufolge drücken Sätze der Form „Wenn das Wetter schön ist, dann bin ich morgen am Strand“ (oder „Wenn p, dann q“ in der abstrakten Version) eine hohe Wahrscheinlichkeit des Konsequenten (am Strand sein), gegeben den Antezedenten (schönes Wetter) aus. Menschen beurteilen demnach Konditionalsätze, indem sie die bedingte Wahrscheinlichkeit P(q|p) mit Hilfe eines Ramsey-Tests abschätzen (Evans & Over, 2004). Diese Sichtweise stellt einen Gegenentwurf zur bisher dominanten Theorie mentaler Modelle (Johnson-Laird, 1983) dar, die davon ausgeht, dass Konditionalsätze Aussagen über Möglichkeiten machen, die in Form mentaler Modelle repräsentiert werden. Obwohl probabilistische Ansätze in den letzten Jahren überzeugende Evidenz für eine probabilistische Interpretation von Konditionalen präsentiert haben, gibt es noch keine überzeugende probabilistische Erklärung für konditionales Schließen. Die vorliegende Doktorarbeit leistet einen Beitrag zu einer umfassenden probabilistischen Theorie von Konditionalen, die die Interpretation und die Ziehung von Schlüssen aus Konditionalsätzen umfasst.
33

Improving flood frequency analysis by integration of empirical and probabilistic regional envelope curves

Guse, Björn Felix January 2010 (has links)
Flood design necessitates discharge estimates for large recurrence intervals. However, in a flood frequency analysis, the uncertainty of discharge estimates increases with higher recurrence intervals, particularly due to the small number of available flood data. Furthermore, traditional distribution functions increase unlimitedly without consideration of an upper bound discharge. Hence, additional information needs to be considered which is representative for high recurrence intervals. Envelope curves which bound the maximum observed discharges of a region are an adequate regionalisation method to provide additional spatial information for the upper tail of a distribution function. Probabilistic regional envelope curves (PRECs) are an extension of the traditional empirical envelope curve approach, in which a recurrence interval is estimated for a regional envelope curve (REC). The REC is constructed for a homogeneous pooling group of sites. The estimation of this recurrence interval is based on the effective sample years of data considering the intersite dependence among all sites of the pooling group. The core idea of this thesis was an improvement of discharge estimates for high recurrence intervals by integrating empirical and probabilistic regional envelope curves into the flood frequency analysis. Therefore, the method of probabilistic regional envelope curves was investigated in detail. Several pooling groups were derived by modifying candidate sets of catchment descriptors and settings of two different pooling methods. These were used to construct PRECs. A sensitivity analysis shows the variability of discharges and the recurrence intervals for a given site due to the different assumptions. The unit flood of record which governs the intercept of PREC was determined as the most influential aspect. By separating the catchments into nested and unnested pairs, the calculation algorithm for the effective sample years of data was refined. In this way, the estimation of the recurrence intervals was improved, and therefore the use of different parameter sets for nested and unnested pairs of catchments is recommended. In the second part of this thesis, PRECs were introduced into a distribution function. Whereas in the traditional approach only discharge values are used, PRECs provide a discharge and its corresponding recurrence interval. Hence, a novel approach was developed, which allows a combination of the PREC results with the traditional systematic flood series while taking the PREC recurrence interval into consideration. An adequate mixed bounded distribution function was presented, which in addition to the PREC results also uses an upper bound discharge derived by an empirical envelope curve. By doing so, two types of additional information which are representative for the upper tail of a distribution function were included in the flood frequency analysis. The integration of both types of additional information leads to an improved discharge estimation for recurrence intervals between 100 and 1000 years. / Abschätzungen von Abflüssen mit hohen Wiederkehrintervallen werden vor allem für die Bemessung von Extremhochwässern benötigt. In der Hochwasserstatistik bestehen insbesondere für hohe Wiederkehrintervalle große Unsicherheiten, da nur eine geringe Anzahl an Messwerten für Hochwasserereignisse verfügbar ist. Zudem werden zumeist Verteilungsfunktionen verwendet, die keine obere Grenze beinhalten. Daher müssen zusätzliche Informationen zu den lokalen Pegelmessungen berücksichtigt werden, die den Extrembereich einer Verteilungsfunktion abdecken. Hüllkurven ermitteln eine obere Grenze von Hochwasserabflüssen basierend auf beobachteten maximalen Abflusswerten. Daher sind sie eine geeignete Regionalisierungsmethode. Probabilistische regionale Hüllkurven sind eine Fortentwicklung des herkömmlichen Ansatzes der empirischen Hüllkurven. Hierbei wird einer Hüllkurve einer homogenen Region von Abflusspegeln ein Wiederkehrintervall zugeordnet. Die Berechnung dieses Wiederkehrintervalls basiert auf der effektiven Stichprobengröße und berücksichtigt die Korrelationsbeziehungen zwischen den Pegeln einer Region. Ziel dieser Arbeit ist eine Verbesserung der Abschätzung von Abflüssen mit großen Wiederkehrintervallen durch die Integration von empirischen und probabilistischen Hüllkurven in die Hochwasserstatistik. Hierzu wurden probabilistische Hüllkurven detailliert untersucht und für eine Vielzahl an homogenen Regionen konstruiert. Hierbei wurden verschiedene Kombinationen von Einzugsgebietsparametern und Variationen von zwei Gruppierungsmethoden verwendet. Eine Sensitivitätsanalyse zeigt die Variabilität von Abfluss und Wiederkehrintervall zwischen den Realisationen als Folge der unterschiedlichen Annahmen. Die einflussreichste Größe ist der maximale Abfluss, der die Höhe der Hüllkurve bestimmt. Eine Einteilung in genestete und ungenestete Einzugsgebiete führt zu einer genaueren Ermittlung der effektiven Stichprobe und damit zu einer verbesserten Abschätzung des Wiederkehrintervalls. Daher wird die Verwendung von zwei getrennten Parametersätzen für die Korrelationsfunktion zur Abschätzung des Wiederkehrintervalls empfohlen. In einem zweiten Schritt wurden die probabilistischen Hüllkurven in die Hochwasserstatistik integriert. Da in traditionellen Ansätzen nur Abflusswerte genutzt werden, wird eine neue Methode präsentiert, die zusätzlich zu den gemessenen Abflusswerten die Ergebnisse der probabilistischen Hüllkurve – Abfluss und zugehöriges Wiederkehrintervall - berücksichtigt. Die Wahl fiel auf eine gemischte begrenzte Verteilungsfunktion, die neben den probabilistischen Hüllkurven auch eine absolute obere Grenze, die mit einer empirischen Hüllkurve ermittelt wurde, beinhaltet. Damit werden zwei Arten von zusätzlichen Informationen verwendet, die den oberen Bereich einer Verteilungsfunktion beschreiben. Die Integration von beiden führt zu einer verbesserten Abschätzung von Abflüssen mit Wiederkehrintervallen zwischen 100 und 1000 Jahren.
34

Consistency of Probabilistic Context-Free Grammars

Stüber, Torsten 10 May 2012 (has links) (PDF)
We present an algorithm for deciding whether an arbitrary proper probabilistic context-free grammar is consistent, i.e., whether the probability that a derivation terminates is one. Our procedure has time complexity $\\\\mathcal O(n^3)$ in the unit-cost model of computation. Moreover, we develop a novel characterization of consistent probabilistic context-free grammars. A simple corollary of our result is that training methods for probabilistic context-free grammars that are based on maximum-likelihood estimation always yield consistent grammars.
35

Konnektivitätsbasierte Parzellierung des humanen inferioren Parietalkortex – eine experimentelle DTI-Analyse / Connectivity architecture and subdivision of the human inferior parietal cortex revealed by diffusion MRI

Ruschel, Michael 22 October 2013 (has links) (PDF)
Der menschliche inferiore Parietallappen (IPC) gehört zum Assoziationskortex und spielt eine wichtige Rolle bei der Integration von somatosensorischen (taktilen), visuellen und akustischen Reizen. Bisher gibt es keine eindeutigen Informationen über den strukturellen Aufbau dieser Hirnregion. Parzellierungen anhand der Zytoarchitektur reichen von zwei (Brodmann 1909) bis sieben Subareale (Caspers et al. 2006). Homologien zwischen dem IPC des Menschen und Makaken-Affen sind weitestgehend unbekannt. In der vorliegenden Arbeit wurden der Aufbau und die Konnektivitäten des menschlichen IPC genauer untersucht. Dazu führte man eine konnektivitätsbasierte Parzellierung des IPC an 20 Probanden durch. Als Methode kam Diffusions-Tensor-Imaging (DTI) kombiniert mit probabilistischer Traktogra-phie zum Einsatz. Der IPC konnte anhand der Konnektivitäten in drei Subareale (IPCa, IPCm, IPCp) parzelliert werden. Diese besitzen in beiden Hemisphären eine ähnliche Größe und eine rostro-kaudale Anordnung. Die Parzellierung ist vergleichbar mit der des Makaken-IPC, bei dem ebenfalls eine Unterteilung in drei Areale (PF, PFG, PG) und eine rostro-kaudale Anordnung nachgewiesen werden konnte. Jedes Subareal des menschlichen IPC besitzt ein individuelles Konnektivitätsmuster. Beim Menschen als auch beim Makaken gibt es starke Verbindungen zum lateralen prämotorischen Kortex und zum superioren Parietallappen. Diese Gemeinsamkeiten lassen darauf schließen, dass strukturelle Eigenschaften im Laufe der Evolution erhalten geblieben sind. Allerdings sind beim Menschen auch Neuentwicklungen nachweisbar. Dazu gehören die deutlich hervortretenden Verbindungen zum Temporallappen. Möglicherweise haben sich diese erst während der Evolution entwickelt und sind beim Menschen als Teil des perisylvischen Sprachnetzwerkes an der Sprachbildung beteiligt. / The human inferior parietal cortex convexity (IPCC) is an important association area, which integrates auditory, visual and somatosensory information. However, the structural organization of the IPCC is a controversial issue. For example, cytoarchitectonic parcellations reported in the literature range from two to seven areas. Moreover, anatomical descriptions of the human IPCC are often based on experiments in the macaque monkey. In this study we used diffusion-weighted magnetic resonance imaging (dMRI) combined with probabilistic tractography to quantify the connectivity of the human IPCC, and used this information to parcellate this cortex area. This provides a new structural map of the human IPCC, comprising three sub-areas (IPCa, IPCm, IPCp) of comparable size, in a rostro-caudal arrangement in the left and right hemisphere. Each sub-area is characterized by a connectivity fingerprint and the parcellation is similar to the subdivision reported for the macaque IPCC (rostro-caudal areas areas PF, PFG, and PG). However, the present study also reliably demonstrates new structural features in the connectivity pattern of the human IPCC, which are not known to exist in the macaque. This study quantifies inter-subject variability by providing a population representation of the sub-area arrangement, and demonstrates substantial lateralization of the connectivity patterns of IPCC.
36

Probabilistische Modellierung dezentraler Energieanlagen und Sekundärtechnik für die Verteilnetzplanung

Dallmer-Zerbe, Kilian 29 January 2018 (has links) (PDF)
Der Ausbau dezentraler Energieanlagen wie fotovoltaischen Anlagen beeinflusst die Netzzustände signifikant. Dabei ist unsicher, wo und in welchem Maße deren Ausbau zukünftig erfolgt. Es ist nun an den Netzbetreibern gleichzeitig die aktuellen Herausforderungen zu meistern und die Netzplanung und -regelung für die Zukunft zu aktualisieren. Eine statistische Methode wird entwickelt, die Verteilnetzplanung unter Einsatz von quasi-stationär modellierten ”Smart Grid”-Lösungen wie Blindleistungsreglern und regelbaren Ortsnetztransformatoren ermöglicht. Durch Stichprobenverfahren werden Unsicherheiten wie Ort, Größe und Leistungsprofile der Energieanlagen in das Netzmodell eingebunden. Diese als probabilistischer Lastfluss bekannte Methode wird durch Gütemaße im Bereich geringer Kombination evaluiert. Beispiele probabilistischer Netzplanung werden an Netztopologien präsentiert. / Development of distributed energy units such as photovoltaic systems affects grid states significantly. It is uncertain, where and to what extent the development of these units is carried out in the future. It is now up to the distribution system operator to cope with todays grid challenges and to update grid planning and control for the future. A statistical method is developed, which incorporates quasi-stationary modeled ”smart grid” solutions such as reactive power controllers and on-load tap-changers. Uncertainties such as location, size and power profiles of energy systems are integrated into the grid model by sampling. This method is known as probabilistic load flow and is evaluated by quality measures at low combinations. Examples on probabilistic grid planning of different grid topologies are presented.
37

Probabilistic Logic, Probabilistic Regular Expressions, and Constraint Temporal Logic

Weidner, Thomas 21 June 2016 (has links)
The classic theorems of Büchi and Kleene state the expressive equivalence of finite automata to monadic second order logic and regular expressions, respectively. These fundamental results enjoy applications in nearly every field of theoretical computer science. Around the same time as Büchi and Kleene, Rabin investigated probabilistic finite automata. This equally well established model has applications ranging from natural language processing to probabilistic model checking. Here, we give probabilistic extensions Büchi\\\''s theorem and Kleene\\\''s theorem to the probabilistic setting. We obtain a probabilistic MSO logic by adding an expected second order quantifier. In the scope of this quantifier, membership is determined by a Bernoulli process. This approach turns out to be universal and is applicable for finite and infinite words as well as for finite trees. In order to prove the expressive equivalence of this probabilistic MSO logic to probabilistic automata, we show a Nivat-theorem, which decomposes a recognisable function into a regular language, homomorphisms, and a probability measure. For regular expressions, we build upon existing work to obtain probabilistic regular expressions on finite and infinite words. We show the expressive equivalence between these expressions and probabilistic Muller-automata. To handle Muller-acceptance conditions, we give a new construction from probabilistic regular expressions to Muller-automata. Concerning finite trees, we define probabilistic regular tree expressions using a new iteration operator, called infinity-iteration. Again, we show that these expressions are expressively equivalent to probabilistic tree automata. On a second track of our research we investigate Constraint LTL over multidimensional data words with data values from the infinite tree. Such LTL formulas are evaluated over infinite words, where every position possesses several data values from the infinite tree. Within Constraint LTL on can compare these values from different positions. We show that the model checking problem for this logic is PSPACE-complete via investigating the emptiness problem of Constraint Büchi automata.
38

Consistency of Probabilistic Context-Free Grammars

Stüber, Torsten 10 May 2012 (has links)
We present an algorithm for deciding whether an arbitrary proper probabilistic context-free grammar is consistent, i.e., whether the probability that a derivation terminates is one. Our procedure has time complexity $\\\\mathcal O(n^3)$ in the unit-cost model of computation. Moreover, we develop a novel characterization of consistent probabilistic context-free grammars. A simple corollary of our result is that training methods for probabilistic context-free grammars that are based on maximum-likelihood estimation always yield consistent grammars.
39

Scalable Inference in Latent Gaussian Process Models

Wenzel, Florian 05 February 2020 (has links)
Latente Gauß-Prozess-Modelle (latent Gaussian process models) werden von Wissenschaftlern benutzt, um verborgenen Muster in Daten zu er- kennen, Expertenwissen in probabilistische Modelle einfließen zu lassen und um Vorhersagen über die Zukunft zu treffen. Diese Modelle wurden erfolgreich in vielen Gebieten wie Robotik, Geologie, Genetik und Medizin angewendet. Gauß-Prozesse definieren Verteilungen über Funktionen und können als flexible Bausteine verwendet werden, um aussagekräftige probabilistische Modelle zu entwickeln. Dabei ist die größte Herausforderung, eine geeignete Inferenzmethode zu implementieren. Inferenz in probabilistischen Modellen bedeutet die A-Posteriori-Verteilung der latenten Variablen, gegeben der Daten, zu berechnen. Die meisten interessanten latenten Gauß-Prozess-Modelle haben zurzeit nur begrenzte Anwendungsmöglichkeiten auf großen Datensätzen. In dieser Doktorarbeit stellen wir eine neue effiziente Inferenzmethode für latente Gauß-Prozess-Modelle vor. Unser neuer Ansatz, den wir augmented variational inference nennen, basiert auf der Idee, eine erweiterte (augmented) Version des Gauß-Prozess-Modells zu betrachten, welche bedingt konjugiert (conditionally conjugate) ist. Wir zeigen, dass Inferenz in dem erweiterten Modell effektiver ist und dass alle Schritte des variational inference Algorithmus in geschlossener Form berechnet werden können, was mit früheren Ansätzen nicht möglich war. Unser neues Inferenzkonzept ermöglicht es, neue latente Gauß-Prozess- Modelle zu studieren, die zu innovativen Ergebnissen im Bereich der Sprachmodellierung, genetischen Assoziationsstudien und Quantifizierung der Unsicherheit in Klassifikationsproblemen führen. / Latent Gaussian process (GP) models help scientists to uncover hidden structure in data, express domain knowledge and form predictions about the future. These models have been successfully applied in many domains including robotics, geology, genetics and medicine. A GP defines a distribution over functions and can be used as a flexible building block to develop expressive probabilistic models. The main computational challenge of these models is to make inference about the unobserved latent random variables, that is, computing the posterior distribution given the data. Currently, most interesting Gaussian process models have limited applicability to big data. This thesis develops a new efficient inference approach for latent GP models. Our new inference framework, which we call augmented variational inference, is based on the idea of considering an augmented version of the intractable GP model that renders the model conditionally conjugate. We show that inference in the augmented model is more efficient and, unlike in previous approaches, all updates can be computed in closed form. The ideas around our inference framework facilitate novel latent GP models that lead to new results in language modeling, genetic association studies and uncertainty quantification in classification tasks.
40

Probabilistic Graphical Models: an Application in Synchronization and Localization

Goodarzi, Meysam 16 June 2023 (has links)
Die Lokalisierung von mobilen Nutzern (MU) in sehr dichten Netzen erfordert häufig die Synchronisierung der Access Points (APs) untereinander. Erstens konzentriert sich diese Arbeit auf die Lösung des Problems der Zeitsynchronisation in 5G-Netzwerken, indem ein hybrider Bayesischer Ansatz für die Schätzung des Taktversatzes und des Versatzes verwendet wird. Wir untersuchen und demonstrieren den beträchtlichen Nutzen der Belief Propagation (BP), die auf factor graphs läuft, um eine präzise netzwerkweite Synchronisation zu erreichen. Darüber hinaus nutzen wir die Vorteile der Bayesischen Rekursiven Filterung (BRF), um den Zeitstempel-Fehler bei der paarweisen Synchronisierung zu verringern. Schließlich zeigen wir die Vorzüge der hybriden Synchronisation auf, indem wir ein großes Netzwerk in gemeinsame und lokale Synchronisationsdomänen unterteilen und so den am besten geeigneten Synchronisationsalgorithmus (BP- oder BRF-basiert) auf jede Domäne anwenden können. Zweitens schlagen wir einen Deep Neural Network (DNN)-gestützten Particle Filter-basierten (DePF)-Ansatz vor, um das gemeinsame MU-Sync&loc-Problem zu lösen. Insbesondere setzt DePF einen asymmetrischen Zeitstempel-Austauschmechanismus zwischen den MUs und den APs ein, der Informationen über den Taktversatz, die Zeitverschiebung der MUs, und die AP-MU Abstand liefert. Zur Schätzung des Ankunftswinkels des empfangenen Synchronisierungspakets nutzt DePF den multiple signal classification Algorithmus, der durch die Channel Impulse Response (CIR) der Synchronisierungspakete gespeist wird. Die CIR wird auch genutzt, um den Verbindungszustand zu bestimmen, d. h. Line-of-Sight (LoS) oder Non-LoS (NLoS). Schließlich nutzt DePF particle Gaussian mixtures, die eine hybride partikelbasierte und parametrische BRF-Fusion der vorgenannten Informationen ermöglichen und die Position und die Taktparameter der MUs gemeinsam schätzen. / Mobile User (MU) localization in ultra dense networks often requires, on one hand, the Access Points (APs) to be synchronized among each other, and, on the other hand, the MU-AP synchronization. In this work, we firstly address the former, which eventually provides a basis for the latter, i.e., for the joint MU synchronization and localization (sync&loc). In particular, firstly, this work focuses on tackling the time synchronization problem in 5G networks by adopting a hybrid Bayesian approach for clock offset and skew estimation. Specifically, we investigate and demonstrate the substantial benefit of Belief Propagation (BP) running on Factor Graphs (FGs) in achieving precise network-wide synchronization. Moreover, we take advantage of Bayesian Recursive Filtering (BRF) to mitigate the time-stamping error in pairwise synchronization. Finally, we reveal the merit of hybrid synchronization by dividing a large-scale network into common and local synchronization domains, thereby being able to apply the most suitable synchronization algorithm (BP- or BRF-based) on each domain. Secondly, we propose a Deep Neural Network (DNN)-assisted Particle Filter-based (DePF) approach to address the MU joint sync&loc problem. In particular, DePF deploys an asymmetric time-stamp exchange mechanism between the MUs and the APs, which provides information about the MUs' clock offset, skew, and AP-MU distance. In addition, to estimate the Angle of Arrival (AoA) of the received synchronization packet, DePF draws on the Multiple Signal Classification (MUSIC) algorithm that is fed by the Channel Impulse Response (CIR) experienced by the sync packets. The CIR is also leveraged on to determine the link condition, i.e. Line-of-Sight (LoS) or Non-LoS (NLoS). Finally DePF capitalizes on particle Gaussian mixtures which allow for a hybrid particle-based and parametric BRF fusion of the aforementioned pieces of information and jointly estimate the position and clock parameters of the MUs.

Page generated in 0.3362 seconds