• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 103
  • 64
  • 22
  • 8
  • Tagged with
  • 197
  • 126
  • 102
  • 93
  • 70
  • 68
  • 68
  • 37
  • 27
  • 22
  • 21
  • 21
  • 19
  • 17
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Human Mobility and Application Usage Prediction Algorithms for Mobile Devices

Baumann, Paul 27 October 2016 (has links) (PDF)
Mobile devices such as smartphones and smart watches are ubiquitous companions of humans’ daily life. Since 2014, there are more mobile devices on Earth than humans. Mobile applications utilize sensors and actuators of these devices to support individuals in their daily life. In particular, 24% of the Android applications leverage users’ mobility data. For instance, this data allows applications to understand which places an individual typically visits. This allows providing her with transportation information, location-based advertisements, or to enable smart home heating systems. These and similar scenarios require the possibility to access the Internet from everywhere and at any time. To realize these scenarios 83% of the applications available in the Android Play Store require the Internet to operate properly and therefore access it from everywhere and at any time. Mobile applications such as Google Now or Apple Siri utilize human mobility data to anticipate where a user will go next or which information she is likely to access en route to her destination. However, predicting human mobility is a challenging task. Existing mobility prediction solutions are typically optimized a priori for a particular application scenario and mobility prediction task. There is no approach that allows for automatically composing a mobility prediction solution depending on the underlying prediction task and other parameters. This approach is required to allow mobile devices to support a plethora of mobile applications running on them, while each of the applications support its users by leveraging mobility predictions in a distinct application scenario. Mobile applications rely strongly on the availability of the Internet to work properly. However, mobile cellular network providers are struggling to provide necessary cellular resources. Mobile applications generate a monthly average mobile traffic volume that ranged between 1 GB in Asia and 3.7 GB in North America in 2015. The Ericsson Mobility Report Q1 2016 predicts that by the end of 2021 this mobile traffic volume will experience a 12-fold increase. The consequences are higher costs for both providers and consumers and a reduced quality of service due to congested mobile cellular networks. Several countermeasures can be applied to cope with these problems. For instance, mobile applications apply caching strategies to prefetch application content by predicting which applications will be used next. However, existing solutions suffer from two major shortcomings. They either (1) do not incorporate traffic volume information into their prefetching decisions and thus generate a substantial amount of cellular traffic or (2) require a modification of mobile application code. In this thesis, we present novel human mobility and application usage prediction algorithms for mobile devices. These two major contributions address the aforementioned problems of (1) selecting a human mobility prediction model and (2) prefetching of mobile application content to reduce cellular traffic. First, we address the selection of human mobility prediction models. We report on an extensive analysis of the influence of temporal, spatial, and phone context data on the performance of mobility prediction algorithms. Building upon our analysis results, we present (1) SELECTOR – a novel algorithm for selecting individual human mobility prediction models and (2) MAJOR – an ensemble learning approach for human mobility prediction. Furthermore, we introduce population mobility models and demonstrate their practical applicability. In particular, we analyze techniques that focus on detection of wrong human mobility predictions. Among these techniques, an ensemble learning algorithm, called LOTUS, is designed and evaluated. Second, we present EBC – a novel algorithm for prefetching mobile application content. EBC’s goal is to reduce cellular traffic consumption to improve application content freshness. With respect to existing solutions, EBC presents novel techniques (1) to incorporate different strategies for prefetching mobile applications depending on the available network type and (2) to incorporate application traffic volume predictions into the prefetching decisions. EBC also achieves a reduction in application launch time to the cost of a negligible increase in energy consumption. Developing human mobility and application usage prediction algorithms requires access to human mobility and application usage data. To this end, we leverage in this thesis three publicly available data set. Furthermore, we address the shortcomings of these data sets, namely, (1) the lack of ground-truth mobility data and (2) the lack of human mobility data at short-term events like conferences. We contribute with JK2013 and UbiComp Data Collection Campaign (UbiDCC) two human mobility data sets that address these shortcomings. We also develop and make publicly available a mobile application called LOCATOR, which was used to collect our data sets. In summary, the contributions of this thesis provide a step further towards supporting mobile applications and their users. With SELECTOR, we contribute an algorithm that allows optimizing the quality of human mobility predictions by appropriately selecting parameters. To reduce the cellular traffic footprint of mobile applications, we contribute with EBC a novel approach for prefetching of mobile application content by leveraging application usage predictions. Furthermore, we provide insights about how and to what extent wrong and uncertain human mobility predictions can be detected. Lastly, with our mobile application LOCATOR and two human mobility data sets, we contribute practical tools for researchers in the human mobility prediction domain.
112

Identifizierung von Biomarkern mittels LC-MS-basiertem Metabonomics - Merkaptursäuren als Indikatoren für die Bildung toxischer Intermediate / Identification of biomarkers via LC-MS-based metabonomics – mercapturic acids as indicators for the formation of toxic intermediates

Wagner, Silvia January 2008 (has links) (PDF)
Metabonomics bildet das Ende der Omics-Kaskade und stellt eine top-down-Strategie zur Erfassung und Interpretation des Metaboloms, d. h. der Gesamtheit aller niedermolekularen Metaboliten in einem intakten Organismus, dar. Ziel der Technik ist es, mittels geeigneter ungerichteter Screeningverfahren in nicht-invasiv zu gewinnenden biologischen Proben wie Urin oder Blut charakteristische Metabolitenprofile zu bestimmen. Im Kontext des Metabonomics wurde in Anlehnung an den Geno- bzw. Phänotyp hierfür der Begriff „Metabotyp“ geprägt. Durch biostatistische Methoden, die auf Mustererkennung (pattern recognition) basieren, können Signaturen gegenübergestellt und auf diesem Weg gruppenspezifische Metaboliten, d. h. Biomarker bzw. Metabolitenmuster, extrahiert werden. Metabonomics kann folglich als Fusion klassischer bioanalytischer und biostatistischer Verfahren aufgefasst werden. Seit der Einführung im Jahr 1999 hat sich das Konzept des Metabonomics in mehrere Richtungen weiterentwickelt. So gab es Bestrebungen, die Technik, die ursprünglich zur Prädiktion von toxischen Effekten bei der Arzneistoffentwicklung etabliert wurde, auf Fragestellungen zu übertragen, die den Menschen im Mittelpunkt haben. Neben präklinischen Anwendungen verfolgt man mit Metabonomics zunehmend das Ziel, einer personalisierten Medizin und Ernährung einen Schritt näher zu kommen. Da sich die ursprünglich eingesetzte NMR-Technik als zu unempfindlich und die resultierenden Metabolitenprofile als zu anfällig gegenüber biologischen und analytischen Einflussgrößen (Confoundern) erwiesen haben, wurde parallel auf sensitivere Verfahren wie die Massenspektrometrie gesetzt. Insbesondere die Kopplung mit der Hochdruckflüssigchromatographie erwies sich hierbei für das Metabolitenscreening als geeignet. Schnell wurde allerdings klar, dass aus den klassischen full scan/TOF-Methoden Datensätze resultierten, die häufig zu komplex waren, um mit nachgeschalteten chemometrischen Verfahren die „Spreu vom Weizen trennen“ zu können. Da sich Metabolitendatenbanken bisher noch im Aufbau befinden, ist die Identifizierung der Marker mit zusätzlichen Schwierigkeiten verbunden und bedarf aufwändiger analytischer Verfahren. Eine Strategie stellt daher die Beschränkung auf ein Metabolitensubset dar. Indem man sich auf Metabolitenklassen fokussiert, die einen Bezug zum untersuchten Mechanismus haben, können die Erfolgsaussichten bei der Identifizierung charakteristischer Biomarker deutlich erhöht werden. Aufgrund zahlreicher exogener und endogener Faktoren (Arzneistoffe, Industriechemikalien, Nahrungsbestandteile, Tabakrauchbestandteile, Produkte der Lipidperoxidation etc.) ist der menschliche Organismus stets einer Vielzahl an elektrophilen Verbindungen ausgesetzt. Oxidative Schädigungen an Strukturen wie der DNA, Proteinen und Lipiden werden mit einer Reihe von Krankheitsbildern in Zusammenhang gebracht, darunter Parkinson, Alzheimer, Krebs und Volkskrankheiten wie Arteriosklerose, Allergien und koronare Herzerkrankungen. Mit dem Glutathionsystem verfügt der Körper über einen wirksamen Detoxifizierungsmechanismus. Das Tripeptid Glutathion reagiert als Nukleophil mit den exogen oder endogen gebildeten elektrophilen Intermediaten. Endprodukte sind Merkaptursäuren (N-Acetyl-L-Cystein-Addukte) bzw. deren Sulfoxide, die in erster Linie mit dem Urin ausgeschieden werden. Folglich besteht zwischen diesen Merkaptursäurederivaten und der elektrophilen Belastung eines Organismus ein direkter Zusammenhang. Vor diesem Hintergrund war es das Ziel der Arbeit, einen nicht-invasiven Metabonomicsansatz zur Anwendung am Menschen zu entwickeln. Durch die Fokussierung des Metabolitenscreenings auf die Effekt-, Dosis- und Suszeptibilitätsmarkerklasse der Merkaptursäuren sollten hierbei die Erfolgsaussichten im Hinblick auf die Identifizierung potentieller Biomarker für diverse toxikologische sowie medizinische Endpunkte erhöht werden. / Metabonomics forms the end of the omics-cascade and represents a top-down strategy for the interpretation of the metabolome, i. e. all the low molecular weight metabolites in an intact organism. The aim of the approach is to analyse characteristic metabolite profiles by suitable untargeted screening methods in biological samples like urine or blood that can be obtained in a non-invasive manner. In the context of metabonomics, the term “metabotype” was defined according to the geno- and phenotype, respectively. Biostatistical methods based on pattern recognition techniques allow comparing metabolic signatures and extracting group specific metabolites and biomarkers. Therefore, metabonomics can be regarded as the fusion of bioanalytical and biostatistical techniques. Since its introduction in 1999, the concept of metabonomics has permanently gained importance in many fields of scientific research. One aim was to transfer the methodology, which was originally established to predict toxic effects in drug development processes, to human issues. Apart from preclinical questions, metabonomics is increasingly applied in the area of personalised medicine and nutrition. As the NMR technique used by pioneers of the field was too insensitive and the resulting metabolite profiles were too susceptible to biological and analytical confounders, more sensitive techniques like mass spectrometry were more and more applied. Especially mass spectrometry in combination with high performance liquid chromatography showed great promise for the screening of metabolites. However, after a very short time, it was clear that the data sets resulting from full scan/TOF-methods were too complex to “separate the wheat from the chaff” with chemometric procedures. Metabolite databases are still under construction, and therefore marker identification is challenging and requires complex analytical techniques. Thus, one strategy is to concentrate on a certain metabolite subset. The focus on a metabolite class with a close relation to the mechanism under investigation can considerably increase the prospects of success in the biomarker identification process. Due to a variety of exogenous and endogenous factors (drugs, industrial chemicals, food ingredients, and tobacco smoke) the human organism is steadily confronted with a multitude of electrophilic compounds. Oxidative damage of the DNA, proteins, and lipids is associated with the development of diseases like Parkinson’s, Alzheimer’s, cancer and widespread diseases like arteriosclerosis, allergies and coronary heart diseases. With the glutathione system the human organism is equipped with an efficient detoxification mechanism. The tripeptide glutathione reacts as nucleophile with exogenously and endogenously formed electrophilic intermediates. End products are mercapturic acids (N-acetyl-L-cysteine-adducts) and respective sulfoxides that are predominantly excreted with urine. Therefore, there is a close relationship between these mercapturic acid patterns and the electrophilic burden of an organism. In this context, the aim of this thesis was to develop a non-invasive human metabonomics approach that focuses the metabolite screening on the effect, dose and susceptibility marker class of the mercapturic acids. Thus, the prospects of success regarding the identification of potential biomarkers for various toxicological and pathological endpoints should be increased.
113

Informationsgewinnung mittels Bindungsanalysen von Serumantikörpern an Peptidbibliotheken

Bruni, Nicole 23 February 2009 (has links)
Ein charakteristisches Merkmal des humoralen Immunsystems ist die Produktion vieler verschiedener Antikörper. Geläufige diagnostische Tests für den Nachweis von Krankheit-spezifischen Serumantikörpern nutzen Antigene zum Nachweis der Krankheit via Antikörperbindung. Derartige diagnostische Tests setzen jedoch die Kenntnis von Krankheit-spezifischen Antigenen voraus. Die vorliegende Arbeit berücksichtigt die unterschiedlichen Bindungsreaktivitäten ganzer Antikörperrepertoires verschiedener Gruppen von Individuen. Dazu werden die Serumantikörperbindungen gegenüber Zufallsbibliotheken gemessen. Die Moleküle dieser beliebigen Bibliotheken müssen keine Verwandtschaft zu den Antigenen der Krankheit haben. Mit modernen Herstellungsverfahren von Peptidarrays auf Glasträgern können mit einmal synthetisierten Peptiden hunderte von Träger-Replikas produziert werden. Die Suche nach hochaffinen Bindern zur Diagnose von Krankheiten mit unbekannten Antigenen oder mit Kreuzreaktivitäten zwischen gesunden und kranken Individuen könnte überflüssig werden. Gestützt auf die beschriebenen Voraussetzungen zeigt die vorliegende Arbeit, dass die Messung von Serumantikörper-Bindungen gegenüber Peptidbibliotheken mit zufälligen Sequenzen die Unterscheidung zwischen Gruppen von gesunden und kranken Individuen für unterschiedliche Krankheiten ermöglicht. Eine unerwartet kleine Anzahl von Peptiden ist ausreichend für eine zuverlässige Vorhersage der untersuchten Gruppen. Der unvoreingenommene Ansatz ermöglicht eine ebenso gute Unterscheidung von gesund und krank, wie sie auch mit voreingenommenen Bibliotheken gezeigt worden sind. Wir vermuten, dass der vorliegende Ansatz ein wichtiger Schritt in Richtung zuverlässiger Diagnose darstellt, insbesondere für Krankheiten mit noch unbekannten Antigenen. Ausserdem bietet die hohe Spezifizität der Detektone und deren kleinen Mitgliederzahl eine Grundlage für die gleichzeitige Diagnose von verschiedenen Krankheiten auf einem einzigen Peptid-Mikroarray. / A characteristic trait of the humoral immune system is the production of lots of different antibodies. Commonly used diagnostic tests for the detection of disease-specific serum-antibodies successfully exploit these antibody reactivities against disease eliciting antigens. Such diagnostic tests do however need the knowledge of disease specific antigen as a prerequisite. The presented work looks at the binding reactivities of whole antibody repertoires of different groups of individuals. Therefore the binding of serum-antibodies are measured against arbitrary probe molecule libraries. The arbitrary molecules of such libraries do not need to be related to the antigens of the disease to be diagnosed. Modern synthesis and printing processes of peptides on glass chips arrays allow the production of hundreds or peptide-chip replicas with small amounts of uniquely synthesized peptides. The search for high-affinity binders for the diagnosis of diseases with no known antigens might become redundant. Based on the described premises the presented work demonstrates the differentiation of different diseases by means of antibody serum reactivity differences towards arbitrary peptide libraries between healthy and diseased individuals. The number of peptides necessary for reliable prediction of the investigated groups of individuals are unanticipated small. The unbiased approach of the library design works as well as it possibly could with intended libraries, like whole-proteome arrays, used in recent other works. We presume our approach to be an important step forward towards reliable diagnosis, in particular for diseases caused by yet unknown antigens. Furthermore, the high specificity of the detectons and their smallness in size might provide a basis for simultaneous diagnosis of various diseases on a single peptide microarray.
114

Deep graphs

Traxl, Dominik 17 May 2017 (has links)
Netzwerk Theorie hat sich als besonders zweckdienlich in der Darstellung von Systemen herausgestellt. Jedoch fehlen in der Netzwerkdarstellung von Systemen noch immer essentielle Bausteine um diese generell zur Datenanalyse heranzuziehen zu können. Allen voran fehlt es an einer expliziten Assoziation von Informationen mit den Knoten und Kanten eines Netzwerks und einer schlüssigen Darstellung von Gruppen von Knoten und deren Relationen auf verschiedenen Skalen. Das Hauptaugenmerk dieser Dissertation ist der Einbindung dieser Bausteine in eine verallgemeinerte Rahmenstruktur gewidmet. Diese Rahmenstruktur - Deep Graphs - ist in der Lage als Bindeglied zwischen einer vereinheitlichten und generalisierten Netzwerkdarstellung von Systemen und den Methoden der Statistik und des maschinellen Lernens zu fungieren (Software: https://github.com/deepgraph/deepgraph). Anwendungen meiner Rahmenstruktur werden dargestellt. Ich konstruiere einen Regenfall Deep Graph und analysiere raumzeitliche Extrem-Regenfallcluster. Auf Grundlage dieses Graphs liefere ich einen statistischen Beleg, dass die Größenverteilung dieser Cluster einem exponentiell gedämpften Potenzgesetz folgt. Mit Hilfe eines generativen Sturm-Modells zeige ich, dass die exponentielle Dämpfung der beobachteten Größenverteilung durch das Vorhandensein von Landmasse auf unserem Planeten zustande kommen könnte. Dann verknüpfe ich zwei hochauflösende Satelliten-Produkte um raumzeitliche Cluster von Feuer-betroffenen Gebieten im brasilianischen Amazonas zu identifizieren und deren Brandeigenschaften zu charakterisieren. Zuletzt untersuche ich den Einfluss von weißem Rauschen und der globalen Kopplungsstärke auf die maximale Synchronisierbarkeit von Oszillatoren-Netzwerken für eine Vielzahl von Oszillatoren-Modellen, welche durch ein breites Spektrum an Netzwerktopologien gekoppelt sind. Ich finde ein allgemeingültiges sigmoidales Skalierungsverhalten, und validiere dieses mit einem geeignetem Regressionsmodell. / Network theory has proven to be a powerful instrument in the representation of complex systems. Yet, even in its latest and most general form (i.e., multilayer networks), it is still lacking essential qualities to serve as a general data analysis framework. These include, most importantly, an explicit association of information with the nodes and edges of a network, and a conclusive representation of groups of nodes and their respective interrelations on different scales. The implementation of these qualities into a generalized framework is the primary contribution of this dissertation. By doing so, I show how my framework - deep graphs - is capable of acting as a go-between, joining a unified and generalized network representation of systems with the tools and methods developed in statistics and machine learning. A software package accompanies this dissertation, see https://github.com/deepgraph/deepgraph. A number of applications of my framework are demonstrated. I construct a rainfall deep graph and conduct an analysis of spatio-temporal extreme rainfall clusters. Based on the constructed deep graph, I provide statistical evidence that the size distribution of these clusters is best approximated by an exponentially truncated powerlaw. By means of a generative storm-track model, I argue that the exponential truncation of the observed distribution could be caused by the presence of land masses. Then, I combine two high-resolution satellite products to identify spatio-temporal clusters of fire-affected areas in the Brazilian Amazon and characterize their land use specific burning conditions. Finally, I investigate the effects of white noise and global coupling strength on the maximum degree of synchronization for a variety of oscillator models coupled according to a broad spectrum of network topologies. I find a general sigmoidal scaling and validate it with a suitable regression model.
115

A machine learning perspective on repeated measures

Karch, Julian 09 November 2016 (has links)
Wiederholte Messungen mehrerer Individuen sind von entscheidender Bedeutung für die Psychologie. Beispiele sind längsschnittliche Paneldaten und Elektroenzephalografie-Daten (EEG-Daten). In dieser Arbeit entwickle ich für jede dieser beiden Datenarten neue Analyseansätze, denen Methoden des maschinellen Lernens zu Grunde liegen. Für Paneldaten entwickle ich Gauß-Prozess-Panelmodellierung (GPPM), die auf der flexiblen Bayesschen Methode der Gauß-Prozess-Regression basiert. Der Vergleich von GPPM mit längsschnittlicher Strukturgleichungsmodellierung (lSEM), welche die meisten herkömmlichen Panelmodellierungsmethoden als Sonderfälle enthält, zeigt, dass lSEM wiederum als Sonderfall von GPPM aufgefasst werden kann. Im Gegensatz zu lSEM eignet sich GPPM gut zur zeitkontinuierlichen Modellierung, kann eine größere Menge von Modellen beschreiben, und beinhaltet einen einfachen Ansatz zur Generierung personenspezifischer Vorhersagen. Ich zeige, dass die implementierte GPPM-Darstellung gegenüber bestehender SEM Software eine bis zu neunfach beschleunigte Parameterschätzung erlaubt. Für EEG-Daten entwickle ich einen personenspezifischen Modellierungsansatz zur Identifizierung und Quantifizierung von Unterschieden zwischen Personen, die in konventionellen EEG-Analyseverfahren ignoriert werden. Im Rahmen dieses Ansatzes wird aus einer großen Menge hypothetischer Kandidatenmodelle das beste Modell für jede Person ausgewählt. Zur Modellauswahl wird ein Verfahren aus dem Bereich des maschinellen Lernens genutzt. Ich zeig ich, wie die Modelle sowohl auf der Personen- als auch auf der Gruppenebene interpretiert werden können. Ich validiere den vorgeschlagenen Ansatz anhand von Daten zur Arbeitsgedächtnisleistung. Die Ergebnisse verdeutlichen, dass die erhaltenen personenspezifischen Modelle eine genauere Beschreibung des Zusammenhangs von Verhalten und Hirnaktivität ermöglichen als konventionelle, nicht personenspezifische EEG-Analyseverfahren. / Repeated measures obtained from multiple individuals are of crucial importance for developmental research. Examples of repeated measures obtained from multiple individuals include longitudinal panel and electroencephalography (EEG) data. In this thesis, I develop a novel analysis approach based on machine learning methods for each of these two data modalities. For longitudinal panel data, I develop Gaussian process panel modeling (GPPM), which is based on the flexible Bayesian approach of Gaussian process regression. The comparison of GPPM with longitudinal structural equation modeling (SEM), which contains most conventional panel modeling approaches as special cases, reveals that GPPM in turn encompasses longitudinal SEM as a special case. In contrast to longitudinal SEM, GPPM is well suited for continuous-time modeling, can express a larger set of models, and includes a straightforward approach to obtain person-specific predictions. The comparison between the developed GPPM toolbox and existing SEM software reveals that the GPPM representation of popular longitudinal SEMs decreases the amount of time needed for parameter estimation up to ninefold. For EEG data, I develop an approach to derive person-specific models for the identification and quantification of between-person differences in EEG responses that are ignored by conventional EEG analysis methods. The approach relies on a framework that selects the best model for each person based on a large set of hypothesized candidate models using a model selection approach from machine learning. I show how the obtained models can be interpreted on the individual as well as on the group level. I validate the proposed approach on a working memory data set. The results demonstrate that the obtained person-specific models provide a more accurate description of the link between behavior and EEG data than the conventional nonspecific EEG analysis approach.
116

Extremes in events and dynamics : a nonlinear data analysis perspective on the past and present dynamics of the Indian summer monsoon

Malik, Nishant January 2011 (has links)
To identify extreme changes in the dynamics of the Indian Summer Monsoon (ISM) in the past, I propose a new approach based on the quantification of fluctuations of a nonlinear similarity measure, to identify regimes of distinct dynamical complexity in short time series. I provide an analytical derivation for the relationship of the new measure with the dynamical invariants such as dimension and Lyapunov exponents of the underlying system. A statistical test is also developed to estimate the significance of the identified transitions. Our method is justified by uncovering bifurcation structures in several paradigmatic models, providing more complex transitions compared with traditional Lyapunov exponents. In a real world situation, we apply the method to identify millennial-scale dynamical transitions in Pleistocene proxy records of the south Asian summer monsoon system. We infer that many of these transitions are induced by the external forcing of solar insolation and are also affected by internal forcing on Monsoonal dynamics, i.e., the glaciation cycles of the Northern Hemisphere and the onset of the tropical Walker circulation. Although this new method has general applicability, it is particularly useful in analysing short palaeo-climate records. Rainfall during the ISM over the Indian subcontinent occurs in form of enormously complex spatiotemporal patterns due to the underlying dynamics of atmospheric circulation and varying topography. I present a detailed analysis of summer monsoon rainfall over the Indian peninsular using Event Synchronization (ES), a measure of nonlinear correlation for point processes such as rainfall. First, using hierarchical clustering I identify principle regions where the dynamics of monsoonal rainfall is more coherent or homogenous. I also provide a method to reconstruct the time delay patterns of rain events. Moreover, further analysis is carried out employing the tools of complex network theory. This study provides valuable insights into the spatial organization, scales, and structure of the 90th and 94th percentile rainfall events during the ISM (June to September). I furthermore analyse the influence of different critical synoptic atmospheric systems and the impact of the steep Himalayan topography on rainfall patterns. The presented method not only helps in visualising the structure of the extremeevent rainfall fields, but also identifies the water vapor pathways and decadal-scale moisture sinks over the region. Furthermore a simple scheme based on complex networks is presented to decipher the spatial intricacies and temporal evolution of monsoonal rainfall patterns over the last six decades. Some supplementary results on the evolution of monsoonal rainfall extremes over the last sixty years are also presented. / Um Extremereignisse in der Dynamik des indischen Sommermonsuns (ISM) in der geologischen Vergangenheit zu identifizieren, schlage ich einen neuartigen Ansatz basierend auf der Quantifikation von Fluktuationen in einem nichtlinearen Ähnlichkeitsmaß vor. Dieser reagiert empfindlich auf Zeitabschnitte mit deutlichen Veränderungen in der dynamischen Komplexität kurzer Zeitreihen. Ein mathematischer Zusammenhang zwischen dem neuen Maß und dynamischen Invarianten des zugrundeliegenden Systems wie fraktalen Dimensionen und Lyapunovexponenten wird analytisch hergeleitet. Weiterhin entwickle ich einen statistischen Test zur Schätzung der Signifikanz der so identifizierten dynamischen Übergänge. Die Stärken der Methode werden durch die Aufdeckung von Bifurkationsstrukturen in paradigmatischen Modellsystemen nachgewiesen, wobei im Vergleich zu den traditionellen Lyapunovexponenten eine Identifikation komplexerer dynamischer Übergänge möglich ist. Wir wenden die neu entwickelte Methode zur Analyse realer Messdaten an, um ausgeprägte dynamische Veränderungen auf Zeitskalen von Jahrtausenden in Klimaproxydaten des südasiatischen Sommermonsunsystems während des Pleistozäns aufzuspüren. Dabei zeigt sich, dass viele dieser Übergänge durch den externen Einfluss der veränderlichen Sonneneinstrahlung, sowie durch dem Klimasystem interne Einflussfaktoren auf das Monsunsystem (Eiszeitzyklen der nördlichen Hemisphäre und Einsatz der tropischenWalkerzirkulation) induziert werden. Trotz seiner Anwendbarkeit auf allgemeine Zeitreihen ist der diskutierte Ansatz besonders zur Untersuchung von kurzen Paläoklimazeitreihen geeignet. Die während des ISM über dem indischen Subkontinent fallenden Niederschläge treten, bedingt durch die zugrundeliegende Dynamik der atmosphärischen Zirkulation und topographische Einflüsse, in äußerst komplexen, raumzeitlichen Mustern auf. Ich stelle eine detaillierte Analyse der Sommermonsunniederschläge über der indischen Halbinsel vor, die auf Ereignissynchronisation (ES) beruht, einem Maß für die nichtlineare Korrelation von Punktprozessen wie Niederschlagsereignissen. Mit hierarchischen Clusteringalgorithmen identifiziere ich zunächst Regionen mit besonders kohärenten oder homogenen Monsunniederschlägen. Dabei können auch die Zeitverzögerungsmuster von Regenereignissen rekonstruiert werden. Darüber hinaus führe ich weitere Analysen auf Basis der Theorie komplexer Netzwerke durch. Diese Studien ermöglichen wertvolle Einsichten in räumliche Organisation, Skalen und Strukturen von starken Niederschlagsereignissen oberhalb der 90% und 94% Perzentilen während des ISM (Juni bis September). Weiterhin untersuche ich den Einfluss von verschiedenen, kritischen synoptischen Systemen der Atmosphäre sowie der steilen Topographie des Himalayas auf diese Niederschlagsmuster. Die vorgestellte Methode ist nicht nur geeignet, die Struktur extremer Niederschlagsereignisse zu visualisieren, sondern kann darüber hinaus über der Region atmosphärische Transportwege von Wasserdampf und Feuchtigkeitssenken auf dekadischen Skalen identifizieren.Weiterhin wird ein einfaches, auf komplexen Netzwerken basierendes Verfahren zur Entschlüsselung der räumlichen Feinstruktur und Zeitentwicklung von Monsunniederschlagsextremen während der vergangenen 60 Jahre vorgestellt.
117

Spatial classification methods for efficient infiltration measurements and transfer of measuring results / Räumlich orientierte Klassifikationsverfahren für effiziente Fremdwassermessungen und für die Übertragung von Messergebnissen

Franz, Torsten 13 June 2007 (has links) (PDF)
A comprehensive knowledge about the infiltration situation in a sewer system is required for sustainable operation and cost-effective maintenance. Due to the high expenditures of infiltration measurements an optimisation of necessary measurement campaigns and a reliable transfer of measurement results to comparable areas are essential. Suitable methods were developed to improve the information yield of measurements by identifying appropriate measuring point locations and to assign measurement results to other potential measuring points by comparing sub-catchments and classifying reaches. The methods are based on the introduced similarity approach “Similar sewer conditions lead to similar infiltration/inflow rates” and on modified multivariate statistical techniques. The developed methods have a high degree of freedom against data needs. They were successfully tested on real and generated data. For suitable catchments it is estimated, that the optimisation potential amounts up to 40 % accuracy improvement compared to non-optimised measuring point configurations. With an acceptable error the transfer of measurement results was successful for up to 75 % of the investigated sub-catchments. With the proposed methods it is possible to improve the information about the infiltration status of sewer systems and to reduce the measurement related uncertainty which results in significant cost savings for the operator. / Für den nachhaltigen Betrieb und die kosteneffiziente Unterhaltung von Kanalnetzen ist eine genaue Bestimmung ihrer Fremdwassersituation notwendig. Eine Optimierung der dazu erforderlichen Messkampagnen und eine zuverlässige Übertragung der Messergebnisse auf vergleichbare Gebiete sind aufgrund der hohen Aufwendungen für Infiltrationsmessungen angezeigt. Dafür wurden geeignete Methoden entwickelt, welche einerseits den Informationsgehalt von Messungen durch die Bestimmung optimaler Messpunkte verbessern und andererseits Messresultate mittels Vergleichen von Teileinzugsgebieten und Klassifizierungen von Kanalhaltungen zu anderen potenziellen Messstellen zuordnen. Die Methoden basieren auf dem Ähnlichkeitsansatz “Ähnliche Kanaleigenschaften führen zu ähnlichen Fremdwasserraten” und nutzen modifizierte multivariate statistische Verfahren. Sie haben einen hohen Freiheitsgrad bezüglich der Datenanforderung. Die Methoden wurden erfolgreich anhand gemessener und generierter Daten validiert. Es wird eingeschätzt, dass das Optimierungspotenzial bei geeigneten Einzugsgebieten bis zu 40 % gegenüber nicht optimierten Mess-netzen beträgt. Die Übertragung der Messergebnisse war mit einem akzeptablen Fehler für bis zu 75 % der untersuchten Teileinzugsgebiete erfolgreich. Mit den entwickelten Methoden ist es möglich, den Kenntnisstand über die Fremdwassersituation eines Kanalnetzes zu verbessern und die messungsbezogene Unsicherheit zu verringern. Dies resultiert in Kostenersparnissen für den Betreiber.
118

Alternative Analysemöglichkeiten geographischer Daten in der Kartographie mittels Self-Organizing Maps

Klammer, Ralf 25 August 2011 (has links) (PDF)
Die Kartographie ist eine Wissenschaft, die in ihrem Charakter starke interdisziplinäre Züge aufweist. Sie zeigt sich in den verschiedensten Facetten und wird darum in den unterschiedlichsten Wissenschaften angewandt. Markantester Charakter ist, schon per Definition, die Modellierung von geowissenschaftlichen Ereignissen und Sachverhalten. „A unique facility for the creation and manipulation of visual or virtual representations of geospace – maps – to permit the exploration, analysis, understanding and communication of information about that space.“(ICA 2003) Aus dieser Definition wird die Charakteristik einer Kommunikationswissenschaft (Brassel) deutlich. Gerade seit dem Paradigmenwechsel der 1970er Jahre fließen zahlreiche weitere Aspekte wie Informatik, Semiotik und Psychologie in das Verständnis von Kartographie ein. Dadurch wird die Karte nicht mehr als reines graphisches Mittel verstanden, sondern als Träger und Übermittler von Informationen verstanden. Der Kartennutzer und dessen Verständnis von Karten rücken dabei immer weiter in den Vordergrund und werden „Ziel“ der kartographischen Verarbeitung. Aus diesem Verständnis heraus, möchte ich in der folgenden Arbeit einen relativ neuen Einfluss und Aspekt der Kartographie vorstellen. Es handelt sich um das Modell der Self-Organizing Maps (SOM), welches erstmalig Anfang der 1980er Jahre von Teuvo Kohonen vorgestellt wurde und deshalb auch, von einigen Autoren, als Kohonenmaps bezeichnet wird. Dem Typus nach, handelt es sich dabei um künstliche neuronale Netze, welche dem Nervensystem des menschlichen Gehirns nachempfunden sind und damit allgemein als eine Art selbständiger, maschineller Lernvorgang angesehen werden können. Im Speziellen sind Self-Organizing Maps ein unüberwachtes Lernverfahren, das in der Lage ist völlig unbekannte Eingabewerte zu erkennen und zu verarbeiten. Durch diese Eigenschaft eignen sie sich als optimales Werkzeug für Data Mining sowie zur Visualisierung von hochdimensionalen Daten. Eine Vielzahl von Wissenschaftlern hat diesen Vorteil bereits erkannt und das Modell in ihre Arbeit einbezogen oder auf dessen Verwendbarkeit analysiert. Deshalb möchte in dieser Arbeit, einige dieser Verwendungsmöglichkeiten und den daraus resultierenden Vorteil für die Kartographie aufzeigen.
119

Von Chaos und Qualität ‐ die Ergebnisse des Projekts Collaborative Tagging

Krätzsch, Christine 19 January 2012 (has links) (PDF)
Im akademischen Bereich sind in Social-Software-Anwendungen wie Connotea, CiteULike und BibSonony umfangreiche Sammlungen von nutzergenerierten Metadaten entstanden. Im Vergleich zu kontrollierten Vokabularen, wie der Schlagwortnormdatei, handelt es sich dabei um personalisierte und in weiten Teilen „chaotische“ Inhaltserschließung. An der Universitätsbibliothek Mannheim wurde in einem DFG-Projekt untersucht, inwieweit das Potential dieser Art von Metadaten für eine bessere und nutzerorientierte Präsentation von Informationsressourcen eingesetzt werden kann. Ein Kernstück der Untersuchung war die Analyse von Tag-Daten des Systems BibSonomy. Es zeigte sich, dass nicht nur die mangelnde semantische Strukturiertheit der Tags, sondern auch ihre heterogene Gestalt einen limitierenden Faktor für die Verwendung in der bibliothekarischen Sacherschließung darstellt. Der Beitrag gibt anhand von Beispielen Einblick in das qualitative und strukturelle Chaos der untersuchten Tags und fasst die Ergebnisse des Projekts zusammen.
120

Monitoring of large-scale Cluster Computers

Worm, Stefan. Mehlan, Torsten. January 2007 (has links)
Chemnitz, Techn. Univ., Diplomarb., 2007.

Page generated in 0.0878 seconds