• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 104
  • 64
  • 22
  • 8
  • Tagged with
  • 198
  • 126
  • 103
  • 94
  • 70
  • 68
  • 68
  • 37
  • 27
  • 22
  • 21
  • 21
  • 19
  • 17
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Big by blocks: Modular Analytics

Hahmann, Martin, Hartmann, Claudio, Kegel, Lars, Habich, Dirk, Lehner, Wolfgang 26 November 2020 (has links)
Big Data and Big Data analytics have attracted major interest in research and industry and continue to do so. The high demand for capable and scalable analytics in combination with the ever increasing number and volume of application scenarios and data has lead to a large and intransparent landscape full of versions, variants and individual algorithms. As this zoo of methods lacks a systematic way of description, understanding is almost impossible which severely hinders effective application and efficient development of analytic algorithms. To solve this issue we propose our concept of modular analytics that abstracts the essentials of an analytic domain and turns them into a set of universal building blocks. As arbitrary algorithms can be created from the same set of blocks, understanding is eased and development benefits from reusability.
122

Data Model Canvas für die IT-Systemübergreifende Integration von Datenmodellen zur Unterstützung von Datenanalyse-Anwendungen im Produktlebenszyklus

Eickhoff, Thomas, Eiden, Andreas, Gries, Jonas, Göbel, Jens C. 06 September 2021 (has links)
Der Data Model Canvas (DMC) unterstützt methodisch und informationstechnisch den Aufbau der für ein durchgängiges und interdisziplinäres Engineering benötigten fachlichen Datengrundlage und deren Abbildung in den betreffenden IT-Systemen. Basierend auf konkreten Analyse-Szenarien erfolgt eine Modellierung der erforderlichen Datenvernetzung, die wiederum die explizit benötigten Datenquellen umfasst. Im Mittelpunkt dieses Ansatzes steht die Entwicklung eines fachlichen Verständnisses über die zur Analyse notwendigen roduktdaten. Unterstützt wird der Ansatz durch ein Softwaretool zur Erstellung der benötigten Datenmodelle.
123

Cuneiform

Brandt, Jörgen 29 January 2021 (has links)
In der Bioinformatik und der Next-Generation Sequenzierung benötigen wir oft große und komplexe Verarbeitungsabläufe um Daten zu analysieren. Die Werkzeuge und Bibliotheken, die hierin die Verarbeitungsschritte bilden, stammen aus unterschiedlichen Quellen und exponieren unterschiedliche Schnittstellen, was ihre Integration in Datenanalyseplattformen erschwert. Hinzu kommt, dass diese Verarbeitungsabläufe meist große Datenmengen prozessieren weshalb Forscher erwarten, dass unabhängige Verarbeitungsschritte parallel laufen. Der Stand der Technik im Feld der wissenschaftlichen Datenverarbeitung für Bioinformatik und Next-Generation Sequenzierung sind wissenschaftliche Workflowsysteme. Ein wissenschaftliches Workflowsystem erlaubt es Forschern Verarbeitungsabläufe als Workflow auszudrücken. Solch ein Workflow erfasst die Datenabhängigkeiten in einem Verarbeitungsablauf, integriert externe Software und erlaubt es unabhängige Verarbeitungsschritte zu erkennen, um sie parallel auszuführen. In dieser Arbeit präsentieren wir Cuneiform, eine Workflowsprache, und ihre verteilte Ausführungsumgebung. Für Cuneiform's Design nehmen wir die Perspektive der Programmiersprachentheorie ein. Wir lassen Methoden der funktionalen Programmierung einfließen um Komposition und Datenabhängigkeiten auszudrücken. Wir nutzen operationelle Semantiken um zu definieren, wann ein Workflow wohlgeformt und konsistent ist und um Reduktion zu erklären. Für das Design der verteilten Ausführungsumgebung nehmen wir die Perspektive der verteilten Systeme ein. Wir nutzen Petri Netze um die Kommunikationsstruktur der im System beteiligten Agenten zu erklären. / Bioinformatics and next-generation sequencing data analyses often form large and complex pipelines. The tools and libraries making up the processing steps in these pipelines come from different sources and have different interfaces which hampers integrating them into data analysis frameworks. Also, these pipelines process large data sets. Thus, users need to parallelize independent processing steps. The state of the art in large-scale scientific data analysis for bioinformatics and next-generation sequencing are scientific workflow systems. A scientific workflow system allows researchers to describe a data analysis pipeline as a scientific workflow which integrates external software, defines the data dependencies forming a data analysis pipeline, and parallelizes independent processing steps. Scientific workflow systems consist of a workflow language providing a user interface, and an execution environment. The workflow language determines how users express workflows, reuse and compose workflow fragments, integrate external software, how the scientific workflow system identifies independent processing steps, and how we derive optimizations from a workflow's structure. The execution environment schedules and runs data processing operations. In this thesis we present Cuneiform, a workflow language, and its distributed execution environment. For Cuneiform's design we take the perspective of programming languages. We adopt methods from functional programming towards composition and expressing data dependencies. We apply operational semantics and type systems to define well-formedness, consistency, and reduction of Cuneiform workflows. For the design of the distributed execution environment we take the perspective of distributed systems. We apply Petri nets to define the communication patterns among the distributed execution environment's agents.
124

Kindliche Fußmorphologie - Ein Typisierungsmodell zur Erfassung der dreidimensionalen Fußform im Kindesalter

Mauch, Marlene 13 June 2007 (has links)
Gegenstand der vorliegenden Arbeit ist die Erfassung kindlicher Fußformtypen anhand ihrer morphologischen Struktur. Vor dem Hintergrund der beträchtlichen Variabilität kindlicher Füße liegt das Erkenntnisinteresse insbesondere in der Erarbeitung eines Typisierungsansatzes, mit dem die kindliche Fußvielfalt in einem geordneten und vereinfachenden System gefasst werden kann. Ziel ist es, daraus ableitend, Informationen über die Entwicklung der kindlichen Fußform sowie über Verhältnisse des Fußwachstums bereitzustellen (klinisch-orthopädisch orientierte Typologie). Neben dem Alter der Kinder, werden das Geschlecht und der Body Mass Index (BMI) als weitere Einflussfaktoren mitberücksichtigt. Im Weiteren wird dieser Typisierungsansatz im Hinblick auf eine für den Schuhbau umsetzbare Typologie modifiziert (schuhspezifischen Typologie). Zur Konstruktion der Typen dienen clusteranalytische Verfahren. Als Resultat der differenzierten – klinisch-orthopädisch orientierten – Typenbildung können fünf verschiedene Fußtypen identifiziert werden: flacher, schlanker, kräftiger, kurzer und langer Fußtyp. Hinsichtlich des Vorkommens der fünf Typen zeigen sich signifikante Zusammenhänge bezüglich des Alters, Geschlechts und BMI. Im Rahmen der schuhspezifischen Typologie können drei Typen, auf der Grundlage von fünf für den Schuhbau relevanten Merkmalen (Ballenlänge, -winkel, -breite, Spannhöhe und Fersenbreite) generiert werden. Die Betrachtung der drei Typen über alle Schuhgrößen zeigt – analog zur Altersverteilung der differenzierten Typologie – eine größenabhängige Verteilung im Sinne eines Proportionswandels der kindlichen Fußdimensionen. Um den alters- bzw. schuhgrößenspezifischen Proportionen der kindlichen Fußform gerecht zu werden, wird eine stratifizierte Analyse in drei Schuhgrößenblöcken angeschlossen. Im Ergebnis führt dies zu einer drei (Schuhgrößenblöcke) x drei (Typen)-Clusterlösung. Durch diese neun verschiedenen Typen wird die große Variabilität der Fußmaße auf der einen Seite sowie das Wachstum des Kinderfußes – im Sinne des Proportionswandels – auf der anderen Seite, als Grundlage für ein neues Kinderschuh-System berücksichtigt. Dadurch hebt sich das neue System deutlich von bisherigen Konzepten ab, indem die Gestaltunterschiede des Fußes im Sinne eines (mehrdimensionalen) Typisierungsmodells umfassender erfasst werden können. / The object of the present study is to distinguish foot shape types in children based on their morphology. Because of the great amount of variability of children’s feet, a new approach of typifying has been developed to capture the variability of the feet in a structured and simplified model. The aim of this is to gain information about the development of children’s foot shape and the change in proportions throughout childhood (clinical-orthopaedic oriented typology). In addition to the age of the children, gender and Body Mass Index (BMI) are considered. Subsequently, this approach is modified to a typology which is practical for shoe construction (shoe specific typology). Foot types are generated using cluster analysis techniques. As a result of the clinical-orthopaedic oriented typology, five different foot types could be identified: flat, slender, robust, short and long. There are statistically significant differences in the prevalence of the five foot types regarding age, gender and BMI of the children. In the context of the shoe specific typology, three foot types could be identified which are based on five relevant foot measures used in shoe construction (ball-of-foot length, angle, and width, dorsal arch height, heel width). Foot dimensions change their proportions throughout the course of the different shoe sizes as children's feet grow - analogous to the age-related changes of the clinical-orthopaedic oriented typology. Therefore, a stratified analysis for each of the three different foot size sectors will be done to allow for the age and size related change of proportions. Based on the results of this analysis, a three (shoe size sectors) by three (types) cluster solution was generated. These nine foot types are the basis for a new approach for constructing children’s shoes, which allows for the great variability of the foot measures on the one hand, as well as the change of proportions throughout childhood on the other. Thus, this new approach contrasts with previous approaches by gathering the differences in foot shape in terms of a (multidimensional) typing model in a comprehensive way.
125

Der Zusammenhang zwischen plantaren Druckverteilungsdaten und dreidimensionaler Kinematik der unteren Extremität beim Barfußlauf

Maiwald, Christian 16 April 2008 (has links)
Der Anwendungsbereich plantarer Druckverteilungsmessungen ist vielfältig und reicht von der wissenschaftlichen Beschreibung des Abrollvorgangs über die Klassifizierung von Pathologien bis hin zur Empfehlung von Laufschuhen. Oftmals geht mit der Anwendung dieser Messungen ein an der Kinematik der vermessenen Person orientiertes Interpretationsschema der Druckverteilungsdaten einher. Dies schlägt sich in einer Vielzahl von Messgrößen nieder, welche mit dem Ziel entwickelt wurden, eine funktionale Interpretation von Druckmessdaten zu ermöglichen. Dabei besteht die generelle Annahme, dass sich ein Laufstil mit betonter Hüftadduktion und Pronation ("medialer Kollaps" in der Frontalebene) in Form einer medialisierten Lastverteilung im plantaren Druckbild niederschlägt. Ein wissenschaftlicher Beleg dieses Interpretationsansatzes wurde in der bisherigen Forschung jedoch nicht erbracht. Ziel dieser Arbeit ist daher, ein an der Kinematik orientiertes Interpretationsparadigma plantarer Druckverteilungsdaten kritisch zu überprüfen. Hierzu werden zunächst gängige und bereits publizierte Messgrößen der plantaren Druckverteilung auf Reproduzierbarkeit geprüft. Es zeigt sich ein in Abhängigkeit der Berechnungsweise begründbares Variabilitätsgefälle unterschiedlicher Messgrößen. Insbesondere die Messgrößen des Center of Pressure (CoP) erweisen sich als schlecht reproduzierbar und daher zur systematischen Differenzierung von Abrollmustern ungeeignet. Demgegenüber zeigt sich eine intrasubjektive Stabilität klassischer Druckmessgrößen. In einem weiteren Schritt wird ein möglicher Zusammenhang dieser Messgrößen zu kinematischen Variablen des Barfußlaufs untersucht. Für einen Großteil der bisher publizierten Druckmessgrößen – insbesondere jene des CoP - muss ein fehlender Zusammenhang zu kinematischen Variablen attestiert und eine dementsprechende Interpretationslogik verworfen werden. In einem dritten Schritt wird dann ein multivariater Zugang zur Auswertung und Interpretation der plantaren Druckdaten entwickelt. Auf Basis einer Clusteranalyse werden 5 Abrollmuster identifiziert, welche auf ihre Zusammenhänge zu kinematischen Charakteristika der Laufbewegung hin untersucht werden. Hier zeigen sich sehr deutliche Zusammenhänge zu kinematischen Variablen, welche jedoch nicht den o. g. klassischen Annahmen entsprechen. Eine detaillierte Analyse der entwickelten Clusterlösung zeigt, dass jene Druckverteilungsmuster, welche die größten Differenzen hinsichtlich der Kinematik der Frontalebene aufweisen, sich vornehmlich in der zeitlichen Abfolge biomechanischer Hauptmerkmale des Abrollvorgangs (Zeitpunkt des Fersenhubs, Zeitpunkt der maximalen Krafteinwirkung) unterscheiden, nicht jedoch hinsichtlich der medio-lateralen Lastverteilungscharakteristik. Aufgrund der durchgeführten Analysen der plantaren Druckverteilung sind eingangs erwähnte Interpretationslogiken nicht zu belegen. Im Gegenzug kann jedoch durch einen multivariaten Zugang zu plantaren Druckverteilungsdaten eine sehr robuste Interpretationsbasis geschaffen werden, welche auch für zukünftige Anwendungen plantarer Druckmessungen erfolgversprechende Resultate liefert.
126

Universality and variability in the statistics of data with fat-tailed distributions: the case of word frequencies in natural languages

Gerlach, Martin 01 March 2016 (has links)
Natural language is a remarkable example of a complex dynamical system which combines variation and universal structure emerging from the interaction of millions of individuals. Understanding statistical properties of texts is not only crucial in applications of information retrieval and natural language processing, e.g. search engines, but also allow deeper insights into the organization of knowledge in the form of written text. In this thesis, we investigate the statistical and dynamical processes underlying the co-existence of universality and variability in word statistics. We combine a careful statistical analysis of large empirical databases on language usage with analytical and numerical studies of stochastic models. We find that the fat-tailed distribution of word frequencies is best described by a generalized Zipf’s law characterized by two scaling regimes, in which the values of the parameters are extremely robust with respect to time as well as the type and the size of the database under consideration depending only on the particular language. We provide an interpretation of the two regimes in terms of a distinction of words into a finite core vocabulary and a (virtually) infinite noncore vocabulary. Proposing a simple generative process of language usage, we can establish the connection to the problem of the vocabulary growth, i.e. how the number of different words scale with the database size, from which we obtain a unified perspective on different universal scaling laws simultaneously appearing in the statistics of natural language. On the one hand, our stochastic model accurately predicts the expected number of different items as measured in empirical data spanning hundreds of years and 9 orders of magnitude in size showing that the supposed vocabulary growth over time is mainly driven by database size and not by a change in vocabulary richness. On the other hand, analysis of the variation around the expected size of the vocabulary shows anomalous fluctuation scaling, i.e. the vocabulary is a nonself-averaging quantity, and therefore, fluctuations are much larger than expected. We derive how this results from topical variations in a collection of texts coming from different authors, disciplines, or times manifest in the form of correlations of frequencies of different words due to their semantic relation. We explore the consequences of topical variation in applications to language change and topic models emphasizing the difficulties (and presenting possible solutions) due to the fact that the statistics of word frequencies are characterized by a fat-tailed distribution. First, we propose an information-theoretic measure based on the Shannon-Gibbs entropy and suitable generalizations quantifying the similarity between different texts which allows us to determine how fast the vocabulary of a language changes over time. Second, we combine topic models from machine learning with concepts from community detection in complex networks in order to infer large-scale (mesoscopic) structures in a collection of texts. Finally, we study language change of individual words on historical time scales, i.e. how a linguistic innovation spreads through a community of speakers, providing a framework to quantitatively combine microscopic models of language change with empirical data that is only available on a macroscopic level (i.e. averaged over the population of speakers).
127

Alternative Analysemöglichkeiten geographischer Daten in der Kartographie mittels Self-Organizing Maps

Klammer, Ralf 21 July 2010 (has links)
Die Kartographie ist eine Wissenschaft, die in ihrem Charakter starke interdisziplinäre Züge aufweist. Sie zeigt sich in den verschiedensten Facetten und wird darum in den unterschiedlichsten Wissenschaften angewandt. Markantester Charakter ist, schon per Definition, die Modellierung von geowissenschaftlichen Ereignissen und Sachverhalten. „A unique facility for the creation and manipulation of visual or virtual representations of geospace – maps – to permit the exploration, analysis, understanding and communication of information about that space.“(ICA 2003) Aus dieser Definition wird die Charakteristik einer Kommunikationswissenschaft (Brassel) deutlich. Gerade seit dem Paradigmenwechsel der 1970er Jahre fließen zahlreiche weitere Aspekte wie Informatik, Semiotik und Psychologie in das Verständnis von Kartographie ein. Dadurch wird die Karte nicht mehr als reines graphisches Mittel verstanden, sondern als Träger und Übermittler von Informationen verstanden. Der Kartennutzer und dessen Verständnis von Karten rücken dabei immer weiter in den Vordergrund und werden „Ziel“ der kartographischen Verarbeitung. Aus diesem Verständnis heraus, möchte ich in der folgenden Arbeit einen relativ neuen Einfluss und Aspekt der Kartographie vorstellen. Es handelt sich um das Modell der Self-Organizing Maps (SOM), welches erstmalig Anfang der 1980er Jahre von Teuvo Kohonen vorgestellt wurde und deshalb auch, von einigen Autoren, als Kohonenmaps bezeichnet wird. Dem Typus nach, handelt es sich dabei um künstliche neuronale Netze, welche dem Nervensystem des menschlichen Gehirns nachempfunden sind und damit allgemein als eine Art selbständiger, maschineller Lernvorgang angesehen werden können. Im Speziellen sind Self-Organizing Maps ein unüberwachtes Lernverfahren, das in der Lage ist völlig unbekannte Eingabewerte zu erkennen und zu verarbeiten. Durch diese Eigenschaft eignen sie sich als optimales Werkzeug für Data Mining sowie zur Visualisierung von hochdimensionalen Daten. Eine Vielzahl von Wissenschaftlern hat diesen Vorteil bereits erkannt und das Modell in ihre Arbeit einbezogen oder auf dessen Verwendbarkeit analysiert. Deshalb möchte in dieser Arbeit, einige dieser Verwendungsmöglichkeiten und den daraus resultierenden Vorteil für die Kartographie aufzeigen.:1.) Einleitung ...........................................................................................2 2.) Aufbau und Funktionsweise von SOM ............................................ 5 2.1.) Was sind Self-Organizing Maps? ................................................5 2.2.) Funktionsweise ............................................................................7 2.3.) Visualisierung des trainierten Kohonen-Netz .......................... 11 2.4.) Software ..................................................................................... 12 3. Möglichkeiten für die Kartographie................................................ 14 3.1 Geowissenschaftliches Data Mining ........................................... 15 3.2 Visualisierung von Daten............................................................. 17 4. explorative Datenanalyse geographischer Daten .......................... 19 4.1 SOM als Geovisualisierung .......................................................... 19 4.1.1 U-Matrix-Darstellung .............................................................22 4.1.2 Projektionen (Netzdarstellungen) ........................................26 4.1.3 2D & 3D-Plots .........................................................................28 4.1.4 Komponentenebenen ...........................................................29 4.2 Geo-SOM & andere Möglichkeiten zur Verarbeitung von geowissenschaftlichen Daten ................................................... 32 4.2.1 Hierarchische SOMs ...............................................................33 4.2.2 Geo-enforced SOM ................................................................34 4.2.3 Geo-SOM ................................................................................35 4.3 SOM & GIS .................................................................................... 38 5. Datenverarbeitende Anwendungen ............................................... 40 5.1 Klassifizierung von Fernerkundungsdaten................................. 40 5.2 Kantendetektion in Satellitenbildern......................................... 43 5.3 Auswertung von Zeitreihen & Monitoring................................. 47 5.4 Klassifikation von SAR-Daten...................................................... 49 5.5 Generalisierung............................................................................ 50 5.6 Problem des Handlungsreisenden (Travelling Salesman Problem)..................................................................................... 52 6. SOM als Kartenmetapher zur Visualisierung nicht-geographischer Daten .............................................................................................. 54 7. Zusammenfassung............................................................................ 62 X. Quellenverzeichnis ........................................................................... 63 X.I Literaturnachweise ....................................................................... 63 X.II Lehrinhalte aus dem Internet ..................................................... 69 X.III Softwarelösungen ...................................................................... 69
128

Das Analysekompetenz-Marktpriorität-Portfolio zum Vergleich von Datenanalyseprojekten in der Produktentwicklung

Klement, Sebastian, Saske, Bernhard, Arndt, Stephan, Stelzer, Ralph 03 January 2020 (has links)
Die Künstliche Intelligenz (KI) mit ihren untergeordneten Forschungsgebieten wie maschinelles Lernen (ML), Spracherkennung oder Robotik ist in aller Munde. Die Leistungsfähigkeit und Stabilität von Anwendungen, die im weiteren Sinne KI zur Aufgabenbearbeitung einsetzen, sind gestiegen und durchdringen die Gesellschaft immer mehr. Weltweit wird die KI als eine Schlüsseltechnologie wahrgenommen, die in den nächsten Jahren weiter an Bedeutung gewinnt (Bitkom, DFKI 2017). So zielt auch die Ausschreibung des Bundesministeriums für Wirtschaft und Energie von 02/2019 darauf ab, KI als Schrittmachertechnologie für „[…] volkswirtschaftlich relevante Ökosysteme“ zu fördern (BMWi 2019). Mit der zunehmenden Ausstattung der Produktionsmittel mit Sensoren und der gleichzeitig steigenden Vernetzung dieser, steigt auch die Menge verfügbarer Daten, die für die Generierung von Wissen genutzt werden können (Fraunhofer 2018). Davon profitiert besonders das ML als Teilgebiet der KI. So unterschiedlich die gewonnenen Daten sind, so unterschiedlich sind die Aufgaben, die innerhalb des Maschinenbaus mit diesen bewältigt werden können. Ziele, die mit dem Einsatz von ML verbunden werden, sind beispielsweise selbst optimierende Produktionssysteme oder die bedarfsgerechte Instandhaltung von Anlagen auf Grund einer möglichst genauen Prognose des Ausfallzeitpunktes der Komponenten. Ebenso wie jede andere Technologie bedarf der Einsatz von ML Ressourcen, die in den Unternehmen nur begrenzt vorhanden sind. Die Entscheidung für oder gegen einen Einsatz von ML in Maschinenbauprodukten ist derzeit ganz klar eine strategische und bedingt die Einbeziehung verschiedener Fachbereiche bis hin zum Management des Unternehmens (Saltz et al. 2017). Daher wird ein strategisches Diskussions- und Entscheidungswerkzeug benötigt, welches ein Projekt aus technologischer und wirtschaftlicher Sicht darstellen und fachübergreifend genutzt werden kann sowie ein strukturiertes Vorgehen ermöglicht. Die Autoren schlagen zur Entscheidungsfindung die Nutzung des hier eingeführten Analysekompetenz-Marktpriorität-Portfolios vor, welches speziell auf die Fragestellung des ML Einsatzes im Maschinenbau zugeschnitten ist. Es werden Bewertungstabellen vorgestellt und deren Nutzung erläutert, welche sich an den zu bearbeitenden Prozessschritten für komplexe Datenanalysen (Shearer 2000, Klement et al. 2018) orientiert. Die Ableitung von Normstrategien wird anhand der finalen Darstellung des Portfolios diskutiert. [... aus der Einleitung]
129

Leitfaden - Starkregen, Hochwasser und resultierende Schäden gemeinsam mit der Bevölkerung erfassen und analysieren

Grundmann, Jens, Schache, Judith 06 February 2020 (has links)
Der Leitfaden soll Kommunen sowie Behörden und Organisationen mit Sicherheitsaufgaben, insbesondere Freiwillige Feuerwehren, bei einer systematischen Vorgehensweise zur Identifikation und Analyse von Gefahrenhotspots infolge Starkregen und Hochwasser unterstützen.:1 Anlass und Zielstellung 1 2 Starkregen und Hochwasser beobachten und Informationen sammeln 4 2.1 Wie stellt sich die Situation dar? 4 2.2 Welche Informationen werden benötigt? 5 3 Erfassen und Dokumentieren 6 3.1 Das Hochwasser/Schaden Erfassungstool 7 3.1.1 Web-Plattform 8 3.1.2 Erfassungsbogen 9 3.2 Methoden der Erfassung 9 3.2.1 Gesprächsrunde 10 3.2.2 Ortsbegehung 11 3.2.3 Selbsterfassung 12 4 Analysieren und Schlussfolgern 13 4.1 Analyse der Datenbank 13 4.1.1 Plausibilisierung der Daten 13 4.1.2 Analyse der Daten 13 4.1.3 Auswertung der Daten 18 4.2 Einbeziehen zusätzlicher Geoinformationen 21 4.2.1 Fließwege 21 4.2.2 Erosionsgefährdung 23 4.2.3 Überschwemmungsgebiete 24 5 Handlungsbedarf ableiten 26 6 Anhang 28 6.1 Durchführungsbeispiel Gesprächsrunde 28 6.2 Formular Erfassungsbogen 34 6.3 Gute Fotos für die Ereignisdokumentation 36 6.4 Benutzeranleitung „Hochwasser/Schaden-Erfassungstool“ 40 6.5 Übungsbox „Hochwasser/Schadens-Erfassungstool“ 52 6.6 Technische Anleitung zur Datenanalyse 66 6.7 Kurzüberblick „Private Hochwasservorsorge“ 70 7 Referenzen 81 / Dieser Leitfaden wurde im Rahmen des Projektes 'VEREINT ‐ Kooperativ organisierter Bevölkerungsschutz bei extremen Wetterlagen' durch die Technische Universität Dresden, Professur Hydrologie erstellt.:1 Anlass und Zielstellung 1 2 Starkregen und Hochwasser beobachten und Informationen sammeln 4 2.1 Wie stellt sich die Situation dar? 4 2.2 Welche Informationen werden benötigt? 5 3 Erfassen und Dokumentieren 6 3.1 Das Hochwasser/Schaden Erfassungstool 7 3.1.1 Web-Plattform 8 3.1.2 Erfassungsbogen 9 3.2 Methoden der Erfassung 9 3.2.1 Gesprächsrunde 10 3.2.2 Ortsbegehung 11 3.2.3 Selbsterfassung 12 4 Analysieren und Schlussfolgern 13 4.1 Analyse der Datenbank 13 4.1.1 Plausibilisierung der Daten 13 4.1.2 Analyse der Daten 13 4.1.3 Auswertung der Daten 18 4.2 Einbeziehen zusätzlicher Geoinformationen 21 4.2.1 Fließwege 21 4.2.2 Erosionsgefährdung 23 4.2.3 Überschwemmungsgebiete 24 5 Handlungsbedarf ableiten 26 6 Anhang 28 6.1 Durchführungsbeispiel Gesprächsrunde 28 6.2 Formular Erfassungsbogen 34 6.3 Gute Fotos für die Ereignisdokumentation 36 6.4 Benutzeranleitung „Hochwasser/Schaden-Erfassungstool“ 40 6.5 Übungsbox „Hochwasser/Schadens-Erfassungstool“ 52 6.6 Technische Anleitung zur Datenanalyse 66 6.7 Kurzüberblick „Private Hochwasservorsorge“ 70 7 Referenzen 81
130

Large-Scale Time Series Analytics

Hahmann, Martin, Hartmann, Claudio, Kegel, Lars, Lehner, Wolfgang 16 June 2023 (has links)
More and more data is gathered every day and time series are a major part of it. Due to the usefulness of this type of data, it is analyzed in many application domains. While there already exists a broad variety of methods for this task, there is still a lack of approaches that address new requirements brought up by large-scale time series data like cross-domain usage or compensation of missing data. In this paper, we address these issues, by presenting novel approaches for generating and forecasting large-scale time series data.

Page generated in 0.0857 seconds