• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 154
  • 131
  • 25
  • 4
  • 1
  • 1
  • 1
  • Tagged with
  • 314
  • 230
  • 151
  • 141
  • 135
  • 135
  • 54
  • 35
  • 34
  • 30
  • 28
  • 24
  • 22
  • 22
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Ein Standard-File für 3D-Gebietsbeschreibungen

Lohse, Dag 12 September 2005 (has links)
Es handelt sich hierbei um die Dokumentation eines Dateiformats zur Beschreibung dreidimensionaler FEM-Gebiete in Randrepräsentation. Eine interne Datenbasis dient als Verbindung zwischen externem Dateiformat und verschiedenen verarbeitenden Programmen.
92

Ein Standard-File für 3D-Gebietsbeschreibungen. - Datenbasis und Programmschnittstelle data_read

Lohse, Dag 13 September 2005 (has links)
Auf der Grundlage der in Preprint 98-11 dieser Reihe gegebenen Dokumentation des Dateiformats wird hier eine Programmschnittstelle beschrieben, die das Einlesen solcher Gebietsdatenfiles ermöglicht. Die Struktur der internen Datenbasis wird beschrieben.
93

Online Recognition of Fuzzy Time Series Patterns

Herbst, Gernot 10 August 2009 (has links)
This article deals with the recognition of recurring multivariate time series patterns modelled sample-point-wise by parametric fuzzy sets. An efficient classification-based approach for the online recognition of incompleted developing patterns in streaming time series is being presented. Furthermore, means are introduced to enable users of the recognition system to restrict results to certain stages of a pattern’s development, e. g. for forecasting purposes, all in a consistently fuzzy manner.
94

Parametric Fuzzy Modelling Framework for Complex Data-Inherent Structures

Hempel, Arne-Jens, Bocklisch, Steffen F. 17 September 2009 (has links)
The present article dedicates itself to fuzzy modelling of data-inherent structures. In particular two main points are dealt with: the introduction of a fuzzy modelling framework and the elaboration of an automated, data-driven design strategy to model complex data-inherent structures within this framework. The innovation concerning the modelling framework lies in the fact that it is consistently built around a single, generic type of parametrical and convex membership function. In the first part of the article this essential building block will be defined and its assets and shortcomings will be discussed. The novelty regarding the automated, data-driven design strategy consist in the conservation of the modelling framework when modelling complex (nonconvex) data-inherent structures. Instead of applying current clustering methods the design strategy uses the inverse of the data structure in order to created a fuzzy model solely based on convex membership functions. Throughout the article the whole model design process is illustrated, section by section, with the help of an academic example.
95

Short-Time Prediction Based on Recognition of Fuzzy Time Series Patterns

Herbst, Gernot 05 July 2010 (has links)
This article proposes knowledge-based short-time prediction methods for multivariate streaming time series, relying on the early recognition of local patterns. A parametric, well-interpretable model for such patterns is presented, along with an online, classification-based recognition procedure. Subsequently, two options are discussed to predict time series employing the fuzzified pattern knowledge, accompanied by an example. Special emphasis is placed on comprehensible models and methods, as well as an easy interface to data mining algorithms.
96

Untersuchung des Informationsverlustes von Zeitreihen beim Übergang von Minuten- zu Viertelstundendurchschnittswerten

Schmiedel, Anne 09 December 2011 (has links)
Es erfolgte die Untersuchung der Eigenschaften der gegebenen Zeitreihen der Wirkleistung von zwei Windenergieanlagen sowie des gesamten Windparks. Außerdem analysiert wurden die entsprechenden Eigenschaften der auf Viertelstundendaten konvertierten Reihen. Diese Eigenschaften, wie z.B. Mittelwert, Varianz o.a. Maximum wurden als Informationen angesehen und so ermöglichte die Gegenüberstellung einen Rückschluss auf dem Informationsverlust. Da die gegebene Einspeiseleistung keine Periodizitäten aufwies, erfolgte anschließend die Erzeugung synthetischer Daten.:Einleitung 1. Mathematische Grundlagen 2. Datenanalyse 3. Erzeugung und Untersuchung synthetischer Daten 4. Zusammenfassung und Ausblick A Anhang Literaturverzeichnis Ehrenwörtliche Erklärung
97

Evaluation verschiedener Imputationsverfahren zur Aufbereitung großer Datenbestände am Beispiel der SrV-Studie von 2013

Meister, Romy 09 March 2016 (has links)
Missing values are a serious problem in surveys. The literature suggests to replace these with realistic values using imputation methods. This master thesis examines four different imputation techniques concerning their ability for handling missing data. Therefore, mean imputation, conditional mean imputation, Expectation-Maximization algorithm and Markov-Chain-Monte-Carlo method are presented. In addition, the three first mentioned methods were simulated by using a large real data set. To analyse the quality of these techniques a metric variable of the original data set was chosen to generate some missing values considering different percentages of missingness and common missing data mechanism. After the replacement of the simulated missing values, several statistical parameters, like quantiles, arithmetic mean and variance of all completed data sets were calculated in order to compare them with the parameters from the original data set. The results, that have been established by empiric data analysis, show that the Expectation-Maximization algorithm estimates all considered statistical parameters of the complete data set far better than the other analysed imputation methods, although the assumption of a multivariate normal distribution could not be achieved. It is found, that the mean as well as the conditional mean imputation produce statistically significant estimator for the arithmetic mean under the supposition of missing completely at random, whereas other parameters as the variance do not show the estimated effects. Generally, the accuracy of all estimators from the three imputation methods decreases with increasing percentage of missingness. The results lead to the conclusion that the Expectation-Maximization algorithm should be preferred over the mean and the conditional mean imputation.
98

Forschungsdesign 4.0: Zur Kontextualisierung wissenschaftlichen Arbeitens im digitalen Zeitalter

Spieker, Ira, Kleinmann, Sarah, Schuffels, Christian, Kulbe, Nadine 02 April 2020 (has links)
No description available.
99

Aufbewahrung digitaler Daten im Kontext des Informationszeitalters und aktueller Entwicklungen im Cloud Computing: Eine multiperspektivische Analyse aus Sicht von Unternehmen und Endanwendern

Burda, Daniel 05 November 2015 (has links)
Daten bilden im Informationszeitalter die Grundlage unternehmerischen, gesellschaftlichen und individuellen Handelns und werden häufig auch als ein immaterielles (Wirtschafts-)Gut verstanden. Die globale Datenmenge wächst dabei exponentiell und verdoppelt sich laut Schätzungen ca. alle zwei Jahre. Gleichzeitig mit diesem rasanten Datenwachstum und resultierend aus den technologischen Fortschritten verändert sich auch die zur Darstellung und Speicherung von digitalen Daten notwendige Hard- und Software. Dies führt zu der Situation, dass Daten in großen Mengen beinahe beiläufig erzeugt werden, wogegen deren langfristige Nutzbarkeit und Erhaltung jedoch aktiv sichergestellt werden muss. Während diese Problematik bereits seit geraumer Zeit auf der Forschungsagenda der Bibliothekswissenschaftler und Archivare steht, dringt sie in zunehmendem Maße auch in den Kontext der Wirtschaftsinformatik und in den Fokus von Unternehmen vor, welche sich mit verschärften Compliance-Anforderungen, Aufbewahrungsanforderungen und Rechtsstreitigkeiten konfrontiert sehen, wodurch die langfristige Verfügbarkeit von digitalen Informationen erforderlich wird. Aber nicht nur Unternehmen sind mit den Herausforderungen konfrontiert, die mit dem langfristigen Erhalt digitaler Informationen verbunden sind. Auch im privaten Bereich stellt sich die Frage, wie Endanwender den Zugriff auf ihre persönlichen und für sie zum Teil unersetzlichen Daten wie Fotos oder Dokumente langfristig sicherstellen können. Die vorliegende Dissertation soll einen Erkenntnisbeitrag zum skizzierten Spannungsfeld und den Herausforderungen der Archivierung im Informationszeitalter leisten. Dazu werden Fragestellungen sowohl aus der Perspektive von Unternehmen als auch aus derjenigen von privaten Endanwendern und Cloud-Dienstleistern im Rahmen von einzelnen Forschungsbeiträgen untersucht.
100

mFUND-Projekte im Porträt - 7 Fragen an ECOSense

Wissenschaftliches Institut für Infrastruktur und Kommunikationsdienste 31 January 2022 (has links)
Ein Gespräch mit Johannes Schering (Universität Oldenburg), Entwickler und Initiator des mFUND-Projektes Erfassung und Analyse von Radverkehrsdaten (ECOSense).

Page generated in 0.0379 seconds