• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 157
  • 133
  • 25
  • 4
  • 1
  • 1
  • 1
  • Tagged with
  • 319
  • 235
  • 153
  • 143
  • 137
  • 137
  • 55
  • 38
  • 37
  • 31
  • 28
  • 25
  • 22
  • 22
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Generalized Tikhonov regularization

Flemming, Jens 01 November 2011 (has links) (PDF)
The dissertation suggests a generalized version of Tikhonov regularization and analyzes its properties. The focus is on convergence rates theory and an extensive example for regularization with Poisson distributed data is given.
172

Plot-Based Land-Cover and Soil-Moisture Mapping Using X-/L-Band SAR Data. Case Study Pirna-South, Saxony, Germany

Mahmoud, Ali 26 January 2012 (has links) (PDF)
Agricultural production is becoming increasingly important as the world demand increases. On the other hand, there are several factors threatening that production such as the climate change. Therefore, monitoring and management of different parameters affecting the production are important. The current study is dedicated to two key parameters, namely agricultural land cover and soil-moisture mapping using X- and L-Band Synthetic Aperture Radar (SAR) data. Land-cover mapping plays an essential role in various applications like irrigation management, yield estimation and subsidy control. A model of multi-direction/multi-distance texture analysis on SAR data and its use for agricultural land cover classification was developed. The model is built and implemented in ESRI ArcGIS software and integrated with “R Environment”. Sets of texture measures can be calculated on a plot basis and stored in an attribute table for further classification. The classification module provides various classification approaches such as support vector machine and artificial neural network, in addition to different feature-selection methods. The model has been tested for a typical Mid-European agricultural and horticultural land use pattern south to the town of Pirna (Saxony/Germany), where the high-resolution SAR data, TerraSAR-X and ALOS/PALSAR (HH/HV) imagery, were used for land-cover mapping. The results indicate that an integrated classification using textural information of SAR data has a high potential for land-cover mapping. Moreover, the multi-dimensional SAR data approach improved the overall accuracy. Soil moisture (SM) is important for various applications such as crop-water management and hydrological modelling. The above-mentioned TerraSAR-X data were utilised for soil-moisture mapping verified by synchronous field measurements. Different speckle-reduction techniques were applied and the most representative filtered image was determined. Then the soil moisture was calculated for the mapped area using the obtained linear regression equations for each corresponding land-cover type. The results proved the efficiency of SAR data in soil-moisture mapping for bare soils and at the early growing stage of fieldcrops. / Landwirtschaftliche Produktion erlangt mit weltweit steigender Nahrungsmittelnachfrage zunehmende Bedeutung. Zahlreiche Faktoren bedrohen die landwirtschaftliche Produktion wie beispielsweise die globale Klimaveränderung einschließlich ihrer indirekten Nebenwirkungen. Somit ist das Monitoring der Produktion selbst und der wesentlichen Produktionsparameter eine zweifelsfrei wichtige Aufgabe. Die vorliegende Studie widmet sich in diesem Kontext zwei Schlüsselinformationen, der Aufnahme landwirtschaftlicher Kulturen und den Bodenfeuchteverhältnissen, jeweils unter Nutzung von Satellitenbilddaten von Radarsensoren mit Synthetischer Apertur, die im X- und L-Band operieren. Landnutzungskartierung spielt eine essentielle Rolle für zahlreiche agrarische Anwendungen; genannt seien hier nur Bewässerungsmaßnahmen, Ernteschätzung und Fördermittelkontrolle. In der vorliegenden Arbeit wurde ein Modell entwickelt, welches auf Grundlage einer Texturanalyse der genannten SAR-Daten für variable Richtungen und Distanzen eine Klassifikation landwirtschaftlicher Nutzungsformen ermöglicht. Das Modell wurde als zusätzliche Funktionalität für die ArcGIS-Software implementiert. Es bindet dabei Klassifikationsverfahren ein, die aus dem Funktionsschatz der Sprache „R“ entnommen sind. Zum Konzept: Ein Bündel von Texturparametern wird durch das vorliegende Programm auf Schlagbasis berechnet und in einer Polygonattributtabelle der landwirtschaftlichen Schläge abgelegt. Auf diese Attributtabelle greift das nachfolgend einzusetzende Klassifikationsmodul zu. Die Software erlaubt nun die Suche nach „aussagekräftigen“ Teilmengen innerhalb des umfangreichen Texturmerkmalsraumes. Im Klassifikationsprozess kann aus verschiedenen Ansätzen gewählt werden. Genannt seien „Support Vector Machine“ und künstliche neuronale Netze. Das Modell wurde für einen typischen mitteleuropäischen Untersuchungsraum mit landwirtschaftlicher und gartenbaulicher Nutzung getestet. Er liegt südlich von Pirna im Freistaat Sachsen. Zum Test lagen für den Untersuchungsraum Daten von TerraSAR-X und ALOS/PALSAR (HH/HV) aus identischen Aufnahmetagen vor. Die Untersuchungen beweisen ein hohes Potenzial der Texturinformation aus hoch aufgelösten SAR-Daten für die landwirtschaftliche Nutzungserkennung. Auch die erhöhte Dimensionalität durch die Kombination von zwei Sensoren erbrachte eine Verbesserung der Klassifikationsgüte. Kenntnisse der Bodenfeuchteverteilung sind u.a. bedeutsam für Bewässerungsanwendungen und hydrologische Modellierung. Die oben genannten SAR-Datensätze wurden auch zur Bodenfeuchteermittlung genutzt. Eine Verifikation wurde durch synchrone Feldmessungen ermöglicht. Initial musste der Radar-typische „Speckle“ in den Bildern durch Filterung verringert werden. Verschiedene Filtertechniken wurden getestet und das beste Resultat genutzt. Die Bodenfeuchtebestimmung erfolgte in Abhängigkeit vom Nutzungstyp über Regressionsanalyse. Auch die Resultate für die Bodenfeuchtebestimmung bewiesen das Nutzpotenzial der genutzten SAR-Daten für offene Ackerböden und Stadien, in denen die Kulturpflanzen noch einen geringen Bedeckungsgrad aufweisen.
173

Storage Format Selection and Optimization for Materialized Intermediate Results in Data-Intensive Flows

Munir, Rana Faisal 01 February 2021 (has links)
Modern organizations produce and collect large volumes of data, that need to be processed repeatedly and quickly for gaining business insights. For such processing, typically, Data-intensive Flows (DIFs) are deployed on distributed processing frameworks. The DIFs of different users have many computation overlaps (i.e., parts of the processing are duplicated), thus wasting computational resources and increasing the overall cost. The output of these computation overlaps (known as intermediate results) can be materialized for reuse, which helps in reducing the cost and saves computational resources if properly done. Furthermore, the way such outputs are materialized must be considered, as different storage layouts (i.e., horizontal, vertical, and hybrid) can be used to reduce the I/O cost. In this PhD work, we first propose a novel approach for automatically materializing the intermediate results of DIFs through a multi-objective optimization method, which can tackle multiple and conflicting quality metrics. Next, we study the behavior of different operators of DIFs that are the first to process the loaded materialized results. Based on this study, we devise a rule-based approach, that decides the storage layout for materialized results based on the subsequent operation types. Despite improving the cost in general, the heuristic rules do not consider the amount of data read while making the choice, which could lead to a wrong decision. Thus, we design a cost model that is capable of finding the right storage layout for every scenario. The cost model uses data and workload characteristics to estimate the I/O cost of a materialized intermediate results with different storage layouts and chooses the one which has minimum cost. The results show that storage layouts help to reduce the loading time of materialized results and overall, they improve the performance of DIFs. The thesis also focuses on the optimization of the configurable parameters of hybrid layouts. We propose ATUN-HL (Auto TUNing Hybrid Layouts), which based on the same cost model and given the workload and characteristics of data, finds the optimal values for configurable parameters in hybrid layouts (i.e., Parquet). Finally, the thesis also studies the impact of parallelism in DIFs and hybrid layouts. Our proposed cost model helps to devise an approach for fine-tuning the parallelism by deciding the number of tasks and machines to process the data. Thus, the cost model proposed in this thesis, enables in choosing the best possible storage layout for materialized intermediate results, tuning the configurable parameters of hybrid layouts, and estimating the number of tasks and machines for the execution of DIFs. / Moderne Unternehmen produzieren und sammeln große Datenmengen, die wiederholt und schnell verarbeitet werden müssen, um geschäftliche Erkenntnisse zu gewinnen. Für die Verarbeitung dieser Daten werden typischerweise Datenintensive Prozesse (DIFs) auf verteilten Systemen wie z.B. MapReduce bereitgestellt. Dabei ist festzustellen, dass die DIFs verschiedener Nutzer sich in großen Teilen überschneiden, wodurch viel Arbeit mehrfach geleistet, Ressourcen verschwendet und damit die Gesamtkosten erhöht werden. Um diesen Effekt entgegenzuwirken, können die Zwischenergebnisse der DIFs für spätere Wiederverwendungen materialisiert werden. Hierbei müssen vor allem die unterschiedlichen Speicherlayouts (horizontal, vertikal und hybrid) berücksichtigt werden. In dieser Doktorarbeit wird ein neuartiger Ansatz zur automatischen Materialisierung der Zwischenergebnisse von DIFs durch eine mehrkriterielle Optimierungsmethode vorgeschlagen, der in der Lage ist widersprüchliche Qualitätsmetriken zu behandeln. Des Weiteren wird untersucht die Wechselwirkung zwischen verschiedenen peratortypen und unterschiedlichen Speicherlayouts untersucht. Basierend auf dieser Untersuchung wird ein regelbasierter Ansatz vorgeschlagen, der das Speicherlayout für materialisierte Ergebnisse, basierend auf den nachfolgenden Operationstypen, festlegt. Obwohl sich die Gesamtkosten für die Ausführung der DIFs im Allgemeinen verbessern, ist der heuristische Ansatz nicht in der Lage die gelesene Datenmenge bei der Auswahl des Speicherlayouts zu berücksichtigen. Dies kann in einigen Fällen zu falschen Entscheidung führen. Aus diesem Grund wird ein Kostenmodell entwickelt, mit dem für jedes Szenario das richtige Speicherlayout gefunden werden kann. Das Kostenmodell schätzt anhand von Daten und Auslastungsmerkmalen die E/A-Kosten eines materialisierten Zwischenergebnisses mit unterschiedlichen Speicherlayouts und wählt das kostenminimale aus. Die Ergebnisse zeigen, dass Speicherlayouts die Ladezeit materialisierter Ergebnisse verkürzen und insgesamt die Leistung von DIFs verbessern. Die Arbeit befasst sich auch mit der Optimierung der konfigurierbaren Parameter von hybriden Layouts. Konkret wird der sogenannte ATUN-HL Ansatz (Auto TUNing Hybrid Layouts) entwickelt, der auf der Grundlage des gleichen Kostenmodells und unter Berücksichtigung der Auslastung und der Merkmale der Daten die optimalen Werte für konfigurierbare Parameter in Parquet, d.h. eine Implementierung von hybrider Layouts. Schließlich werden in dieser Arbeit auch die Auswirkungen von Parallelität in DIFs und hybriden Layouts untersucht. Dazu wird ein Ansatz entwickelt, der in der Lage ist die Anzahl der Aufgaben und dafür notwendigen Maschinen automatisch zu bestimmen. Zusammengefasst lässt sich festhalten, dass das in dieser Arbeit vorgeschlagene Kostenmodell es ermöglicht, das bestmögliche Speicherlayout für materialisierte Zwischenergebnisse zu ermitteln, die konfigurierbaren Parameter hybrider Layouts festzulegen und die Anzahl der Aufgaben und Maschinen für die Ausführung von DIFs zu schätzen.
174

Ontology approach for Building Lifecycle data management

Karlapudi, Janakiram, Valluru, Prathap, Menzel, Karsten 13 December 2021 (has links)
The Architecture, Engineering and Construction industry involves multiple disciplines and activities throughout the Building Lifecycle Stages (BLS). To enable collaboration amongst these disciplines iterative and coordinated exchange of information is required. This improves the design process over multiple BLS. Since the last decade, BIM is a well-known approach to achieve collaboration through semantic representation and exchange of domain data. Despite the improvement, there is a lack of efficient implementation and management of building lifecycle functionalities in existing BIM solutions, because of their fundamental heterogeneity, complexity and adaptability. This research focuses on these issues and addresses a clear perception through analysis of BLS from various standards and norms. The paper concentrates on the demonstration of efficient representation of various BLS through the ontological approach and their effective involvement in BIM data management. With the validation and evaluation through SPARQL queries, this paper presents an ontological framework for building lifecycle data management.:ABSTRACT INTRODUCTION & BACKGROUND RELATED RESEARCH WORK ONTOLOGY-BASED BLS DATA MANAGEMENT VALIDATION CONCLUSION ACKNOWLEDGEMENT REFERENCES
175

Standardization of the Colombian version of the PHQ-4 in the general population

Kocalevent, Rüya-Daniela, Finck, Carolyn, Jimenez-Leal, William, Sautier, Leon, Hinz, Andreas January 2014 (has links)
Background: The PHQ-4 is a widely used open access screening instrument for depression and anxiety in different health care and community settings; however, empirical evidence of its psychometric quality in Colombia is lacking. The objectives of the current study were to generate normative data and to further investigate the construct validity and factorial structure of the PHQ-4 in the general population. Methods: A nationally representative face-to-face household survey was conducted in Colombia in 2012 (n = 1,500). The item characteristics of the PHQ-4 items, including the inter-item correlations and inter-subscale correlations, were investigated. To measure the scale’s reliability, the internal consistency (Cronbach’s α) was assessed. For factorial validity, the factor structure of the PHQ-4 was examined with confirmatory factor analysis (CFA). Results: The Cronbach’s alpha coefficient for the PHQ-4 was 0.84. The confirmatory factor analysis supported a two-factor model, which was structurally invariant between different age and gender groups. Normative data for the PHQ-4 were generated for both genders and different age levels. Women had significantly higher mean scores compared with men [1.4 (SD: 2.1) vs. 1.1 (SD: 1.9), respectively]. The results supported the discriminant validity of the PHQ-4. Conclusions: The normative data provide a framework for the interpretation and comparisons of the PHQ-4 with other populations in Colombia. The evidence supports the reliability and validity of the two-factor PHQ-4 as a measure of anxiety and depression in the general Colombian population.
176

Anomalieresolution bei abduktivem Schließen: Experimente zur Hypothesenbildung und Strategieauswahl beim Problemlösen

Keinath, Andreas 29 April 2003 (has links)
Das Finden einer Erklärung für eine gegebene Menge von Daten oder Evidenzen wird als abduktives Schließen bezeichnet (Josephson & Josephson, 1994). Eine Vielzahl von Aufgaben lässt sich demnach als Abduktion charakterisieren, darunter beispielsweise medizinische Diagnose, die Suche nach Fehlern in technischen Systemen oder auch wissenschaftliches Entdecken (z.B. Charniak & McDermott, 1985). Für viele dieser Aufgaben ist der Umgang mit Anomalien von besonderer Bedeutung. Eine Anomalie ist im einfachsten Falle eine neue Evidenz, die einer bisherigen Erklärung für Daten widerspricht. Vor allem im Bereich des wissenschaftlichen Entdeckens weist eine Vielzahl von Studien darauf hin, wie wichtig das Erkennen und Lösen von Anomalien für erfolgreiches Problemlösen ist (vgl. Kuhn, 1962; Chinn & Brewer, 1998; Alberdi, Sleeman & Korpi, 2000). Die meisten Theorien abduktiven Schließens berücksichtigen die Bedeutung von Anomalien dagegen nur unzureichend (vgl. Klahr & Dunbar, 1988; Thagrad, 1989). Allerdings bietet das Modell von Johnson und Krems (2001, Krems & Johnson, 1995) einen spezifischen Mechanismus zur Anomalieresolution: Im Falle zweier sich widersprechender Evidenzen wird für beide Evidenzen eine Alternativerklärung konstruiert. Anschließend werden diese gegeneinander abgewogen. Indes wurde dieser Mechanismus bislang noch nicht empirisch belegt. Ziel der vorliegenden Arbeit war es einerseits zu klären, ob sich empirische Belege für den postulierten Mechanismus zur Anomalieresolution von Johnson und Krems (2001) finden lassen und andererseits zu prüfen, welche Einflussfaktoren und Strategien die Resolution von Anomalien beeinflussen. Es fand sich, dass abstrakte Ausgangshypothesen die Resolution von Anomalien erleichtern. Widersprach eine Anomalie einer abstrakten Ausgangserklärung, so lösten die Versuchsteilnehmer in Experiment 1 die Aufgaben häufiger, als bei einer konkreten Ausgangshypothese. In Experiment 2 zeigte sich zudem, dass bei einer abstrakten Ausgangshypothese weniger Experimente durchgeführt werden mussten um die Aufgabe korrekt zu lösen, dass häufiger spezifische Hypothesentests durchgeführt wurden und die Aufgaben auch schneller gelöst werden konnten. Unabhängig von der Ausgangshypothese testeten erfolgreiche Versuchsteilnehmer bevorzugt spezifische Hypothesen während hypothesenfreie Experimente dazu dienten, neue Hypothesen zu generieren. Demnach lösten die Probanden die Aufgaben durch Anwendung einer Mischstrategie, indem sie sowohl hypothesengestützt als auch hypothesenfrei nach neuen Daten suchten. Eine Einteilung der Versuchsteilnehmer in Theoretiker und Empiristen (Klahr & Dunbar, 1988) war dagegen nicht möglich. Das Ergebnis wurde in Anlehnung an Befunde von Smith et al. (1991) dahingehend interpretiert, dass eine solche Mischstrategie dabei hilft, die Komplexität der abduktiven Aufgabe zu reduzieren. Nicht bestätigt werden konnte in den Experimenten 2 und 3 die Modellvorhersage von Johnson und Krems (2001), dass die Versuchspersonen zwei Alternativerklärungen für die widersprechenden Evidenzen generieren um diese anschließend gegeneinander abzuwägen. Es wurde von den Probanden nur eine Alternativerklärung generiert, in Abhängigkeit davon, ob die an der Anomalie beteiligten Evidenzen kontextsensitiv oder kontextfrei erklärbar waren. Unter kontextsensitiven Evidenzen versteht man solche Evidenzen, die zu ihrer Erklärung auf andere Evidenzen angewiesen sind. Dagegen können kontextfrei erklärbare Evidenzen unmittelbar und ohne Einbeziehung des Kontextes erklärt werden. War eine kontextsensitive Evidenz an der Anomalie beteiligt, entweder als anomalieauslösende Evidenz oder als widersprochene Evidenz, so wurde immer diese alternativ erklärt. Waren dagegen beide an der Anomalie beteiligten Evidenzen kontextfrei erklärbar, so wurde nur für die anomalieauslösende Evidenz eine Alternativerklärung generiert. Zusammenfassend belegen die Ergebnisse der vorliegenden Arbeit die Bedeutung unterschiedlicher Hypothesentypen bei der Anomalieresolution. Abstrakte Ausgangshypothesen erleichtern nach Anomalieeintritt den Wechsel zu alternativen Hypothesen. Ist an der Anomalie eine kontextsensitive Evidenz beteiligt, wird diese bevorzugt alternativ erklärt. Im anderen Falle wird immer die anomalieauslösende Evidenz alternativ erklärt. Weiterhin zeigen die Ergebnisse, dass im Gegensatz zu dem von Johnson und Krems postulierten Mechanismus, menschliche Problemlöser bei der Anomalieresolution keine Optimierungs-strategie anwenden, sondern minimumsorientiert nach nur einer Alternativ-erklärung suchen und anschließend die Suche abbrechen (vgl. Gigerenzer & Selten, 2000). Dagegen fand sich als bevorzugte Strategie erfolgreicher Problem-löser das Testen spezifischer Hypothesen sowie hypothesenfreie Experimente zur Generierung von neuen Hypothesen.
177

Unscharfe Verfahren für lokale Phänomene in Zeitreihen

Herbst, Gernot 16 June 2011 (has links)
Die vorliegende Arbeit befaßt sich mit instationären, uni- oder multivariaten Zeitreihen, die bei der Beobachtung komplexer nichtlinearer dynamischer Systeme entstehen und sich der Modellierung durch ein globales Modell entziehen. In vielen natürlichen oder gesellschaftlichen Prozessen kann man jedoch wiederkehrende Phänomene beobachten, die von deren Rhythmen beeinflußt sind; ebenso lassen sich in technischen Prozessen beispielsweise aufgrund einer bedarfsorientierten Steuerung wiederholte, aber nicht periodische Verhaltensweisen ausmachen. Für solche Systeme und Zeitreihen wird deshalb vorgeschlagen, eine partielle Modellierung durch mehrere lokale Modelle vorzunehmen, die wiederkehrende Phänomene in Form zeitlich begrenzter Muster beschreiben. Um den Unwägbarkeiten dieser und sich anschließender Aufgabenstellungen Rechnung zu tragen, werden in dieser Arbeit durchgehend unscharfe Ansätze zur Modellierung von Mustern und ihrer Weiterverarbeitung gewählt und ausgearbeitet. Die Aufgabenstellung der Erkennung von Mustern in fortlaufenden Zeitreihen wird dahingehend verallgemeinert, daß unvollständige, sich noch in Entwicklung befindliche Musterinstanzen erkannt werden können. Basierend auf ebendieser frühzeitigen Erkennung kann der Verlauf der Zeitreihe -- und damit das weitere Systemverhalten -- lokal prognostiziert werden. Auf Besonderheiten und Schwierigkeiten, die sich aus der neuartigen Aufgabe der Online-Erkennung von Mustern ergeben, wird jeweils vermittels geeigneter Beispiele eingegangen, ebenso die praktische Verwendbarkeit des musterbasierten Vorhersageprinzips anhand realer Daten dokumentiert. / This dissertation focuses on non-stationary multivariate time series stemming from the observation of complex nonlinear dynamical systems. While one global model for such systems and time series may not always be feasible, we may observe recurring phenomena (patterns) in some of these time series. These phenomena might, for example, be caused by the rhythms of natural or societal processes, or a demand-oriented control of technical processes. For such systems and time series a partial modelling by means of multiple local models is being proposed. To cope with the intrinsic uncertainties of this task, fuzzy methods and models are being used throughout this work. Means are introduced for modelling and recognition of patterns in multivariate time series. Based on a novel method for the early recognition of incomplete patterns in streaming time series, a short-time prediction becomes feasible. Peculiarities and intrinsic difficulties of an online recognition of incomplete patterns are being discussed with the help of suitable examples. The usability of the pattern-based prediction approach is being demonstrated by means of real-world data.
178

A Narrow Band Level Set Method for Surface Extraction from Unstructured Point-based Volume Data

Rosenthal, Paul, Molchanov, Vladimir, Linsen, Lars 24 June 2011 (has links)
Level-set methods have become a valuable and well-established field of visualization over the last decades. Different implementations addressing different design goals and different data types exist. In particular, level sets can be used to extract isosurfaces from scalar volume data that fulfill certain smoothness criteria. Recently, such an approach has been generalized to operate on unstructured point-based volume data, where data points are not arranged on a regular grid nor are they connected in form of a mesh. Utilizing this new development, one can avoid an interpolation to a regular grid which inevitably introduces interpolation errors. However, the global processing of the level-set function can be slow when dealing with unstructured point-based volume data sets containing several million data points. We propose an improved level-set approach that performs the process of the level-set function locally. As for isosurface extraction we are only interested in the zero level set, values are only updated in regions close to the zero level set. In each iteration of the level-set process, the zero level set is extracted using direct isosurface extraction from unstructured point-based volume data and a narrow band around the zero level set is constructed. The band consists of two parts: an inner and an outer band. The inner band contains all data points within a small area around the zero level set. These points are updated when executing the level set step. The outer band encloses the inner band providing all those neighbors of the points of the inner band that are necessary to approximate gradients and mean curvature. Neighborhood information is obtained using an efficient kd-tree scheme, gradients and mean curvature are estimated using a four-dimensional least-squares fitting approach. Comparing ourselves to the global approach, we demonstrate that this local level-set approach for unstructured point-based volume data achieves a significant speed-up of one order of magnitude for data sets in the range of several million data points with equivalent quality and robustness.
179

Generalized Tikhonov regularization: Basic theory and comprehensive results on convergence rates

Flemming, Jens 27 October 2011 (has links)
The dissertation suggests a generalized version of Tikhonov regularization and analyzes its properties. The focus is on convergence rates theory and an extensive example for regularization with Poisson distributed data is given.
180

Monitoring Tools File Specification: Version 1.0

Vogelsang, Stefan January 2016 (has links)
This paper describes the format of monitoring data files that are collected for external measuring sites and at laboratory experiments at the Institute for Building Climatology (IBK). The Monitoring Data Files are containers for storing time series or event driven data collected as input for transient heat and moisture transport simulations. Further applications are the documentation of real world behaviour, laboratory experiments or the collection of validation data sets for simulation results ( whole building / energy consumption / HAM ). The article also discusses the application interface towards measurement data verification tools as well as data storage solutions that can be used to archive measurement data files conveniently and efficiently.:1 Introduction 2 File Name Conventions 3 Headers 3.1 Specifics on Time Series Header Files 3.2 Specifics s on Event Driven Header Files 4 Data Section Format Description 5 SI Unit Strings 6 Competition Law Advice 7 Liability for external Links

Page generated in 0.0378 seconds