361 |
Zum Kalkstein- und Marmorbergbau bei SchwarzenbergBoeck, Helmut-Juri 31 May 2017 (has links)
No description available.
|
362 |
Automatische Generalisierungsverfahren zur Vereinfachung von Kartenvektordaten unter Berücksichtigung der Topologie und EchtzeitfähigkeitHahmann, Stefan 15 September 2006 (has links)
Die mapChart GmbH bietet einen Softwaredienst an, der es ermöglicht, auf der Grundlage von teilweise kundenspezifischen Basisgeometrien vektorbasierte Karten zu erstellen. Primäres Ausgabemedium ist dabei die Bildschirmkarte des JAVA-Clients im Webbrowser. PDF-Export und Druck sind ebenso möglich. Bei der Kartenerstellung ist der Anwender nicht an vorgegebene Maßstäbe gebunden, sondern kann frei wählen, welches Gebiet in welcher Größe dargestellt werden soll. Hierdurch ergeben sich komplexe Aufgabenstellungen für die kartografische Generalisierung. Diese Probleme und deren bisherige Lösungen durch das Unternehmen werden im ersten Teil der Arbeit diskutiert, wobei verschiedene wissenschaftliche Arbeiten für spezielle Teilaufgaben der Generalisierung kurz vorgestellt werden.
Selektion und Formvereinfachung gelten als die wichtigsten Generalisierungsschritte. Während die Selektion mit den vorhandenen Methoden von Geodatenbanken relativ problemlos realisiert werden kann, stellt die Formvereinfachung ein umfangreiches Problem dar.
Das Hauptaugenmerk der Arbeit richtet sich deswegen auf die rechnergestützte Liniengeneralisierung verbunden mit dem Ziel, überflüssige Stützpunkte mit Hilfe von Algorithmen zur Linienvereinfachung einzusparen. Ergebnis sind schnellere Übertragungszeiten der Kartenvektordaten zum Anwender sowie eine Beschleunigung raumbezogener Analysen, wie z. B. Flächenverschneidungen. Des weiteren werden Verbesserungen in der Darstellung angestrebt.
Ein geeigneter Algorithmus zeichnet sich durch eine geringe Beanspruchung der Ressourcen Zeit und Speicherbedarf aus. Weiterhin spielt der erreichbare Grad der Verringerung der Stützpunktmenge bei akzeptabler Kartenqualität eine entscheidende Rolle. Nicht zuletzt sind topologische Aspekte und der Implementierungsaufwand zu beachten.
Die Arbeit gibt einen umfassenden Überblick über vorhandene Ansätze zur Liniengeneralisierung und leitet aus der Diskussion der Vor- und Nachteile zwei geeignete Algorithmen für die Implementierung mit der Programmiersprache JAVA ab. Die Ergebnisse der Verfahren nach Douglas-Peucker und Visvalingam werden hinsichtlich der Laufzeiten, des Grades der Verringerung der Stützpunktmenge sowie der Qualität der Kartendarstellung verglichen, wobei sich für die Visvalingam-Variante leichte Vorteile ergeben. Eine Parameterkonfiguration für den konkreten Einsatz der Vereinfachungsmethode in das GIS der mapChart GmbH wird vorgeschlagen.
Die Vereinfachung von Polygonnetzen stellt eine Erweiterung des Problems der Liniengeneralisierung dar. Hierbei müssen topologische Aspekte beachtet werden, was besonders schwierig ist, wenn die Ausgangsdaten nicht topologisch strukturiert vorliegen.
Für diese Aufgabe wurde ein neuer Algorithmus entwickelt und ebenfalls in JAVA implementiert. Die Implementierung dieses Algorithmus und damit erreichbaren Ergebnisse werden anhand von zwei Testdatensätzen vorgestellt, jedoch zeigt sich, dass die wichtige Bedingung der Echtzeitfähigkeit nicht erfüllt wird. Damit ergibt sich, dass der Algorithmus zur Netzvereinfachung nur offline benutzt werden sollte.:1 Einleitung
2 Kartografische Generalisierung
3 Algorithmen zur Liniengeneralisierung
4 Implementierung
5 Ergebnisse
6 Ausblick
7 Zusammenfassung / MapChart GmbH offers a software service, which allows users to create customized, vector-based maps using vendor as well as customer geometric and attributive data. Target delivery media is the on-screen map of the JAVA client within the web browser. PDF export and print are also supported. Map production is not limited to specific scales. The user can choose which area at which scale is shown. This triggers complex tasks for cartographic generalization. Current solutions by the company are discussed and scientific work for selected tasks will be presented shortly.
Selection and Simplification are known as the most important steps of generalization. While selection can be managed sufficiently by geo databases, simplification poses considerably problems.
The main focus of the thesis is the computational line generalization aiming on reducing the amount of points by simplification. Results are an increased speed of server to client communication and better performance of spatial analysis, such as intersection. Furthermore enhancements for the portrayal of maps are highlighted.
An appropriate algorithm minimizes the demands for the resources time and memory. Furthermore the obtainable level of simplification by still producing acceptable map quality plays an important role. Last but not least efforts for the implementation of the algorithm and topology are important.
The thesis discusses a broad overview of existing approaches to line simplification. Two appropriate algorithms for the implementation using the programming language JAVA will be proposed. The results of the methods of Visvalingam and Douglas-Peucker will be discussed with regards to performance, level of point reduction and map quality. Recommended parameters for the implementation in the software of MapChart GmbH are derived.
The simplification of polygon meshes will be an extension of the line generalization. Topological constraints need to be considered. This task needs a sophisticated approach as the raw data is not stored in a topological structure.
For this task a new algorithm was developed. It was also implemented using JAVA. The results of the testing scenario show that the constraint of real-time performance cannot be fulfilled. Hence it is recommended to use the algorithm for the polygon mesh simplification offline only.:1 Einleitung
2 Kartografische Generalisierung
3 Algorithmen zur Liniengeneralisierung
4 Implementierung
5 Ergebnisse
6 Ausblick
7 Zusammenfassung
|
363 |
Automatische Generalisierungsverfahren zur Vereinfachung von Kartenvektordaten unter Berücksichtigung der Topologie und EchtzeitfähigkeitHahmann, Stefan 15 September 2006 (has links)
Die mapChart GmbH bietet einen Softwaredienst an, der es ermöglicht, auf der Grundlage von teilweise kundenspezifischen Basisgeometrien vektorbasierte Karten zu erstellen. Primäres Ausgabemedium ist dabei die Bildschirmkarte des JAVA-Clients im Webbrowser. PDF-Export und Druck sind ebenso möglich. Bei der Kartenerstellung ist der Anwender nicht an vorgegebene Maßstäbe gebunden, sondern kann frei wählen, welches Gebiet in welcher Größe dargestellt werden soll. Hierdurch ergeben sich komplexe Aufgabenstellungen für die kartografische Generalisierung. Diese Probleme und deren bisherige Lösungen durch das Unternehmen werden im ersten Teil der Arbeit diskutiert, wobei verschiedene wissenschaftliche Arbeiten für spezielle Teilaufgaben der Generalisierung kurz vorgestellt werden.
Selektion und Formvereinfachung gelten als die wichtigsten Generalisierungsschritte. Während die Selektion mit den vorhandenen Methoden von Geodatenbanken relativ problemlos realisiert werden kann, stellt die Formvereinfachung ein umfangreiches Problem dar.
Das Hauptaugenmerk der Arbeit richtet sich deswegen auf die rechnergestützte Liniengeneralisierung verbunden mit dem Ziel, überflüssige Stützpunkte mit Hilfe von Algorithmen zur Linienvereinfachung einzusparen. Ergebnis sind schnellere Übertragungszeiten der Kartenvektordaten zum Anwender sowie eine Beschleunigung raumbezogener Analysen, wie z. B. Flächenverschneidungen. Des weiteren werden Verbesserungen in der Darstellung angestrebt.
Ein geeigneter Algorithmus zeichnet sich durch eine geringe Beanspruchung der Ressourcen Zeit und Speicherbedarf aus. Weiterhin spielt der erreichbare Grad der Verringerung der Stützpunktmenge bei akzeptabler Kartenqualität eine entscheidende Rolle. Nicht zuletzt sind topologische Aspekte und der Implementierungsaufwand zu beachten.
Die Arbeit gibt einen umfassenden Überblick über vorhandene Ansätze zur Liniengeneralisierung und leitet aus der Diskussion der Vor- und Nachteile zwei geeignete Algorithmen für die Implementierung mit der Programmiersprache JAVA ab. Die Ergebnisse der Verfahren nach Douglas-Peucker und Visvalingam werden hinsichtlich der Laufzeiten, des Grades der Verringerung der Stützpunktmenge sowie der Qualität der Kartendarstellung verglichen, wobei sich für die Visvalingam-Variante leichte Vorteile ergeben. Eine Parameterkonfiguration für den konkreten Einsatz der Vereinfachungsmethode in das GIS der mapChart GmbH wird vorgeschlagen.
Die Vereinfachung von Polygonnetzen stellt eine Erweiterung des Problems der Liniengeneralisierung dar. Hierbei müssen topologische Aspekte beachtet werden, was besonders schwierig ist, wenn die Ausgangsdaten nicht topologisch strukturiert vorliegen.
Für diese Aufgabe wurde ein neuer Algorithmus entwickelt und ebenfalls in JAVA implementiert. Die Implementierung dieses Algorithmus und damit erreichbaren Ergebnisse werden anhand von zwei Testdatensätzen vorgestellt, jedoch zeigt sich, dass die wichtige Bedingung der Echtzeitfähigkeit nicht erfüllt wird. Damit ergibt sich, dass der Algorithmus zur Netzvereinfachung nur offline benutzt werden sollte.:1 Einleitung
2 Kartografische Generalisierung
3 Algorithmen zur Liniengeneralisierung
4 Implementierung
5 Ergebnisse
6 Ausblick
7 Zusammenfassung / MapChart GmbH offers a software service, which allows users to create customized, vector-based maps using vendor as well as customer geometric and attributive data. Target delivery media is the on-screen map of the JAVA client within the web browser. PDF export and print are also supported. Map production is not limited to specific scales. The user can choose which area at which scale is shown. This triggers complex tasks for cartographic generalization. Current solutions by the company are discussed and scientific work for selected tasks will be presented shortly.
Selection and Simplification are known as the most important steps of generalization. While selection can be managed sufficiently by geo databases, simplification poses considerably problems.
The main focus of the thesis is the computational line generalization aiming on reducing the amount of points by simplification. Results are an increased speed of server to client communication and better performance of spatial analysis, such as intersection. Furthermore enhancements for the portrayal of maps are highlighted.
An appropriate algorithm minimizes the demands for the resources time and memory. Furthermore the obtainable level of simplification by still producing acceptable map quality plays an important role. Last but not least efforts for the implementation of the algorithm and topology are important.
The thesis discusses a broad overview of existing approaches to line simplification. Two appropriate algorithms for the implementation using the programming language JAVA will be proposed. The results of the methods of Visvalingam and Douglas-Peucker will be discussed with regards to performance, level of point reduction and map quality. Recommended parameters for the implementation in the software of MapChart GmbH are derived.
The simplification of polygon meshes will be an extension of the line generalization. Topological constraints need to be considered. This task needs a sophisticated approach as the raw data is not stored in a topological structure.
For this task a new algorithm was developed. It was also implemented using JAVA. The results of the testing scenario show that the constraint of real-time performance cannot be fulfilled. Hence it is recommended to use the algorithm for the polygon mesh simplification offline only.:1 Einleitung
2 Kartografische Generalisierung
3 Algorithmen zur Liniengeneralisierung
4 Implementierung
5 Ergebnisse
6 Ausblick
7 Zusammenfassung
|
364 |
Das Kalkwerk Herold in Thum15 November 2019 (has links)
No description available.
|
365 |
Der Kalksteinbergbau um Neunzehnhain15 November 2019 (has links)
No description available.
|
366 |
Höhenänderungen des Antarktischen Eisschildes: Analyse, Validierung und Kombination von Messungen aus 40 Jahren SatellitenaltimetrieSchröder, Ludwig 30 January 2020 (has links)
Die Veränderungen des Antarktischen Eisschildes (AIS) haben einen entscheidenden Einfluss auf den Meeresspiegel. Für Prädiktionen zukünftiger Szenarien des globalen Klimawandels ist das Verständnis der zugrundeliegenden Prozesse und damit die Beobachtung gegenwärtiger Veränderungen unabdingbar. Mit Hilfe von Satellitenaltimetrie lässt sich die Massenbilanz des AIS großflächig, hochaufgelöst und kontinuierlich ermitteln. Da viele Prozesse jedoch auf sehr langen Zeitskalen ablaufen, ist es das Ziel dieser Arbeit, durch Validierung, Kalibrierung und Kombination der Messungen verschiedener Altimetermissionen die Zeitreihen der Beobachtungen maximal zu verlängern. Nur so lassen sich interannuale Variationen vom Langzeittrend trennen, was entscheidend für das Verständnis der Prozesse der Oberflächenmassenbilanz und der Eisdynamik ist.
Die Ausgangsdaten dieser Arbeit bilden altimetrische Höhenmessungen des AIS. Zur Analyse ihres Genauigkeitspotenzials und um Kalibrierfehler aufzudecken, werden diese Messungen mit unabhängigen In-situ-Daten validiert. In dieser Arbeit wurde hierfür ein umfangreicher Datensatz von kinematischen GNSS-Profilen verwendet, welche zwischen 2001 und 2015 beobachtet wurden und mit Profillängen von bis zu 1700 km das gesamte topografische Spektrum des Eisschildes abdecken. Neben der anspruchsvollen differenziellen Auswertung der GNSS-Profile mit Basislinienlängen von über 1000 km erfordert auch die Reduktion der Höhe der Antenne auf die Schneeoberfläche aufgrund des Einsinkens der Zugmaschinen in die oberen Firnschichten besondere Berücksichtigung.
Anhand dieser Daten wurden Radaraltimetermessungen in unterschiedlichen Prozessierungsvarianten verglichen, um den Einfluss der Wahl der Auswerteansätze zu quantifizieren. Die Genauigkeit der Radaraltimetrie von Eisschilden wird dominiert durch das Retracking zur Ableitung der exakten Signallaufzeit und durch die Methode der Korrektion topografischer Einflüsse. Die Validierung zeigt, dass durch einen schwellwertbasierten Retracker und die Relokation der Messung zum satellitennächsten Punkt die höchste Genauigkeit erreicht wird. Optimierte Varianten dieser Ansätze wurden zur konsistenten Reprozessierung aller Radarmessungen verwendet, wodurch nicht nur ein einheitlicher Datensatz geschaffen, sondern auch die Genauigkeit der meisten Messungen um etwa 50% verbessert wurde. Auch die Laseraltimetermessungen von ICESat wurden anhand der GNSS-Profile kalibriert. Hier wurden Laserkampagnenbias bestimmt und korrigiert, welche andernfalls abgeleitete Höhenänderungsraten um etwa 1,2±0,3 cm/a verfälscht hätten.
Zur gemeinsamen Auswertung der Altimetermissionen Seasat, Geosat, ERS-1, ERS-2, Envisat, ICESat und CryoSat-2 wurde der Ansatz der Wiederholspuranalyse verwendet und noch erweitert, um spezifische Charakteristika unterschiedlicher Missionen entsprechend berücksichtigen zu können. Die hieraus abgeleiteten Zeitreihen beinhalten noch die Kalibrierbias der jeweiligen Messungen, welche im Anschluss unter Beachtung von Aspekten technikspezifischer Abtastung des Geländes und zeitlicher Distanz verschiedener Missionen schrittweise bestimmt und korrigiert werden. Das Ergebnis dieser kombinierten Auswertung bilden monatlich aufgelöste Zeitreihen von Höhendifferenzen gegenüber einer Referenzepoche auf einem Gitter von 10x10 km. Die Validierung mit kinematischen GNSS-Profilen, wie auch mit flugzeuggestützten Lasermessungen, bestätigt die beobachteten Höhenänderungen der kombinierten Zeitreihen und zeigt, dass auch die abgeleiteten Fehlermaße realistische Abschätzungen der Unsicherheit darstellen.
Nach Korrektion der Höhenänderungen um Ausgleichsbewegungen der festen Erde und der Umrechnung in eine Massenänderung lässt sich aus diesen Beobachtungen die Massenbilanz verschiedener Regionen des Antarktischen Eisschildes ableiten. Aus den Ergebnissen geht hervor, dass der beobachtete Teil des AIS nördlich von 81,5° südlicher Breite im Schnitt 85±16 Gt/a zwischen 1992 und 2017 an Masse verloren hat. Die Zeitreihen zeigen, dass diese Rate sich vor etwa 10 Jahren nochmals deutlich beschleunigte, so dass der Massenverlust zwischen 2010 und 2017 137±25 Gt/a betrug. Die Unterteilung in verschiedene Teilregionen des Eisschildes zeigt, dass diese Verluste nahezu vollständig der Westantarktis und der Antarktischen Halbinsel zuzuschreiben sind, während sich in der Ostantarktis Regionen mit Massenverlusten und mit Massenzuwächsen gegenseitig ausgleichen. Aus der Analyse der altimetrischen Beobachtungen der küstennahen Regionen der Ostantarktis, welche bis 1978 zurückreichen, geht hervor, dass der Trend über 25 Jahre sich auch vor 1992 in ähnlicher Weise fortsetzen lässt, so dass hier tatsächlich von einem Langzeittrend gesprochen werden kann. Allerdings wird dieser Trend oftmals durch interannuale Variationen überlagert, was sich aus den monatlichen Zeitreihen gut ablesen lässt und entscheidend für die Interpretation ist. Ein Vergleich mit Massenzeitreihen aus gravimetrischen Beobachtungen und Modellierungen der Oberflächenmassenbilanz zeigt eine hohe Konsistenz der Ergebnisse unterschiedlicher Beobachtungsverfahren, birgt jedoch auch Hinweise, wo Annahmen über die zugrunde liegenden Prozesse zu hinterfragen sind. Somit liefert dieser Vergleich einen wichtigen Beitrag zum Verständnis der Prozesse der Eismassenbilanz des AIS.
Die Grundlage der vorliegenden kumulativen Dissertation bilden zwei wissenschaftliche Publikationen. Die erste Publikation befasst sich mit der Validierung und Kalibrierung unterschiedlicher Altimeterprodukte mit In-situ-Messungen und beinhaltet in diesem Zusammenhang auch Details zur Auswertung der kinematischen GNSS-Profile, welche die Grundlage dieser Untersuchungen bilden. Die zweite Publikation baut auf den Ergebnissen der vorherigen Studie auf, beschreibt die Reprozessierung und die Kombination der Daten verschiedener Altimetermissionen und analysiert die Ergebnisse dieser Multimissionszeitreihen Antarktischer Eishöhenänderungen. Insgesamt soll diese Arbeit einen Beitrag zum verbesserten Verständnis der Veränderungen des AIS im Zuge des globalen Klimawandels liefern. Darüber hinaus zeigt sie auch weiteres Potenzial für zukünftige Arbeiten auf.:Zusammenfassung
Abstract
1. Einführung
1.1. Die polaren Eisschilde
1.2. Satellitengestützte Beobachtungsverfahren
2. Satellitenaltimetrie
2.1. Messprinzip
2.2. Komponenten der Oberflächenhöhenbestimmung
2.2.1. Orbitbestimmung
2.2.2. Distanzmessung
2.3. Missionen
2.4. Satellitenaltimetrie über Eisschilden
2.4.1. Analyse des Rückkehrsignals
2.4.2. Topografiekorrektion
2.4.3. Interferometrischer SAR-Modus
2.4.4. Bias bei Eisaltimetrie
3. Bestimmung von zeitlichen Variationen der Eisoberflächenhöhe
3.1. Methoden zur Bestimmung von Höhenänderungen
3.2. Kombination unterschiedlicher Missionen
4. Validierung
4.1. Messunsicherheiten und Arten der Validierung
4.2. Absolute Validierung mit kinematischen GNSS-Profilen
4.3. Validierung der Bestimmung von Höhenänderungen
5. Geophysikalische Interpretation
5.1. Von Höhenänderungen zur Eismassenbilanz
5.2. Vergleich unterschiedlicher Beobachtungsverfahren
6. Publikationen
PI. Validierung von Satellitenaltimetrie mittels kinematischem GNSS
PII. Multimissions-Satellitenaltimetrie über vier Jahrzehnte
7. Zusammenfassung und Ausblick
Literaturverzeichnis / Changes of the Antarctic Ice Sheet (AIS) have a significant impact on sea level. To predict future scenarios of global climate change, it is essential to understand the contributing processes and, therefor, to observe current changes. Large scale, high resolution and continuous mass balances of the AIS can be obtained with the help of satellite altimetry. As many processes here act over very long temporal scales, the goal of this work is to validate, calibrate and combine the measurements of different altimetry missions in order to obtain time series which are as long as possible. Only such long-term observations allow to separate interannual variations from the long-term trend, which is crucial to understand the processes of surface mass balance and ice dynamics.
Altimetric observations of elevation of the AIS are the basic data used in this work. In order to analyze their accuracy and precision, these measurements are validated using independent in situ observations. Here, an extensive set of kinematic GNSS-profiles was utilized for this purpose. These profiles were observed between 2001 and 2015 and, with lengths of up to 1700 km, they cover the whole spectrum of ice sheet topography. To obtain high precision surface elevation profiles, not only the demanding differential GNSS-processing with baseline lengths of more than 1000 km needs to be treated very carefully, also the reduction of the antenna height measurement to the snow surface requires special attention as the heavy vehicles sink into the upper firn layers in some regions.
With the help of this data set, radar altimetry measurements in different processing versions are compared in order to quantify the influence of the choice of methods to derive the surface elevation. The uncertainty of a radar altimetry measurement of an ice sheet is dominated by the method of retracking, which is used to defined the exact signal travel time, and the methodology to correct for topographic effects. The validation shows that a threshold based retracker and the method of relocating the measurement to the point of closest approach provides the highest accuracy and precision. All radar altimetry measurements have been consistently reprocessed using optimized versions of these approaches. This provided a uniform data basis for their combination and, at the same time, improved the accuracy of these measurements by about 50%. Also the laser measurements of ICESat were calibrated using these profiles. This helped to correct for the laser campaign biases, which, otherwise, would distort any inferred surface elevation rate by 1.2±0.3 cm/yr.
The joint processing of the missions Seasat, Geosat, ERS-1, ERS-2, Envisat, ICESat and CryoSat-2 was performed using the repeat altimetry method. Here, several extensions of this approach were developed to cope with the characteristics of the different missions. The derived time series still contained calibration biases, which were determined and corrected for in the following stepwise approach, taking into consideration aspects as the topography sampling of different techniques and the temporal sequence of the missions. The result of this combination are monthly time series of elevation changes with respect to a reference epoch, gridded on a 10x10 km raster. The validation with kinematic GNSS-profiles, as well as with airborne laser measurements, confirms the elevation changes from the multi-mission time series and proves that also the uncertainty estimates of these results are realistic.
The mass balance of different regions of the Antarctic Ice Sheet was obtained by correcting the surface elevation changes for changes of the underlying solid earth and transforming the results into mass. The obtained data shows that the observed part of the AIS north of 81.5° southern latitude lost an average amount of mass of 85±16 Gt/yr between 1992 and 2017. The time series reveal that this rate accelerated about 10 years ago, leading to a rate of 137±25 Gt/yr between 2010 and 2017. Individual time series of different parts of the ice sheet show that these losses originate almost completely from the West Antarctic Ice Sheet and the Antarctic Peninsula. In contrast for East Antarctica, regions with negative and positive mass balances compensate each other almost entirely. In coastal East Antarctica, where the altimetric observations range back until 1978, the results show that the rate over 25 years continues very similarly also before 1992, which proves that the rates, observed here, can be considered as long-term rates. However, the monthly time series also reveal, that this trend is superimposed by interannual variations, which is crucial for the interpretation of these elevation changes. A comparison with mass time series from gravimetric observations and models of surface mass balance demonstrates the high consistency of the results. On the other hand, this comparison also reveals some discrepancies, indicating where the assumptions about the underlying processes need further improvements. Hence, this comparison provides new insights for the understanding of the processes contributing to the mass balance of the AIS.
This dissertation is based on two scientific publications. The first paper describes the validation and calibration of different products of altimetry using in situ data. Therefore, it also contains details towards the processing of kinematic GNSS-profiles which form the basis of this investigation. Based on these results, the second paper describes the reprocessing and the combination of different altimetry missions and analyzes the results of these multi-mission time series of Antarctic surface elevation changes. In conclusion, this work aims to contribute to a better understanding of the changes of the AIS under a changing climate. Furthermore, it also points out potential aspects for further improvements.:Zusammenfassung
Abstract
1. Einführung
1.1. Die polaren Eisschilde
1.2. Satellitengestützte Beobachtungsverfahren
2. Satellitenaltimetrie
2.1. Messprinzip
2.2. Komponenten der Oberflächenhöhenbestimmung
2.2.1. Orbitbestimmung
2.2.2. Distanzmessung
2.3. Missionen
2.4. Satellitenaltimetrie über Eisschilden
2.4.1. Analyse des Rückkehrsignals
2.4.2. Topografiekorrektion
2.4.3. Interferometrischer SAR-Modus
2.4.4. Bias bei Eisaltimetrie
3. Bestimmung von zeitlichen Variationen der Eisoberflächenhöhe
3.1. Methoden zur Bestimmung von Höhenänderungen
3.2. Kombination unterschiedlicher Missionen
4. Validierung
4.1. Messunsicherheiten und Arten der Validierung
4.2. Absolute Validierung mit kinematischen GNSS-Profilen
4.3. Validierung der Bestimmung von Höhenänderungen
5. Geophysikalische Interpretation
5.1. Von Höhenänderungen zur Eismassenbilanz
5.2. Vergleich unterschiedlicher Beobachtungsverfahren
6. Publikationen
PI. Validierung von Satellitenaltimetrie mittels kinematischem GNSS
PII. Multimissions-Satellitenaltimetrie über vier Jahrzehnte
7. Zusammenfassung und Ausblick
Literaturverzeichnis
|
367 |
Coal fly ash: How sample properties and methodology influence immersion freezing resultsGrawe, Sarah 24 July 2019 (has links)
Aufgrund ihrer speziellen Eigenschaften können sogenannte eisnukleierende Partikel die Bildung von Eis in Wolken katalysieren. Laboruntersuchungen zum Gefrierverhalten dieser Partikel haben sich als wertvoll erwiesen, wenn es um das Verständnis zugrunde liegender Prinzipien und Mechanismen geht. Eine Spezies, die in früheren Untersuchungen vernachlässigt wurde, ist Flugasche aus Kohleverbrennung. Kohle-Flugasche (KFA) wird aufgrund ineffizienter Filterung submikroner Partikel über die Schornsteine von Kraftwerken emittiert und kann, in Abhängigkeit der meteorologischen Bedingungen, die Vereisung von Wolken in der Nähe der Quelle und darüber hinaus beeinflussen. In dieser Arbeit wurde das Immersionsgefrierverhalten, d.h. der Einfluss eingeschlossener Partikel auf das Gefrieren unterkühlter Tropfen, für vier verschiedene KFA-Proben aus deutschen Kohlekraftwerken untersucht. Dabei wurden einerseits Tropfen untersucht, die ein einzelnes submikrones Partikel enthielten. Andererseits wurde das Gefrierverhalten von Suspensionstropfen, die eine Vielzahl verschieden großer Partikel beinhalteten, quantifiziert. Zusätzlich wurden die Proben, sowohl in ihrer Gesamtheit als auch in Form einzelner submikroner Partikel, bezüglich ihrer chemischen Zusammensetzung, Morphologie und Kristallographie analysiert. Es wurde festgestellt, dass die Gefriereffizienz der Proben innerhalb von Minuten abnimmt, sobald diese in Berührung mit Wasser kommen. Immersionsgefriermessungen mit purem Anhydrit (CaSO4 ), das in den Proben nachgewiesen wurde, zeigten einen ähnlichen Trend, d.h. eine abnehmende Effizienz mit zunehmender Suspensionszeit. Diese Beobachtung, und die Übereinstimmung von Messungen mit KFA-Suspensionspartikeln und Gips (CaSO 4 * 2H2O, ein Hydrat des Anhydrits), weisen darauf hin, dass Hydratation die Ursache für die Abnahme der Gefriereffizienz sein könnte. Dieser Einfluss von Probeneigenschaften und Methodologie auf das Immersionsgefrierverhalten von KFA-Partikeln muss bei der Abschätzung der Relevanz der Partikel für die atmosphärische Eisnukleation unbedingt berücksichtigt werden.:1. Introduction
2. Fundamentals
2.1 Ice nucleation theory
2.2 Properties of CFA particles
3. Materials and Methods
3.1 Materials
3.2 Methods
4. Results
4.1 Physicochemical sample characterization
4.2 Immersion freezing behavior of CFA
5. Discussion
5.1 Comparison to literature results
5.2 Physicochemical particle properties and immersion freezing behavior
5.3 Atmospheric implications
6. Summary and Conclusions
7. Outlook / Due to their specific properties, atmospheric ice-nucleating particles are able to catalyze ice formation in clouds. Laboratory studies investigating the freezing behavior of these particles have proven to be of unmatched value when attempting to understand underlying principles and mechanisms. One species that has almost entirely been neglected in previous ice nucleation studies is fly ash from coal combustion (CFA: coal fly ash). Emitted through the stacks of power plants due to inefficient filtering of submicron particles, CFA has the potential to influence cloud glaciation in source regions and beyond, depending on the meteorological conditions. In this thesis, the immersion freezing behavior, i.e., the influence of particles immersed in supercooled cloud droplets on ice nucleation, of four samples from German power plants was determined with the help of several single particle and bulk instruments. In parallel, single particles and bulk CFA were investigated with respect to their chemical composition, morphology, and crystallography. It was found that the immersion freezing efficiency of the CFA particles decreases in contact with water on the time scale of minutes. Hydration
products, that were found in both single particles and in the bulk after suspension, could be responsible for this unique behavior. Immersion freezing measurements with pure anhydrite (anhydrous CaSO4 ), which is known to occur at the surface of CFA particles, showed the same qualitative trend, i.e., a decreasing efficiency with increasing suspension time. This observation, and the agreement between measurements with suspended CFA particles and gypsum (CaSO4 * 2H2O, a hydrate of anhydrite), support the hypothesis that hydration causes the observed decrease in immersion freezing efficiency. This influence of sample properties and methodology on the immersion freezing behavior of CFA must be taken into consideration when assessing the relevance of these particles for atmospheric ice nucleation.:1. Introduction
2. Fundamentals
2.1 Ice nucleation theory
2.2 Properties of CFA particles
3. Materials and Methods
3.1 Materials
3.2 Methods
4. Results
4.1 Physicochemical sample characterization
4.2 Immersion freezing behavior of CFA
5. Discussion
5.1 Comparison to literature results
5.2 Physicochemical particle properties and immersion freezing behavior
5.3 Atmospheric implications
6. Summary and Conclusions
7. Outlook
|
368 |
A simulation-based multi-criteria management system for optimal water supply under uncertaintyTinh, Pham Van 28 April 2015 (has links)
For cost and reliability efficiency, optimal design and operation of pressurized water distribution networks is highly important. However, optimizing such networks is still a challenge since it requires an appropriate determination of: (1) dimension of pipe / pump / tank - decision variables (2) cost / network reliability - objective functions and (3) limits or restrictions within which the network must operate - a given set of constraints. The costs mentioned here consist in general of capital, construction, and operation costs. The reliability of a network mainly refers to the intrinsic capability of providing water with adequate volume and a certain pressure to consumers under normal and extreme conditions. These contradicting objective functions are functions of network configuration regarding component sizes and network layout. Because considerable uncertainties finally render the overall task to a highly complex problem, most recent approaches mainly focus only on finding a trade-off between minimizing cost and maximizing network reliability. To overcome these limitations, a novel model system that simultaneously considers network configuration, its operation and the relevant uncertainties is proposed in this study.
For solving this multi-objective design problem, a simulation-based optimization approach has been developed and applied. The approach couples a hydraulic model (Epanet) with the covariance matrix adaptation evolution strategy (CMA-ES) and can be operated in two different modes. These modes are (1) simulation–based Single-objective optimization and (2) simulation-based multi-objective optimization. Single-objective optimization yields the single best solution with respect to cost or network reliability, whereas multi-objective optimization produces a set of non-dominated solutions called Pareto optimal solutions which are trade-offs between cost and reliability.
In addition, to prevent a seriously under-designed network, demand uncertainties was also taken into account through a so called “robustness probability” of the network. This consideration may become useful for a more reliable water distribution network.
In order to verify the performance of the proposed approach, it was systematically tested on a number of different benchmark water distribution networks ranging from simple to complex. These benchmark networks are either gravity-fed or pumped networks which need to be optimally designed to supply urban or irrigation water demand under specific constraints. The results show that the new approach is able:
• to solve optimization problems of pressurized water distribution network design and operation regarding cost and network reliability;
• to directly determine the pumping discharge and head, thus allowing to select pumps more adequately;
• to simulate time series of tank water level;
• to eliminate redundant pipes and pumps to generate an optimal network layout;
• to respond well to complex networks other than only to simple networks;
• to perform with multiple demand loading;
• to produce reliable Pareto optimal solutions regarding multi-objective optimization.
In conclusion, the new technique can be successfully applied for optimization problems in pressurized water distribution network design and operation. The new approach has been demonstrated to be a powerful tool for optimal network design not only for irrigation but also for an urban water supply.
|
369 |
Dynamische Erzeugung von Diagrammen aus standardisierten GeodatendienstenMann, Ulrich 07 August 2012 (has links)
Geodateninfrastrukturen (GDI) erfahren in den letzten Jahren immer weitere Verbreitung durch die Schaffung neuer Standards zum Austausch von Geodaten. Die vom Open Geospatial Consortium (OGC), einem Zusammenschluss aus Forschungseinrichtungen und privaten Firmen, entwickelten offenen Beschreibungen von Dienste-Schnittstellen verbessern die Interoperabilität in GDI. OGC-konforme Geodienste werden momentan hauptsächlich zur Aufnahme, Verwaltung, Prozessierung und Visualisierung von Geodaten verwendet.
Durch das vermehrte Aufkommen von Geodiensten steigt die Verfügbarkeit von Geodaten. Gleichzeitig hält der Trend zur Generierung immer größerer Datenmengen beispielsweise durch wissenschaftliche Simulationen an (Unwin et al., 2006). Dieser führt zu einem wachsenden Bedarf an Funktionalität zur effektiven Exploration und Analyse von Geodaten, da komplexe Zusammenhänge in großen Datenbeständen untersucht und relevante Informationen heraus gefiltert werden müssen. Dazu angewendete Techniken werden im Forschungsfeld Visual Analytics (Visuelle Analyse) umfassend beschrieben. Die visuelle Analyse beschäftigt sich mit der Entwicklung von Werkzeugen und Techniken zur automatisierten Analyse und interaktiven Visualisierung zum Verständnis großer und komplexer Datensätze (Keim et al., 2008).
Bei aktuellen Web-basierten Anwendungen zur Exploration und Analyse handelt es sich hauptsächlich um Client-Server-Systeme, die auf fest gekoppelten Datenbanken arbeiten. Mit den wachsenden Fähigkeiten von Geodateninfrastrukturen steigt das Interesse, Funktionalitäten zur Datenanalyse in einer GDI anzubieten. Das Zusammenspiel von bekannten Analysetechniken und etablierten Standards zur Verarbeitung von Geodaten kann dem Nutzer die Möglichkeit geben, in einer Webanwendung interaktiv auf ad hoc eingebundenen Geodaten zu arbeiten. Damit lassen sich mittels aktueller Technologien Einsichten in komplexe Daten gewinnen, ihnen zugrunde liegende Zusammenhänge verstehen und Aussagen zur Entscheidungsunterstützung ableiten.
In dieser Arbeit wird die Eignung der OGC WMS GetFeatureInfo-Operation zur Analyse raum-zeitlicher Geodaten in einer GDI untersucht. Der Schwerpunkt liegt auf der dynamischen Generierung von Diagrammen unter Nutzung externer Web Map Service (WMS) als Datenquellen. Nach der Besprechung von Grundlagen zur Datenmodellierung und GDIStandards, wird auf relevante Aspekte der Datenanalyse und Visualisierung von Diagrammen eingegangen. Die Aufstellung einer Task Taxonomie dient der Untersuchung, welche raumzeitlichen Analysen sich durch die GetFeatureInfo-Operation umsetzen lassen. Es erfolgt die Konzeption einer Systemarchitektur zur Umsetzung der Datenanalyse auf verteilten Geodaten. Zur Sicherstellung eines konsistenten und OGC-konformen Datenaustauschs zwischen den Systemkomponenenten, wird ein GML-Schema erarbeitet. Anschließend wird durch eine prototypischen Implementierung die Machbarkeit der Diagramm-basierten Analyse auf Klimasimulationsdaten des ECHAM5-Modells verifiziert. / Spatial data infrastructures (SDI) have been subject to a widening dispersion in the last decade, through the development of standards for the exchange of geodata. The open descriptions of service interfaces, developed by the OGC, a consortium from research institutions and private sector companies, alter interoperability in SDI. Until now, OGC-conform geoservices are mainly utilised for the recording, management, processing and visualisation of geodata.
Through the ongoing emergence of spatial data services there is a rise in the availability of geodata. At the same time, the trend of the generation of ever increasing amounts of data, e. g. by scientific simulation (Unwin et al., 2006), continues. By this, the need for capabilities to effectively explore and analyse geodata is growing. Complex relations in huge data need to be determined and relevant information extracted. Techniques, which are capable of this, are being described extensively by Visual Analytics. This field of research engages in the development of tools and techniques for automated analysis and interactive visualisation of huge and complex data (Keim et al., 2008).
Current web-based applications for the exploration and analysis are usually established as Client-Server approaches, working on a tightly coupled data storage (see subsection 3.3). With the growing capabilities of SDI, there is an increasing interest in offering functionality for data analysis. The combination of widely used analysis techniques and well-established standards for the treatment of geodata may offer the possibility of working interactively on ad hoc integrated data. This will allow insights into large amounts of complex data, understand natural interrelations and derive knowledge for spatial decision support by the use of state-of-the-art technologies.
In this paper, the capabilities of the OGC WMS GetFeatureInfo operation for the analysis of spatio-temporal geodata in a SDI are investigated. The main focus is on dynamic generation of diagrams by the use of distributed WMS as a data storage. After the review of basics in data modelling and SDI-standards, relevant aspects of data analysis and visualisation of diagrams are treated. The compilation of a task taxonomy aids in the determination of realisable spatio-temporal analysis tasks by use of the GetFeatureInfo operation. In the following, conceptual design of a multi-layered system architecture to accomplish data analysis on distributed datasets, is carried out. In response to one of the main issues, a GML-schema is developed to ensure consistent and OGC-conform data exchange among the system components. To verify the feasibility of integration of diagram-based analysis in a SDI, a system prototype is developed to explore ECHAM5 climate model data.
|
370 |
Bewertung von oberflächennahen Grundwasseranreicherungen über Aquifer Storage and Recovery unter Berücksichtigung der Aquiferheterogenität und alternativer InfiltrationsmethodenHändel, Falk 11 July 2014 (has links)
Die vorliegende Arbeit umfasst im ersten Teil eine Literaturrecherche zu Aquifer Storage and Recovery (ASR) im Allgemeinen und den Einfluss physikalisch-chemischer Prozesse auf ASR. Aus dieser konnte abgeleitet werden, dass durch standortbedingte Untergrundeigenschaften stark unterschiedliche physikalische und chemische Prozesse ablaufen und eine eindeutige Vorhersage zum Verhalten und zur Effizienz von ASR an einem neuen oder bereits genutzten Standort ohne spezifische Informationen nicht möglich ist. Des Weiteren wurde eine Literaturstudie zum Einfluss der transversalen Dispersivität, als Maß für die Vermischung von transportierten Stoffen quer zu einer (natürlichen) Fließrichtung, auf den (reaktiven) Transport durchgeführt. Letztlich wurde im Rahmen einer betreuten Masterarbeit (M. Sc. Chang Liu) eine Bewertung aus der Literatur entnommener transversaler Dispersivitäten durchgeführt.
In den weiteren Teilen der Arbeit wurden Fallstudien mit unterschiedlichen Fragestellungen für die Planung und den Betrieb von künstlichen Grundwasseranreicherungen und speziell ASR numerisch modelliert und bewertet. Zuerst wurden numerische Simulationen zum konservativen Transport am Testfeld „Lauswiesen“, Tübingen, Baden-Württemberg durchgeführt. Diese beinhalteten über Direct-Push(DP)-Erkundungsmethoden gewonnene Informationen zur Untergrundstruktur. Die Ergebnisse zeigen, dass zur Vorhersage des standortspezifischen Transports in den „Lauswiesen“ und für vergleichbare hydraulische Situationen, auch in Hinsicht auf ASR, deterministische hydrogeologische Einheiten und ihre situationsgerechte Berücksichtigung in numerischen Modellen höchst relevant sind. Aufbauend auf den genannten Ergebnissen wurde eine Masterarbeit durch Herrn M. Sc. Tsegaye Abera Sereche durchgeführt. Diese Masterarbeit zeigte für diesen Fall erneut die hohe Relevanz deterministischer Strukturen gegenüber kleinskaligen, dreidimensionalen Heterogenitäten für ASR. Weiterführende numerische Simulationen zu einem möglichen ASR-Feldtest am Standort „Lauswiesen“ ergaben, dass dieser unter den gegebenen Untergrundbedingungen nur bei Abweichungen von einem vertretbaren Konzept für einen Ein-Brunnen-Test, z. B. bei sehr großen Infiltrationsmengen, oder durch Umwandlung in einen Zwei-Brunnen-Test durchführbar ist.
Während dieser Arbeit wurden gemeinsame Forschungsarbeiten mit dem Kansas Geological Survey, Kansas, USA durchgeführt, welche die Bewertung der Verwendbarkeit von DP-Brunnen als alternative Infiltrationsmethode zu Oberflächenmethoden beinhalteten. Als Teil der gemeinsamen Arbeiten wurde im Rahmen der vorliegenden Arbeit eine synthetisierte, numerische Bewertung der neuen DP-Infiltrationsbrunnen sowie einen Vergleich mit einer herkömmlichen Oberflächeninfiltrationsmethode übernommen. Im Einklang mit der Zielstellung der Arbeit wurde ebenfalls eine numerische Bewertung natürlicher und anthropogener Heterogenitäten auf die Infiltration durchgeführt. Aus den Ergebnissen konnten für die neue Infiltrationsmethode signifikante Vorteile abgeleitet werden.
Weitere numerische Modellierungen wurden durchgeführt, um die wesentlichen Ergebnisse auf einen Feldstandort in der Südlichen Steiermark, Österreich, anzuwenden, welcher: a) bereits ein horizontales Versickerungssystem besitzt, b) weitere Systeme erhalten soll und c) letztlich eine besondere Herausforderung für vertikale Versickerungssysteme darstellt. Die Modellierung des vorhandenen Systems zeigt die hohe Komplexität der Infiltrationsprozesse. Jedoch konnten hydraulische Parameter bestätigt und in weitere planerische Simulationen zu Verwendung von DP-basierten Infiltrationsbrunnen eingefügt werden. Diese zeigen, dass ein Brunnenfeld am Standort auf relativ geringem Raum installiert werden kann. Zusätzlich zeigt ein Feldversuch an einem weiteren Standort (Pirna, Sachsen), dass hohe Infiltrationsraten unter Nutzung von DP-Brunnen möglich sind. / The works presented in the thesis include in the first part a literature research on Aquifer Storage and Recovery (ASR) in general and the impacts of different physico-chemical processes on ASR. This research concludes that site-specific subsurface conditions lead to varying physical and chemical processes and that a conclusive prediction of function and efficiency of ASR at any site, in-operation or new site design, is not possible without site-specific information. Additionally, a literature study was conducted that focused on the impacts of transverse dispersivity, as a measure for mixing of transported species perpendicular to the (natural) flow direction, on (reactive) transport. Finally, evaluation of transverse dispersivity data available in the literature was performed, which included a supervision of a master thesis (of M. Sc. Chang Liu).
Numerical simulations of case studies for different questions of planning and operation of artificial recharge systems and more specifically ASR were realized for the other parts of the thesis.
The first evaluated case was the “Lauswiesen” test site, Tübingen, Baden-Wuerttemberg. This study used new insights into the subsurface structure gained by Direct-Push(DP) exploration methods. The results obtained show that for further works at the site and for comparable hydraulic conditions, also in the view of ASR, deterministic hydrogeological subunits and their consideration in numerical models are critical for prediction of site-specific transport. Based on the previous findings, a master thesis was conducted by M. Sc. Tsegaye Abera Sereche. The master thesis yet again revealed for this case the high relevance of deterministic subunits compared to small-scale, three-dimensional heterogeneities for ASR. Further, numerical simulations of a possible ASR field test at “Lauswiesen” site showed that under the prevailing subsurface conditions, a field test can only be realized when the set-up of a single-well-test is impracticably changed, by e.g. very high infiltration volumes, or by transformation into a two-well-test.
During the thesis joint research works were performed with the Kansas Geological Survey, Kansas, USA, which contained the evaluation of the applicability of DP wells as an alternative to surface infiltration methods. As part of the joint work, this thesis presents a synthesized numerical evaluation of the new DP well infiltration as well as a comparison to a common surface infiltration system. Furthermore, in accordance with the main objective of the work, numerical evaluation of natural and anthropogenic heterogeneities was performed. The results concluded the advantages for the DP wells for infiltration process.
Further numerical models were implemented to convey the important results to a field site at Southern Styria, Austria, where: a) an existing infiltration system is already in operation, b) further infiltration systems are planned and c) the subsurface conditions are rather challenging for vertical infiltration systems. Modeling of the existent system revealed the high complexity of the infiltration processes. However, hydraulic parameters could be verified and included into planning simulations for DP-based infiltration wells. The findings show, that a well field can be installed at a comparably small land. Additionally, a field test at a further test site (Pirna, Sachsen) indicates that high infiltrations rates are possible when DP wells are used.
|
Page generated in 0.0208 seconds