• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 22
  • 12
  • 8
  • Tagged with
  • 41
  • 37
  • 27
  • 19
  • 18
  • 18
  • 17
  • 12
  • 10
  • 9
  • 8
  • 7
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Search for eV-scale sterile neutrinos with IceCube DeepCore

Trettin, Alexander 18 January 2024 (has links)
Neutrinooszillationen sind das einzige Phänomen jenseits des Standardmodells, das experimentell mit hoher statistischer Signifikanz bestätigt wurde. Diese Arbeit präsentiert eine Messung der atmosphärischen Neutrinooszillationen unter Verwendung von acht Jahren an Daten, die zwischen 2011 und 2019 vom IceCube DeepCore-Detektor aufgenommen wurden. Die Ereignisauswahl wurde im Vergleich zu früheren DeepCore-Messungen verbessert, wobei ein besonderes Augenmerk auf ihre Robustheit gegenüber systematischen Unsicherheiten in den Detektoreigenschaften gelegt wurde. Die Oszillationsparameter werden über eine Maximum-Likelihood-Fit an gebinnte Daten in der gemessenen Energie und Zenitwinkel geschätzt, wobei die Erwartungswerte aus gewichteten simulierten Ereignissen abgeleitet werdem. Diese Arbeit diskutiert den Simulations- und Datenauswahlprozess sowie die statistischen Methoden, die verwendet werden, um einen genauen Erwartungswert unter variablen Detektoreigenschaften und anderen systematischen Unsicherheiten zu liefern. Die Messung wird zunächst unter Verwendung des Standardmodells der Drei-Flavor-Oszillation durchgeführt, wobei das atmosphärische Massensplitting und der Mischwinkel auf $\Delta m^2_{32} = 2.42_{-0.75}^{+0.77} \times10^{-3};\mathrm{eV}^2$ und $\sin^2\theta_{23} = 0.507_{-0.053}^{+0.050}$ geschätzt werden. Das Drei-Flavor-Modell wird dann um einen zusätzlichen Masseneigenzustand erweitert, der einem sterilen Neutrino mit Massensplitting $\Delta m^2_{41} = 1;\mathrm{eV}^2$ entspricht und mit den aktiven $\nu_\mu$- und $\nu_\tau$-Flavorzuständen mischen kann. Es wird kein signifikantes Signal eines sterilen Neutrinos beobachtet, und die Mischungsamplituden zwischen den sterilen und aktiven Zuständen werden auf $|U_{\mu 4}|^2 < 0.0534$ und $|U_{\tau 4}|^2 < 0.0574$ bei 90\% C.L. begrenzt. Diese Grenzwerte sind um den Faktor zwei bis drei strenger als das vorherige DeepCore-Ergebnis, und die Einschränkung von $|U_{\tau 4}|^2$ ist die stärkste der Welt. / Neutrino oscillations are the only phenomenon beyond the Standard Model that has been confirmed experimentally to a very high statistical significance. This work presents a measurement of atmospheric neutrino oscillations using eight years of data taken by the IceCube DeepCore detector between 2011 and 2019. The event selection has been improved over that used in previous DeepCore measurements with a particular emphasis on its robustness with respect to systematic uncertainties in the detector properties. The oscillation parameters are estimated via a maximum likelihood fit to binned data in the observed energy and zenith angle, where the expectation is derived from weighted simulated events. This work discusses the simulation and data selection process, as well as the statistical methods employed to give an accurate expectation value under variable detector properties and other systematic uncertainties. The measurement is first performed first under the standard three-flavor oscillation model, where the atmospheric mass splitting and mixing angle are estimated to be $\Delta m^2_{32} = 2.42_{-0.75}^{+0.77} \times10^{-3}\;\mathrm{eV}^2$ and $\sin^2\theta_{23} = 0.507_{-0.053}^{+0.050}$, respectively. The three-flavor model is then extended by an additional mass eigenstate corresponding to a sterile neutrino with mass splitting $\Delta m^2_{41} = 1\;\mathrm{eV}^2$ that can mix with the active $\nu_\mu$ and $\nu_\tau$ flavor states. No significant signal of a sterile neutrino is observed and the mixing amplitudes between the sterile and active states are constrained to $|U_{\mu 4}|^2 < 0.0534$ and $|U_{\tau 4}|^2 < 0.0574$ at 90\% C.L. These limits are more stringent than the previous DeepCore result by a factor between two and three and the constraint on $|U_{\tau 4}|^2$ is the strongest in the world.
32

Incorporating the effect of heterogeneous surface heating into a semi-empirical model of the surface energy balance closure

Wanner, Luise, Calaf, Marc, Mauder, Matthias 01 March 2024 (has links)
It was discovered several decades ago that eddy covariance measurements systematically underestimate sensible and latent heat fluxes, creating an imbalance in the surface energy budget. Since then, many studies have addressed this problem and proposed a variety of solutions to the problem, including improvements to instruments and correction methods applied during data postprocessing. However, none of these measures have led to the complete closure of the energy balance gap. The leading hypothesis is that not only surface-attached turbulent eddies but also sub-mesoscale atmospheric circulations contribute to the transport of energy in the atmospheric boundary layer, and the contribution from organized motions has been grossly neglected. The problem arises because the transport of energy through these secondary circulations cannot be captured by the standard eddy covariance method given the relatively short averaging periods of time (~30 minutes) used to compute statistics. There are various approaches to adjust the measured heat fluxes by attributing the missing energy to the sensible and latent heat flux in different proportions. However, few correction methods are based on the processes causing the energy balance gap. Several studies have shown that the magnitude of the energy balance gap depends on the atmospheric stability and the heterogeneity scale of the landscape around the measurement site. Based on this, the energy balance gap within the surface layer has already been modelled as a function of a nonlocal atmospheric stability parameter by performing a large-eddy simulation study with idealized homogeneous surfaces. We have further developed this approach by including thermal surface heterogeneity in addition to atmospheric stability in the parameterization. Specifically, we incorporated a thermal heterogeneity parameter that was shown to relate to the magnitude of the energy balance gap. For this purpose, we use a Large-Eddy Simulation dataset of 28 simulations with seven different atmospheric conditions and three heterogeneous surfaces with different heterogeneity scales as well as one homogeneous surface. The newly developed model captures very well the variability in the magnitude of the energy balance gap under different conditions. The model covers a wide range of both atmospheric stabilities and landscape heterogeneity scales and is well suited for application to eddy covariance measurements since all necessary information can be modelled or obtained from a few additional measurements.
33

Search for extremely short transient gamma-ray sources with the VERITAS observatory

Skole, Christian 27 September 2016 (has links)
In der Astronomie zeigen viele Quellen ein veränderliches Verhalten, das in manchen Fällen sehr kurz sein und im Bereich von Sekunden bis Minuten liegen kann. Beispiele dafür sind Gammablitze (GB) und aktive Galaxienkerne (AGK). Um die zugrundeliegenden physikalischen Prozesse besser zu verstehen, ist eine Messung der Photonenflussänderung notwendig. Allerdings kann die Entdeckung sehr kurzzeitiger Ausbrüche im sehr hochenergetischen Bereich des Spektrums, für welche Cherenkov Teleskope, wie VERITAS, zum Einsatz kommen, schwierig sein. Die Ursache dafür ist der hohe Untergrund und die relativ niedrige Signalrate. Diese Arbeit behandelt die Implementierung fortschrittlicher und für die Entdeckung signifikanter Ratenänderung optimierter, statistischer Methoden (exp-test and Bayesian-Blocks) innerhalb der VERITAS-Analyse. Das Verhalten dieser Methoden wird anhand von Daten minutenlanger Ausbrüche, die mittels Monte-Carlo-Technik für zwei unterschiedliche VERITAS Stadien simuliert wurden (vor und nach der Hardware-Aufrüstung), bewertet und miteinander verglichen. Die fortschrittlichen Methoden verbessern die Empfindlichkeit bei der Entdeckung von kurzzeitigen Ausbrüchen, wenn deren Fluss den des Krebsnebels übersteigt (Krebsnebel-Einheit = K.E.). Es sind nun Ausbrüche von 2 K.E. selbst dann nachweisbar, wenn deren Dauer nur 100 Sek. beträgt. Dies ist mit der Standardmethode nicht möglich. Im darauffolgenden Schritt dieser Arbeit werden das Nachglühen von 6 GB sowie die 450, ebenfalls mit VERITAS erzeugten, Aufnahmen von AGK-Quellen mittels der fortschrittlichen Methoden analysiert. In keiner der AGK-Aufnahmen wird eine signifikante Entdeckung kurzzeitiger Variabilität gemacht, was mit den anerkannten AGK-Modellen übereinstimmt. Auch die Untersuchung des Nachglühens der 6 GB offenbart keine kurzen Ausbrüche im GeV-TeV Bereich. Jedoch ist es für 2 von ihnen möglich, ein oberes Flusslimit von 1.25 K.E. (3,7 · 10^(−10) erg/(cm^2*s) [0,1;10 TeV]) abzuschätzen. / In astronomy, many of the observed sources show a transient behavior. Examples are gamma-ray bursts (GRBs) and active galactic nuclei (AGN). For those source types the variability can be very short, in the order of seconds to minutes. Measuring the flux variations is necessary to understand the underlying physical processes responsible for the emission. However, the detection of very short flares can be difficult in the very high-energy range, in which imaging atmospheric Cherenkov telescopes like VERITAS are operating. This is due to the large background and the comparable low signal rates. This thesis discusses the implementation of advanced statistical methods (exp-test and Bayesian-Blocks) into the VERITAS analysis framework, that are optimized for the detection of significant variations in the event rate. The performance of these methods is evaluated and compared by using Monte Carlo simulations of minute scale flares for two different VERITAS states, pre- and post-hardware-upgrade. It is shown that the advanced methods can improve the detection sensitivity for short flares with high fluxes of more than the Crab flux (Crab unit = C.U.). For example, flares at 2 C.U. with short durations down to 100 sec are now detectable, which is not possible with the standard method. In the next step of this thesis, 6 GRB afterglows and 450 runs of AGN data, observed by VERITAS, are analyzed with the advanced methods. In none of the AGN runs a significant detection of short time variability is made, which is in consistence with the canonical AGN models. The investigation of the 6 GRB afterglows also did not reveal any short flares in the GeV-TeV range. However, for two of them it was possible to estimate an upper flux limit of 1.25 C.U. (3,7 * 10^(−10) erg/(s*cm^2) [0,1;10 TeV]).
34

Bestandes- und Freilandnährstoffeinträge in Zentralsulawesi (Indonesien) / Throughfall- and freeland deposition in Central Sulawesi

Köhler, Stefan 03 July 2012 (has links)
No description available.
35

Dynamische Simulation des Verhaltens von Gasen in Heizungsanlagen

Qin, Renhang 15 March 2018 (has links)
In dieser Arbeit wird ein Simulationsprogramm für das Gas-Verhalten in Heizungssystemen entwickelt. Der Gaseintrag durch das Membranausdehnungsgefäß und Dichtungsstellen, die Entstehung und Ansammlung von Gasblasen und die Funktionen der Heizungsanlage werden in einem Programm dynamisch simuliert. Mit diesem Programm wird eine Parameter-Studie durchgeführt. Die Einflüsse verschiedener Faktoren auf das Vorhandensein des Gases und die Leistung der Heizungsanlage werden ausgewertet, wie zum Beispiel der Druck und Temperatur im Heizungssystem, die Gasgehalten im Füllwasser, die Auswirkung eines atmosphärischen Entgasungsgeräts. Die Ergebnisse zeigen, dass der Einfluss der Gaspermeation auf das Auftreten von Gasblasen im Heizungssystem im Vergleich zum Anfangsgasgehalt im Füllwasser sehr gering ist. Bei höherer Temperatur dringt viel mehr Sauerstoff in das System ein. Die meisten Gasblasen sammeln sich in dem Heizkörper in der höchsten Etage mit dem kürzesten Kreislauf an. Das atmosphärische Entgasungsgerät wirkt besser als das MAG bei der Druckhaltung. Jedoch wird mehr Rost in der Heizungsanlage durch den von dem Behälter des Entgasungsgeräts eingetragenen Sauerstoff erzeugt. / The purpose of this paper is to find out how and how much gas get into the heating system through permeation, when and where the gas bubbles get accumulated in the heating system and how well an atmospheric degassing device works. For this propose a dynamic timestep simulation was made with C# program to simulate heating system and the gas behaviors in the system. Sensibility tests were made for different factors such as sealing material, temperature and gas concentration in water. In addition, the speed of the gas permeation in the dynamic simulation gets compared with the values of static calculation in the literature. The results showed, that different sealing material and different temperature could make a big difference for the amount of gas that permeate in to the system. But compare to the initial gas concentration in the filling water is gas permeation alone is not a decisive factor for the presence of gas bubbles in the heating system and does not have a major impact on the performance of the heating system. More oxygen enters the system and get consumed by corrosion at higher operation temperatures. The results also showed, that the atmospheric degassing device works better than MAG at the pressure maintenance and getting rid of gas bubbles. However, oxygen gets constantly introduced in to the heating system through the container of the atmospheric degassing device. More rust is therefore generated.
36

Auswirkungen atmogener Stickstoffeinträge auf die Kohlenstoff- und Stickstoffdynamik unterschiedlich stark stickstoffbelasteter Waldböden

Scheuner, Thomas 18 June 2004 (has links)
Das Ziel der Arbeit war die Untersuchung der Kohlenstoff- und Stickstoffdynamik in Waldböden unter dem Einfluß atmogener Stickstoffeinträge. Dabei wurden biotische und abiotische Schlüsselprozesse zweier unterschiedlich stark stickstoffbelasteter Waldböden des Nordwest- und Nordostdeutschen Tieflandes (Kreinitz und Thülsfeld) analysiert und miteinander verglichen. Um detaillierte Informationen über potentielle Kohlenstoff- und Stickstoffumsätze zu erhalten, wurden die untersuchten Böden sowohl horizont- als auch tiefenstufenbezogen stratifiziert. Über einen Zeitraum von 14 Wochen wurden sämtliche Kohlenstoff- und Stickstoffeinträge sowie -austräge zwischen den einzelnen Tiefenstufen beobachtet und analysiert. Nach Beendigung der Versuche wurden die einzelnen Bodenhorizonte mit spezifischen Kohlenstoff- und Stickstoffextraktionsverfahren aufgeschlossen. Mit Hilfe dieser Versuchsanordnung war es möglich, eine vollständige tiefenstufenbezogene Kohlenstoff- und Stickstoffbilanzierung für den Kreinitzer und Thülsfelder Boden zu erstellen. Zur Prüfung der Übertragbarkeit der Laborergebnisse auf aktuelle Standortbedingungen wurde ein Langzeitfeldversuch (ein Jahr) mit einer ähnlichen Versuchsanordnung am Standort Kreinitz durchgeführt. Folgende Ergebnisse wurden in dieser Arbeit erzielt: 1. Der TOC-Gehalt war der Hauptparameter, in dem sich der stark stickstoffbelastete Standort Thülsfeld von dem weniger stark stickstoffbelasteten Standort Kreinitz zu Beginn der Untersuchung deutlich unterschied. 2. Der KCl-extrahierbare mineralische Stickstoff (NminKCl) reagierte an beiden Versuchs-standorten am stärksten auf die Stickstoffdüngung und wurde mit Hilfe der Diskriminanzanalyse als Hauptsensitivitätsparameter für Stickstoffeinträge im Boden ermittelt. 3. Die Kreinitzer organische Auflage reagierte in bezug auf die mittelfristig umsetzbare Kohlenstoff- und Stickstofffraktion (Chwe, Nhwe) deutlich stärker auf die N-Einträge als die Thülsfelder Auflage. Infolgedessen besitzt die Kreinitzer Auflage ein höheres Kohlenstoff- und Stickstoffmobilisierungspotential, die hochkomplexen organischen C- und N-Verbindungen in weniger komplexe Verbindungen abzubauen. 4. Der Thülsfelder Mineralboden 5. besitzt aufgrund der höheren Anteile des Nhwe am TN ein höheres Mobilisierungspotential für den kurz- und mittelfristig umsetzbaren Stickstoff (Nhwe) als der Kreinitzer Mineralboden. 6. Die für die Mikroorganismen verfügbaren Kohlenstoffquellen scheinen sich durch die historischen und die zusätzlich simulierten Stickstoffeinträge vom POC in der Sand-Braunerde zum WSOC und CKCl im Sand-Podsol zu verschieben. 7. Als verfügbare Stickstoffquelle nutzen die Mikroorganismen am Standort Kreinitz den PN, während sich für den Standort Thülsfeld keine eindeutige Stickstofffraktion als Hauptnahrungsquelle ermitteln ließ. 8. Sowohl in den Laborversuchen als auch im Freilandversuch führten die Stickstoffeinträge zur Verengung nahezu aller C/N-Verhältnisse in den untersuchten Extraktionsverfahren.
37

Use of large-scale atmospheric flow patterns to improve forecasting of extreme precipitation in the Mediterranean region for longer-range forecasts

Mastrantonas, Nikolaos 31 May 2023 (has links)
The Mediterranean region frequently experiences extreme precipitation events (EPEs) with devastating consequences for affected societies, economies, and environment. Thus, it is crucial to better understand their characteristics and drivers and improve their predictions at longer lead times. This work provides new insights about the spatiotemporal dependencies of EPEs in the region. It, moreover, implements Empirical Orthogonal Function analysis and subsequent non-hierarchical Kmeans clustering for generating nine distinct weather patterns over the domain, referred to as “Mediterranean patterns”. These patterns are significantly associated with EPEs across the region, and in fact, can be used to extend the forecasting horizon of EPEs. This is demonstrated considering modelled data for all the domain, but also using observational data for Calabria, southern Italy, an area of complex topography that increases the challenges of weather prediction. The results suggest preferential techniques for improving EPEs predictions for short, medium, and extended range forecasts, supporting thus the mitigation of their negative impacts.
38

Analysis of water vapour mixing ratio profiles in the Arctic from Raman lidar measurements during the MOSAiC-campaign

Seidel, Clara 04 April 2023 (has links)
For the first time, vertical water vapour profiles were measured in the Central Arctic North of 85°N during the MOSAiC campaign (Multidisciplinary drifting Observatory for the Study of Arctic Climate). Continuous measurements of the Raman lidar PollyXT are used to retrieve high-resolved vertical profiles of the water vapour mixing ratio (WVMR) during the polar night. The collected data are calibrated and evaluated by use of selected clear-sky profiles between 25 October 2019 and 29 February 2020. Three different calibration methods are applied using reference data from radiosonde launches or microwave radiometer (MWR) measurements, respectively. The calibration with the least error results from a linear fit between collocated radiosonde and lidar measurements and delivers a final calibration constant of 15.96 ± 0.37 g/kg for the period from 25 Oct 2019 to 29 Feb 2020. The calibrated WVMR profiles are analysed regarding the vertical distribution of water vapour in the Arctic, its impact on the downward thermal-infrared radiation (DTIR) at the surface, and its relation to the Arctic Oscillation (AO) index as a measure for the general atmospheric circulation. The Arctic atmosphere is very dry during the winter time with WVMR values below 2 g/kg. The vertical water vapour distribution is strongly related to the temperature profile. Layers with higher WVMR values are often capped by temperature inversions. Layers with higher integrated water vapour values (IWV) are located either close to the surface (coupled) or in an elevated layer (decoupled), related to local or advective processes, respectively. The impact of the vertical distributed water vapour on the clear-sky DTIR at the surface was investigated by evaluating the evolution of the air mass at the measurement location over several hours for seven clear-sky cases. The relation between the measured DTIR at the surface and the lidar IWV shows a linear correlation for each case, but with a shift in the radiation values depending on the temperature of the vertical distributed water vapour. The impact of the IWV on the DTIR is determined to be 9.33 − 15.03 W/kg from the example cases. Beside, a linear correlation is found between the temperature of the vertical distributed water vapour and the radiation temperature of the sky, which is derived from the Stefan-Boltzmann’s Law. Both results depict the high impact of the atmospheric water vapour profile on the surface energy budget during clear-sky winter conditions. The influence of the atmospheric circulation on the vertical water vapour distribution in the Arctic is investigated by use of the AO index. While very stable conditions with a weak exchange with lower latitudes are expected during the positive phase of the AO, a stronger meridional transport is related to the negative phase of the AO. The evaluation of 71 randomly selected clear-sky profiles shows differences in the amount and the vertical structure of each WVMR profile between the two phases. Higher WVMR values and layers with higher IWV are observed during the negative AO phase. Nonetheless, a high variability between dry and humid cases is seen during all phases of the AO due to synoptic events. Two main sources for water vapour in the Eastern Central Arctic are identified independent of the AO. These are cyclones on the one hand and the occurrence of a main wind direction from the seas north of Siberia namely Laptev, Kara and Barents Sea on the other hand. In summary, the thesis discusses different calibration methods for the derivation of WVMR profiles from Raman lidar measurements in its first part. In the second part, the thesis gives an overview over the vertical water vapour distribution in the Central Arctic winter and its complex relation to temperature profiles, radiation measurements at the surface and the atmospheric circulation.
39

Bewertung, Verarbeitung und segmentbasierte Auswertung sehr hoch auflösender Satellitenbilddaten vor dem Hintergrund landschaftsplanerischer und landschaftsökologischer Anwendungen / Evaluation, processing and segment-based analysis of very high resolution satellite imagery against the background of applications in landscape planning and landscape ecology

Neubert, Marco 03 March 2006 (has links) (PDF)
Die Fernerkundung war in den vergangenen Jahren von einschneidenden Umbrüchen gekennzeichnet, die sich besonders in der stark gestiegenen geometrischen Bodenauflösung der Sensoren und den damit einhergehenden Veränderungen der Verarbeitungs- und Auswertungsverfahren widerspiegeln. Sehr hoch auflösende Satellitenbilddaten - definiert durch eine Auflösung zwischen einem halben und einem Meter - existieren seit dem Start von IKONOS Ende 1999. Etwa im selben Zeitraum wurden extrem hoch auflösende digitale Flugzeugkameras (0,1 bis 0,5 m) entwickelt. Dieser Arbeit liegen IKONOS-Daten mit einer Auflösung von einem (panchromatischer Kanal) bzw. vier Metern (Multispektraldaten) zugrunde. Bedingt durch die Eigenschaften sehr hoch aufgelöster Bilddaten (z. B. Detailgehalt, starke spektrale Variabilität, Datenmenge) lassen sich bisher verfügbare Standardverfahren der Bildverarbeitung nur eingeschränkt anwenden. Die Ergebnisse der in dieser Arbeit getesteten Verfahren verdeutlichen, dass die Methoden- bzw. Softwareentwicklung mit den technischen Neuerungen nicht Schritt halten konnte. Einige Verfahren werden erst allmählich für sehr hoch auflösende Daten nutzbar (z. B. atmosphärisch-topographische Korrektur). Die vorliegende Arbeit zeigt, dass Daten dieses Auflösungsbereiches mit bisher verwendeten pixelbasierten, statistischen Klassifikationsverfahren nur unzulänglich ausgewertet werden können. Die hier untersuchte Anwendung von Bildsegmentierungsmethoden hilft, die Nachteile pixelbasierter Verfahren zu überwinden. Dies wurde durch einen Vergleich pixel- und segmentbasierter Klassifikationsverfahren belegt. Im Rahmen einer Segmentierung werden homogene Bildbereiche zu Regionen verschmolzen, welche die Grundlage für die anschließende Klassifikation bilden. Hierzu stehen über die spektralen Eigenschaften hinaus Form-, Textur- und Kontextmerkmale zur Verfügung. In der verwendeten Software eCognition lassen sich diese Klassifikationsmerkmale zudem auf Grundlage des fuzzy-logic-Konzeptes in einer Wissensbasis (Entscheidungsbaum) umsetzen. Ein Vergleich verschiedener, derzeit verfügbarer Segmentierungsverfahren zeigt darüber hinaus, dass sich mit der genutzten Software eine hohe Segmentierungsqualität erzielen lässt. Der wachsende Bedarf an aktuellen Geobasisdaten stellt für sehr hoch auflösende Fernerkundungsdaten eine wichtige Einsatzmöglichkeit dar. Durch eine gezielte Klassifikation der Bilddaten lassen sich Arbeitsgrundlagen für die hier betrachteten Anwendungsfelder Landschaftsplanung und Landschaftsökologie schaffen. Die dargestellten Beispiele von Landschaftsanalysen durch die segmentbasierte Auswertung von IKONOS-Daten zeigen, dass sich eine Klassifikationsgüte von 90 % und höher erreichen lässt. Zudem können die infolge der Segmentierung abgegrenzten Landschaftseinheiten eine Grundlage für die Berechnung von Landschaftsstrukturmaßen bilden. Nationale Naturschutzziele sowie internationale Vereinbarungen zwingen darüber hinaus zur kontinuierlichen Erfassung des Landschaftsinventars und dessen Veränderungen. Fernerkundungsdaten können in diesem Bereich zur Etablierung automatisierter und operationell einsatzfähiger Verfahren beitragen. Das Beispiel Biotop- und Landnutzungskartierung zeigt, dass eine Erfassung von Landnutzungseinheiten mit hoher Qualität möglich ist. Bedingt durch das Auswertungsverfahren sowie die Dateneigenschaften entspricht die Güte der Ergebnisse noch nicht vollständig den Ansprüchen der Anwender, insbesondere hinsichtlich der erreichbaren Klassifikationstiefe. Die Qualität der Ergebnisse lässt sich durch die Nutzung von Zusatzdaten (z. B. GIS-Daten, Objekthöhenmodelle) künftig weiter steigern. Insgesamt verdeutlicht die Arbeit den Trend zur sehr hoch auflösenden digitalen Erderkundung. Für eine breite Nutzung dieser Datenquellen ist die weitere Entwicklung automatisierter und operationell anwendbarer Verarbeitungs- und Analysemethoden unerlässlich. / In recent years remote sensing has been characterised by dramatic changes. This is reflected especially by the highly increased geometrical resolution of imaging sensors and as a consequence thereof by the developments in processing and analysis methods. Very high resolution satellite imagery (VHR) - defined by a resolution between 0.5 and 1 m - exists since the start of IKONOS at the end of 1999. At about the same time extreme high resolution digital airborne sensors (0.1 till 0.5 m) have been developed. The basis of investigation for this dissertation is IKONOS imagery with a resolution of one meter (panchromatic) respectively four meters (multispectral). Due to the characteristics of such high resolution data (e.g. level of detail, high spectral variability, amount of data) the use of previously available standard methods of image processing is limited. The results of the procedures tested within this work demonstrate that the development of methods and software was not able to keep up with the technical innovations. Some procedures are only gradually becoming suitable for VHR data (e.g. atmospheric-topographic correction). Additionally, this work shows that VHR imagery can be analysed only inadequately using traditional pixel-based statistical classifiers. The herein researched application of image segmentation methods helps to overcome drawbacks of pixel-wise procedures. This is demonstrated by a comparison of pixel and segment-based classification. Within a segmentaion, homogeneous image areas are merged into regions which are the basis for the subsequent classification. For this purpose, in addition to spectral features also formal, textural and contextual properties are available. Furthermore, the applied software eCognition allows the definition of the features for classification based on fuzzy logic in a knowledge base (decision tree). An evaluation of different, currently available segmentation approaches illustrates that a high segmentation quality is achievable with the used software. The increasing demand for geospatial base data offers an important field of application for VHR remote sensing data. With a targeted classification of the imagery the creation of working bases for the herein considered usage for landscape planning and landscape ecology is possible. The given examples of landscape analyses using a segment-based processsing of IKONOS data show an achievable classification accuracy of 90 % and more. The landscape units delineated by image segmentation could be used for the calculation of landscape metrics. National aims of nature conservation as well as international agreements constrain a continuous survey of the landscape inventory and the monitoring of its changes. Remote sensing imagery can support the establishment of automated and operational methods in this field. The example of biotope and land use type mapping illustrates the possibility to detect land use units with a high precision. Depending on the analysis method and the data characteristics the quality of the results is not fully equivalent to the user?s demands at the moment, especially concerning the achievable depth of classification. The quality of the results can be enhanced by using additional thematic data (e.g. GIS data, object elevation models). To summarize this dissertation underlines the trend towards very high resolution digital earth observation. Thus, for a wide use of this kind of data it is essentially to further develop automated and operationally useable processing and analysis methods.
40

Bewertung, Verarbeitung und segmentbasierte Auswertung sehr hoch auflösender Satellitenbilddaten vor dem Hintergrund landschaftsplanerischer und landschaftsökologischer Anwendungen

Neubert, Marco 14 October 2005 (has links)
Die Fernerkundung war in den vergangenen Jahren von einschneidenden Umbrüchen gekennzeichnet, die sich besonders in der stark gestiegenen geometrischen Bodenauflösung der Sensoren und den damit einhergehenden Veränderungen der Verarbeitungs- und Auswertungsverfahren widerspiegeln. Sehr hoch auflösende Satellitenbilddaten - definiert durch eine Auflösung zwischen einem halben und einem Meter - existieren seit dem Start von IKONOS Ende 1999. Etwa im selben Zeitraum wurden extrem hoch auflösende digitale Flugzeugkameras (0,1 bis 0,5 m) entwickelt. Dieser Arbeit liegen IKONOS-Daten mit einer Auflösung von einem (panchromatischer Kanal) bzw. vier Metern (Multispektraldaten) zugrunde. Bedingt durch die Eigenschaften sehr hoch aufgelöster Bilddaten (z. B. Detailgehalt, starke spektrale Variabilität, Datenmenge) lassen sich bisher verfügbare Standardverfahren der Bildverarbeitung nur eingeschränkt anwenden. Die Ergebnisse der in dieser Arbeit getesteten Verfahren verdeutlichen, dass die Methoden- bzw. Softwareentwicklung mit den technischen Neuerungen nicht Schritt halten konnte. Einige Verfahren werden erst allmählich für sehr hoch auflösende Daten nutzbar (z. B. atmosphärisch-topographische Korrektur). Die vorliegende Arbeit zeigt, dass Daten dieses Auflösungsbereiches mit bisher verwendeten pixelbasierten, statistischen Klassifikationsverfahren nur unzulänglich ausgewertet werden können. Die hier untersuchte Anwendung von Bildsegmentierungsmethoden hilft, die Nachteile pixelbasierter Verfahren zu überwinden. Dies wurde durch einen Vergleich pixel- und segmentbasierter Klassifikationsverfahren belegt. Im Rahmen einer Segmentierung werden homogene Bildbereiche zu Regionen verschmolzen, welche die Grundlage für die anschließende Klassifikation bilden. Hierzu stehen über die spektralen Eigenschaften hinaus Form-, Textur- und Kontextmerkmale zur Verfügung. In der verwendeten Software eCognition lassen sich diese Klassifikationsmerkmale zudem auf Grundlage des fuzzy-logic-Konzeptes in einer Wissensbasis (Entscheidungsbaum) umsetzen. Ein Vergleich verschiedener, derzeit verfügbarer Segmentierungsverfahren zeigt darüber hinaus, dass sich mit der genutzten Software eine hohe Segmentierungsqualität erzielen lässt. Der wachsende Bedarf an aktuellen Geobasisdaten stellt für sehr hoch auflösende Fernerkundungsdaten eine wichtige Einsatzmöglichkeit dar. Durch eine gezielte Klassifikation der Bilddaten lassen sich Arbeitsgrundlagen für die hier betrachteten Anwendungsfelder Landschaftsplanung und Landschaftsökologie schaffen. Die dargestellten Beispiele von Landschaftsanalysen durch die segmentbasierte Auswertung von IKONOS-Daten zeigen, dass sich eine Klassifikationsgüte von 90 % und höher erreichen lässt. Zudem können die infolge der Segmentierung abgegrenzten Landschaftseinheiten eine Grundlage für die Berechnung von Landschaftsstrukturmaßen bilden. Nationale Naturschutzziele sowie internationale Vereinbarungen zwingen darüber hinaus zur kontinuierlichen Erfassung des Landschaftsinventars und dessen Veränderungen. Fernerkundungsdaten können in diesem Bereich zur Etablierung automatisierter und operationell einsatzfähiger Verfahren beitragen. Das Beispiel Biotop- und Landnutzungskartierung zeigt, dass eine Erfassung von Landnutzungseinheiten mit hoher Qualität möglich ist. Bedingt durch das Auswertungsverfahren sowie die Dateneigenschaften entspricht die Güte der Ergebnisse noch nicht vollständig den Ansprüchen der Anwender, insbesondere hinsichtlich der erreichbaren Klassifikationstiefe. Die Qualität der Ergebnisse lässt sich durch die Nutzung von Zusatzdaten (z. B. GIS-Daten, Objekthöhenmodelle) künftig weiter steigern. Insgesamt verdeutlicht die Arbeit den Trend zur sehr hoch auflösenden digitalen Erderkundung. Für eine breite Nutzung dieser Datenquellen ist die weitere Entwicklung automatisierter und operationell anwendbarer Verarbeitungs- und Analysemethoden unerlässlich. / In recent years remote sensing has been characterised by dramatic changes. This is reflected especially by the highly increased geometrical resolution of imaging sensors and as a consequence thereof by the developments in processing and analysis methods. Very high resolution satellite imagery (VHR) - defined by a resolution between 0.5 and 1 m - exists since the start of IKONOS at the end of 1999. At about the same time extreme high resolution digital airborne sensors (0.1 till 0.5 m) have been developed. The basis of investigation for this dissertation is IKONOS imagery with a resolution of one meter (panchromatic) respectively four meters (multispectral). Due to the characteristics of such high resolution data (e.g. level of detail, high spectral variability, amount of data) the use of previously available standard methods of image processing is limited. The results of the procedures tested within this work demonstrate that the development of methods and software was not able to keep up with the technical innovations. Some procedures are only gradually becoming suitable for VHR data (e.g. atmospheric-topographic correction). Additionally, this work shows that VHR imagery can be analysed only inadequately using traditional pixel-based statistical classifiers. The herein researched application of image segmentation methods helps to overcome drawbacks of pixel-wise procedures. This is demonstrated by a comparison of pixel and segment-based classification. Within a segmentaion, homogeneous image areas are merged into regions which are the basis for the subsequent classification. For this purpose, in addition to spectral features also formal, textural and contextual properties are available. Furthermore, the applied software eCognition allows the definition of the features for classification based on fuzzy logic in a knowledge base (decision tree). An evaluation of different, currently available segmentation approaches illustrates that a high segmentation quality is achievable with the used software. The increasing demand for geospatial base data offers an important field of application for VHR remote sensing data. With a targeted classification of the imagery the creation of working bases for the herein considered usage for landscape planning and landscape ecology is possible. The given examples of landscape analyses using a segment-based processsing of IKONOS data show an achievable classification accuracy of 90 % and more. The landscape units delineated by image segmentation could be used for the calculation of landscape metrics. National aims of nature conservation as well as international agreements constrain a continuous survey of the landscape inventory and the monitoring of its changes. Remote sensing imagery can support the establishment of automated and operational methods in this field. The example of biotope and land use type mapping illustrates the possibility to detect land use units with a high precision. Depending on the analysis method and the data characteristics the quality of the results is not fully equivalent to the user?s demands at the moment, especially concerning the achievable depth of classification. The quality of the results can be enhanced by using additional thematic data (e.g. GIS data, object elevation models). To summarize this dissertation underlines the trend towards very high resolution digital earth observation. Thus, for a wide use of this kind of data it is essentially to further develop automated and operationally useable processing and analysis methods.

Page generated in 0.0804 seconds