Spelling suggestions: "subject:"74.41 - luftaufnahmen, photogrammetrie"" "subject:"74.41 - luftaufnahmen, photogrammmetrie""
1 |
Optimierung und Auswirkungen von ikonischen Bildfusionsverfahren zur Verbesserung von fernerkundlichen AuswerteverfahrenKlonus, Sascha 10 February 2012 (has links)
Die Verfügbarkeit von Fernerkundungsdaten ist in den letzten Jahren stark gestiegen. Spätestens seit der Entwicklung von Google Earth wächst auch das Interesse der Allgemeinheit an Fernerkundungsdaten. Aktuell ist eine Vielzahl von Satelliten- und flugzeuggestützten Fernerkundungssystemen operationell verfügbar. Neue Techniken in der Fernerkundung erbringen immer höhere räumliche und zeitliche Auflösungen.
Daten, die von den verschiedenen Sensoren aufgenommen werden, unterscheiden sich daher in spektraler, räumlicher sowie temporaler Auflösung. Eines haben die meisten dieser Sensoren aber gemeinsam, nämlich, dass die höchste räumliche Auflösung nur im panchromatischen Modus erzeugt werden kann. Das Verhältnis zwischen der hoch aufgelösten panchromatischen und der niedrig auflösenden multispektralen Aufnahme eines Sensors liegt dabei zwischen 1:2 (SPOT 4) und 1:8 (DMC - Beijing-1). Diese werden in der Regel auf Bilddaten angewandt, die vom gleichen Sensor zur gleichen Zeit aufgenommen wurden (unisensorale, unitemporale Fusion). Einige Sensoren erzeugen allerdings nur panchromatische Bilder, andere, wie das neue deutsche System RapidEye, nur multispektrale Daten. Zur Erzeugung von hoch bzw. höchst aufgelösten multispektralen Bildern müssen hier sensorübergreifend Bilddaten fusioniert werden, die zu verschiedenen Zeitpunkten aufgenommen wurden (multisensorale, multitemporale Fusion). Benutzt man Daten von unterschiedlichen Sensoren, so kann das Verhältnis zwischen der hoch aufgelösten panchromatischen und der niedrig auflösenden multispektralen Aufnahme sogar 1:30 (Ikonos-Panchromatisch : Landsat-Multispektral) oder höher betragen. Neben dem Verhältnis der panchromatischen Komponente zu der multispektralen Komponente ist die Veränderung der spektralen Werte bei der Fusion aber noch entscheidender. Die Mehrzahl der entwickelten Fusionsverfahren weist dabei Farbveränderungen auf. Zudem beeinflussen diese Farbveränderungen auch anschließende Analysen. Das allgemeine Ziel der Daten- bzw. auch der Bildfusion ist: verschiedene Daten zusammenzuführen und mehr Informationen aus diesen Daten zu erhalten als aus jedem der einzelnen Sensoren allein (1+1=3). Die Fragestellung, die auch dieser Arbeit zugrunde liegt, lautet: Kann man mehr Informationen aus den fusionierten Datensätzen extrahieren als aus den einzelnen Datensätzen allein? Und wenn ja, wie viel mehr Informationen können extrahiert werden? Das erste Ziel dieser Arbeit ist ein Verfahren zu finden, welches die zu untersuchenden Merkmale so verbessert, dass der Informationsgehalt maximiert wird und damit höher ist als in den einzelnen originalen Datensätzen. In Bezug auf die Fusion von hochaufgelösten panchromatischen mit niedriger aufgelösten multispektralen Daten bedeutet dies, dass die fusionierten Daten die gleich hohe Auflösung der panchromatischen Daten besitzen, ohne dass Farbveränderungen auftreten. Diese fusionierten Daten sollten sich nicht von einem Bild unterscheiden, das mit einem multispektralen Sensor in der räumlichen Auflösung der panchromatischen Eingangsdaten aufgenommen wurde. Um dieses Ziel zu erreichen, wurde die Fusion auf der Pixelebene ausgewählt, da diese für die Fernerkundung von höchster Relevanz ist, weil die ikonischen Bildfusionsverfahren am weitesten entwickelt sind und die Eingangsdaten am wenigsten vor der Anwendung der Fusionsmethode verändert werden. Da es eine große Anzahl an Verfahren im Bereich der Bildfusion gibt, wurde zunächst auf Basis einer Literaturrecherche eine Auswahl von Verfahren getroffen. Zur Beurteilung dieser Verfahren ist es notwendig, quantitativ-statistische Verfahren auszuwählen, da eine rein visuelle Auswertung, zu subjektiv ist. Um das zweite Ziel dieser Arbeit zu erreichen wurde eine Literaturrecherche durchgeführt. Die ausgewählten Evaluierungsverfahren sollten soweit wie möglich automatisch ablaufen und nur wenig manuellen Input benötigen. Das sichert eine erhöhte Objektivität. Das Endergebnis sollte ein Wert für jeden Kanal oder das Bild sein, so dass eindeutige Rückschlüsse auf die Qualität des Bildes möglich sind. Bei der Auswahl dieser Verfahren ist darauf zu achten, dass sowohl Evaluierungsverfahren ausgewählt werden, welche die spektrale Veränderung messen, aber auch solche, welche die räumliche Verbesserung messen. Die Evaluierungsverfahren wurden für 7 Kategorien ausgewählt. Für die Kategorie 1 wird der ERGAS eingesetzt. In der zweiten Kategorie sollen die Bilddifferenzen berechnet werden. Da die einfache Differenz zweier Bilder große Datenmengen produziert und nicht ein einzelner Wert verfügbar ist, wird die Grauwertabweichung pro Pixel als Kriterium ausgewählt. Mit der dritten Kategorie sollen Ähnlichkeiten im Bildaufbau gemessen werden. Dazu eignet sich am besten der Korrelationskoeffizient. In der vierten Kategorie werden die Ähnlichkeiten der räumlichen Details gemessen. Da es hier wieder um Ähnlichkeiten geht, bietet es sich erneut an, den Korrelationskoeffizienten auch hier einzusetzen. Diesmal allerdings die Korrelation nach Hochpassfilterung zwischen den panchromatischen Eingangsdaten und den fusionierten Bildern. Kategorie 5 betrifft die Qualität der lokalen räumlichen
Verbesserungen. Dazu wird die Kantendetektion mit dem Canny Kantenoperator für diese Arbeit ausgewählt. Bei der sechsten Kategorie geht es um die Messung von Unstimmigkeiten in den Spektren. Der SAM wurde daher ausgewählt. Die siebte Kategorie beschreibt die globalen Unterschiede in den Bildern. Dazu wird der SSIM verwendet. Nachdem die Evaluierungsverfahren in den sieben Kategorien ausgewählt wurden, zeigte die Anwendung dieser Evaluierungsmethoden, dass die Ehlers Fusion das beste Fusionsverfahren ist. Die uantitativstatistischen Untersuchungen präsentierten die besten Ergebnisse für die Ehlers Fusion. Die Werte zur spektralen
Untersuchung unterschieden sich nur im geringem Maße von den orginalen Werten. Aus diesem Grund wurde die Ehlers Fusion für weitere Untersuchungen in dieser Arbeit ausgewählt und optimiert. Um den Mehrwert von fusionierten Daten zu ermitteln, wurde die Interpretation der fusionierten Fernerkundungsdaten durchgeführt. Bei der unisensoralen Bildfusion hat sich gezeigt, dass die Mehrzahl der Verfahren eine Verbesserung bei der Interpretation der Daten erreicht. Objekte können genauer erkannt werden und auch die Farben bleiben erhalten. Bei den multitemporalen Datensätzen und insbesondere bei der Fusion von Radardaten erreicht dieses Ziel nur ein einziges Verfahren: die Ehlers Fusion. Die Interpretation der Daten wird auch bei den multitemporalen Daten erleichtert. Es werden nicht nur die Kanten von Objekten geschärft, wie beim Brovey Verfahren, sondern auch die spektralen Werte bleiben erhalten. Die Werterhaltung ist besonders wichtig, da durch Veränderung der Farbwerte die genaue Feldfrucht nicht mehr bestimmt werden kann und eine Interpretation dadurch erschwert bzw. unmöglich wird. Bei der CAPI (Computer Assisted Photo Interpretation) konnten durch die Ehlers Fusion vor allem zwei Faktoren der Interpretation deutlich verbessert werden: Zum einen gab es eine schärfere Abgrenzung der Flächengrenzen von unterschiedlich genutzten landwirtschaftlichen Flächen im Vergleich mit den originalen spektralen Daten und zum anderen können Pflanzen, z.B. Weinberge, die nur einen Teil des Bodens bedecken, besser erkannt werden. Bei der unitemporalen Klassifikation stellte sich heraus, dass die fusionierten Daten eine höhere Genauigkeit haben, wenn für die Klassifikation nur die multispektralen Daten verwendet werden. Werden zusätzlich noch die panchromatischen Daten als weiterer Kanal für die Klassifikation herangezogen, so ist die Genauigkeit gleich. Bei der multitemporalen Klassifikation zeigte sich dagegen, dass fusionierte Daten genauer klassifiziert werden können als die Daten mit einem zusätzlichen panchromatischen Kanal. Da bei der Klassifikation mit einem panchromatischen Kanal, der Aufnahmetermin nicht mit den multispektralen Daten übereinstimmt. Bei der Klassifikation mit fusionierten Radardaten zeigte sich, dass die fusionierten Daten eine detailliertere und damit verbesserte Klassifikation erzeugen. Fusionierte Daten können also dabei helfen, mehr Informationen aus den Eingangsdaten zu extrahieren als aus jeden der einzelnen Datensätze. Diese Arbeit hat gezeigt, dass die Genauigkeiten der Klassifikation sich erhöhen kann, wenn die Daten vorher fusioniert werden. Auch die Interpretation kann deutlich dadurch erleichtert werden, dass nicht der panchromatische Kanal und die multispektralen Kanäle getrennt voneinander betrachtet werden müssen. Man kann sich auf ein fusioniertes Bild konzentrieren und seine Interpretation durchführen.
|
2 |
A multi-sensor approach for land cover classification and monitoring of tidal flats in the German Wadden SeaJung, Richard 07 April 2016 (has links)
Sand and mud traversed by tidal inlets and channels, which split in subtle branches, salt marshes at the coast, the tide, harsh weather conditions and a high diversity of fauna and flora characterize the ecosystem Wadden Sea. No other landscape on the Earth changes in such a dynamic manner. Therefore, land cover classification and monitoring of vulnerable ecosystems is one of the most important approaches in remote sensing and has drawn much attention in recent years. The Wadden Sea in the southeastern part of the North Sea is one such vulnerable ecosystem, which is highly dynamic and diverse. The tidal flats of the Wadden Sea are the zone of interaction between marine and terrestrial environments and are at risk due to climate change, pollution and anthropogenic pressure. Due to that, the European Union has implemented various directives, which formulate objectives such as achieving or maintaining a good environmental status respectively a favourable conservation status within a given time. In this context, a permanent observation for the estimation of the ecological condition is needed. Moreover, changes can be tracked or even foreseen and an appropriate response is possible. Therefore, it is important to distinguish between short-term changes, which are related to the dynamic manner of the ecosystem, and long-term changes, which are the result of extraneous influences. The accessibility both from sea and land is very poor, which makes monitoring and mapping of tidal flat environments from in situ measurements very difficult and cost-intensive. For the monitoring of big areas, time-saving applications are needed. In this context, remote sensing offers great possibilities, due to its provision of a large spatial coverage and non-intrusive measurements of the Earth’s surface. Previous studies in remote sensing have focused on the use of electro-optical and radar sensors for remote sensing of tidal flats, whereas microwave systems using synthetic aperture radar (SAR) can be a complementary tool for tidal flat observation, especially due to their high spatial resolution and all-weather imaging capability. Nevertheless, the repetitive tidal event and dynamic sedimentary processes make an integrated observation of tidal flats from multi-sourced datasets essential for mapping and monitoring.
The main challenge for remote sensing of tidal flats is to isolate the sediment, vegetation or shellfish bed features in the spectral signature or backscatter intensity from interference by water, the atmosphere, fauna and flora. In addition, optically active materials, such as plankton, suspended matter and dissolved organics, affect the scattering and absorption of radiation. Tidal flats are spatially complex and temporally quite variable and thus mapping tidal land cover requires satellites or aircraft imagers with high spatial and temporal resolution and, in some cases, hyperspectral data.
In this research, a hierarchical knowledge-based decision tree applied to multi-sensor remote sensing data is introduced and the results have been visually and numerically evaluated and subsequently analysed. The multi-sensor approach comprises electro-optical data from RapidEye, SAR data from TerraSAR-X and airborne LiDAR data in a decision tree. Moreover, spectrometric and ground truth data are implemented into the analysis. The aim is to develop an automatic or semi-automatic procedure for estimating the distribution of vegetation, shellfish beds and sediments south of the barrier island Norderney. The multi-sensor approach starts with a semi-automatic pre-processing procedure for the electro-optical data of RapidEye, LiDAR data, spectrometric data and ground truth data. The decision tree classification is based on a set of hierarchically structured algorithms that use object and texture features. In each decision, one satellite dataset is applied to estimate a specific class. This helps to overcome the drawbacks that arise from a combined usage of all remote sensing datasets for one class. This could be shown by the comparison of the decision tree results with a popular state-of-the-art supervised classification approach (random forest).
Subsequent to the classification, a discrimination analysis of various sediment spectra, measured with a hyperspectral sensor, has been carried out. In this context, the spectral features of the tidal sediments were analysed and a feature selection method has been developed to estimate suitable wavelengths for discrimination with very high accuracy. The developed feature selection method ‘JMDFS’ (Jeffries-Matusita distance feature selection) is a filter-based supervised band elimination technique and is based on the local Euclidean distance and the Jeffries-Matusita distance. An iterative process is used to subsequently eliminate wavelengths and calculate a separability measure at the end of each iteration. If distinctive thresholds are achieved, the process stops and the remaining wavelengths are applied in the further analysis. The results have been compared with a standard feature selection method (ReliefF). The JMDFS method obtains similar results and runs 216 times faster.
Both approaches are quantitatively and qualitatively evaluated using reference data and standard methodologies for comparison. The results show that the proposed approaches are able to estimate the land cover of the tidal flats and to discriminate the tidal sediments with moderate to very high accuracy. The accuracies of each land cover class vary according to the dataset used. Furthermore, it is shown that specific reflection features can be identified that help in discriminating tidal sediments and which should be used in further applications in tidal flats.
|
3 |
Automatisierungspotenzial von Stadtbiotopkartierungen durch Methoden der FernerkundungBochow, Mathias 09 June 2010 (has links)
Die Stadtbiotopkartierung hat sich in Deutschland als die Methode zur Schaffung einer ökologischen Datenbasis für den urbanen Raum etabliert. Sie dient der Untersuchung naturschutzfachlicher Fragen, der Vertretung der Belange des Naturschutzes in zahlreichen räumlichen Planungsverfahren und ganz allgemein einer ökologisch orientierten Stadtplanung. Auf diese Weise kommen die Städte ihrem gesetzlichen Auftrag nach, Natur und Landschaft zu schützen, zu pflegen und zu entwickeln (§ 1 BNatSchG), den es explizit auch innerhalb der besiedelten Fläche zu erfüllen gilt. Ein Großteil der heute bestehenden 228 Stadtbiotoptypenkarten ist in der Etablierungsphase der Methode in den 80er Jahren entstanden und wurde häufig durch Landesmittel gefördert. Der Anteil der Städte, die jemals eine Aktualisierung durchgeführt haben, wird jedoch auf unter fünf Prozent geschätzt. Dies hängt vor allem mit dem hohen Kosten- und Zeitaufwand der Datenerhebung zusammen, die durch visuelle Interpretation von CIR-Luftbildern und durch Feldkartierungen erfolgt. Um die Aktualisierung von Stadtbiotoptypenkarten zu vereinfachen, wird in der vorliegenden Arbeit das Automatisierungspotenzial von Stadtbiotopkartierungen durch Nutzung von Fernerkundungsdaten untersucht. Der Kern der Arbeit besteht in der Entwicklung einer Methode, die einen wichtigen Arbeitsschritt der Stadtbiotopkartierung automatisiert durchführt: Die Erkennung des Biotoptyps von Biotopen. Darüber hinaus zeigt die Arbeit das Automatisierungspotenzial bei der flächenhaften Erhebung von quantitativen Parametern und Indikatoren zur ökologischen Bewertung von Stadtbiotopen auf. Durch die automatische Biotoptypenerkennung kann die Überprüfung und Aktualisierung einer Biotoptypenkarte in weiten Teilen der Stadt automatisiert erfolgen, wodurch der Zeitaufwand reduziert wird. Das entwickelte Verfahren kann in den bestehenden Ablauf der Stadtbiotopkartierung integriert werden, indem zunächst die Kartierung ausgewählter Biotoptypen automatisch erfolgt und die verbleibenden Flächen der Stadt durch visuelle Luftbildinterpretation und Feldbegehung überprüft und zugeordnet werden. Die thematische Einteilung der Biotoptypen orientiert sich im urbanen Raum in erster Linie an der anthropogenen Nutzung, da diese den dominierenden Faktor für die biologische Ausstattung der Biotope darstellt. Die entwickelte Methode eignet sich vor allem zur Erkennung von baulich geprägten Biotopen, da die Nutzung - und dadurch der Biotoptyp einer Fläche - durch eine automatische Analyse der Geoobjekte innerhalb der Biotopfläche ermittelt werden kann. Die Geoobjekte wiederum können durch eine Klassifizierung von multisensoralen Fernerkundungsdaten (hyperspektrale Flugzeugscannerdaten und digitale Oberflächenmodelle) identifiziert werden. Die Analyse der Geoobjekte und der urbanen Oberflächenarten innerhalb der Biotopfläche erfolgt anhand von räumlichen, morphologischen und quantitativen Merkmalen. Auf Basis dieser Merkmale wurden zwei Varianten eines automatischen Biotopklassifizierers entwickelt, die unter Verwendung von Fuzzy Logik und eines neu entwickelten, paarweise arbeitenden Maximum Likelihood Klassifizierers (pMLK) implementiert wurden. Für die bisher implementierten 10 Biotoptypen, die zusammen etwa die Hälfte des Stadtgebiets abdecken, wurde eine Erkennungsgenauigkeit von über 80 % ermittelt. Der pMLK wurde erfolgreich in zwei Städten (Berlin, Dresden) erprobt, wodurch seine Übertragbarkeit nachgewiesen werden konnte.
|
4 |
Entwicklung eines UAV-basierten Systems zur Rehkitzsuche und Methoden zur Detektion und Georeferenzierung von Rehkitzen in Thermalbildern: Der Fliegende WildretterIsrael, Martin 05 December 2016 (has links)
Die vorliegende Arbeit beschäftigt sich mit der Entwicklung eines UAV-basierten Systems und der zugehörigen Methodenentwicklung zur automatisierten Rehkitzsuche in Feldern. Jedes Jahr sterben sehr viele Wildtiere -- vor allem Rehkitze -- während dem Mähen von landwirtschaftlich genutzten Wiesen. Mit herkömmlichen Methoden ist es unter vertretbarem Aufwand bisher nicht gelungen, die Zahl der Mähopfer auf ein erträgliches Maß zu reduzieren. Mit der Entwicklung des in dieser Arbeit beschriebenen "Fliegenden Wildretters" könnte sich das in Zukunft ändern. Mit Hilfe einer Wärmebildkamera aus der Vogelperspektive lässt sich ein warmes Tier, wie ein Rehkitz, wesentlich leichter aufspüren, als mit herkömmlichen Methoden. Auslegung und Aufbau des Systems orientieren sich speziell an dem Aspekt, wie eine möglichst hohe Flächenleistung erreicht werden kann, ohne dabei Tiere zu übersehen. Drei Faktoren sind besonders wichtig, um dieses Ziel zu erreichen: Eine hohe Geschwindigkeit des gesamten Suchprozesses, eine zuverlässige Detektion und eine präzise Lokalisierung der Tiere. Durch Automatisierung lassen sich viele Teilaspekte dieser Aufgabe beschleunigen. Deshalb werden im Rahmen dieser Arbeit verschiedene Methoden entwickelt und validiert, unter anderem zur Flugplanung, Flugsteuerung, Bilddaten-Auswertung, Objekt-Detektion und Georeferenzierung.
Die Kenntnis der Rehkitz-Merkmale und der Einflussgrößen bei der Thermalbilderfassung helfen, die Qualität der Detektion zu erhöhen, weshalb sie in dieser Arbeit besondere Berücksichtigung finden.
Auch die Präzision der Lokalisierung lässt sich durch Kenntnis der Einflussgrößen auf die Positions- und Lagemessung des UAVs erhöhen. Anhand von umfangreichen Messkampagnen wird die Funktion und Qualität des Systems unter realen Bedingungen belegt.
|
Page generated in 0.0886 seconds