• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 39
  • 16
  • 13
  • 2
  • 1
  • Tagged with
  • 71
  • 48
  • 36
  • 31
  • 28
  • 28
  • 13
  • 11
  • 10
  • 10
  • 7
  • 7
  • 7
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Photogrammetric techniques for across-scale soil erosion assessment: Developing methods to integrate multi-temporal high resolution topography data at field plots

Eltner, Anette 01 June 2016 (has links)
Soil erosion is a complex geomorphological process with varying influences of different impacts at different spatio-temporal scales. To date, measurement of soil erosion is predominantly realisable at specific scales, thereby detecting separate processes, e.g. interrill erosion contrary to rill erosion. It is difficult to survey soil surface changes at larger areal coverage such as field scale with high spatial resolution. Either net changes at the system outlet or remaining traces after the erosional event are usually measured. Thus, either quasi-point measurements are extrapolated to the corresponding area without knowing the actual sediment source as well as sediment storage behaviour on the plot or erosion rates are estimated disrupting the area of investigation during the data acquisition impeding multi-temporal assessment. Furthermore, established methods of soil erosion detection and quantification are typically only reliable for large event magnitudes, very labour and time intense, or inflexible. To better observe soil erosion processes at field scale and under natural conditions, the development of a method is necessary, which identifies and quantifies sediment sources and sinks at the hillslope with high spatial resolution and captures single precipitation events as well as allows for longer observation periods. Therefore, an approach is introduced, which measures soil surface changes for multi-spatio-temporal scales without disturbing the area of interest. Recent advances regarding techniques to capture high resolution topography (HiRT) data led to several promising tools for soil erosion measurement with corresponding advantages but also disadvantages. The necessity exists to evaluate those methods because they have been rarely utilised in soil surface studies. On the one hand, there is terrestrial laser scanning (TLS), which comprises high error reliability and retrieves 3D information directly. And on the other hand, there is unmanned aerial vehicle (UAV) technology in combination with structure from motion (SfM) algorithms resulting in UAV photogrammetry, which is very flexible in the field and depicts a beneficial perspective. Evaluation of the TLS feasibility reveals that this method implies a systematic error that is distance-related and temporal constant for the investigated device and can be corrected transferring calibration values retrieved from an estimated lookup table. However, TLS still reaches its application limits quickly due to an unfavourable (almost horizontal) scanning view at the soil surface resulting in a fast decrease of point density and increase of noise with increasing distance from the device. UAV photogrammetry allows for a better perspective (birds-eye view) onto the area of interest, but possesses more complex error behaviour, especially in regard to the systematic error of a DEM dome, which depends on the method for 3D reconstruction from 2D images (i.e. options for additional implementation of observations) and on the image network configuration (i.e. parallel-axes and control point configuration). Therefore, a procedure is developed that enables flexible usage of different cameras and software tools without the need of additional information or specific camera orientations and yet avoiding this dome error. Furthermore, the accuracy potential of UAV photogrammetry describing rough soil surfaces is assessed because so far corresponding data is missing. Both HiRT methods are used for multi-temporal measurement of soil erosion processes resulting in surface changes of low magnitudes, i.e. rill and especially interrill erosion. Thus, a reference with high accuracy and stability is a requirement. A local reference system with sub-cm and at its best 1 mm accuracy is setup and confirmed by control surveys. TLS and UAV photogrammetry data registration with these targets ensures that errors due to referencing are of minimal impact. Analysis of the multi-temporal performance of both HiRT methods affirms TLS to be suitable for the detection of erosion forms of larger magnitudes because of a level of detection (LoD) of 1.5 cm. UAV photogrammetry enables the quantification of even lower magnitude changes (LoD of 1 cm) and a reliable observation of the change of surface roughness, which is important for runoff processes, at field plots due to high spatial resolution (1 cm²). Synergetic data fusion as a subsequent post-processing step is necessary to exploit the advantages of both HiRT methods and potentially further increase the LoD. The unprecedented high level of information entails the need for automatic geomorphic feature extraction due to the large amount of novel content. Therefore, a method is developed, which allows for accurate rill extraction and rill parameter calculation with high resolution enabling new perspectives onto rill erosion that has not been possible before due to labour and area access limits. Erosion volume and cross sections are calculated for each rill revealing a dominant rill deepening. Furthermore, rill shifting in dependence of the rill orientation towards the dominant wind direction is revealed. Two field plots are installed at erosion prone positions in the Mediterranean (1,000 m²) and in the European loess belt (600 m²) to ensure the detection of surface changes, permitting the evaluation of the feasibility, potential and limits of TLS and UAV photogrammetry in soil erosion studies. Observations are made regarding sediment connectivity at the hillslope scale. Both HiRT methods enable the identification of local sediment sources and sinks, but still exhibiting some degree of uncertainty due to the comparable high LoD in regard to laminar accumulation and interrill erosion processes. At both field sites wheel tracks and erosion rills increase hydrological and sedimentological connectivity. However, at the Mediterranean field plot especially dis-connectivity is obvious. At the European loess belt case study a triggering event could be captured, which led to high erosion rates due to high soil moisture contents and yet further erosion increase due to rill amplification after rill incision. Estimated soil erosion rates range between 2.6 tha-1 and 121.5 tha-1 for single precipitation events and illustrate a large variability due to very different site specifications, although both case studies are located in fragile landscapes. However, the susceptibility to soil erosion has different primary causes, i.e. torrential precipitation at the Mediterranean site and high soil erodibility at the European loess belt site. The future capability of the HiRT methods is their potential to be applicable at yet larger scales. Hence, investigations of the importance of gullys for sediment connectivity between hillslopes and channels are possible as well as the possible explanation of different erosion rates observed at hillslope and at catchment scales because local sediment sink and sources can be quantified. In addition, HiRT data can be a great tool for calibrating, validating and enhancing soil erosion models due to the unprecedented level of detail and the flexible multi-spatio-temporal application.
42

Geometrische und stochastische Modelle für die integrierte Auswertung terrestrischer Laserscannerdaten und photogrammetrischer Bilddaten: Geometrische und stochastische Modelle für die integrierte Auswertung terrestrischer Laserscannerdaten und photogrammetrischer Bilddaten

Schneider, Danilo 13 November 2008 (has links)
Terrestrische Laserscanner finden seit einigen Jahren immer stärkere Anwendung in der Praxis und ersetzen bzw. ergänzen bisherige Messverfahren, oder es werden neue Anwendungsgebiete erschlossen. Werden die Daten eines terrestrischen Laserscanners mit photogrammetrischen Bilddaten kombiniert, ergeben sich viel versprechende Möglichkeiten, weil die Eigenschaften beider Datentypen als weitestgehend komplementär angesehen werden können: Terrestrische Laserscanner erzeugen schnell und zuverlässig dreidimensionale Repräsentationen von Objektoberflächen von einem einzigen Aufnahmestandpunkt aus, während sich zweidimensionale photogrammetrische Bilddaten durch eine sehr gute visuelle Qualität mit hohem Interpretationsgehalt und hoher lateraler Genauigkeit auszeichnen. Infolgedessen existieren bereits zahlreiche Ansätze, sowohl software- als auch hardwareseitig, in denen diese Kombination realisiert wird. Allerdings haben die Bildinformationen bisher meist nur ergänzenden Charakter, beispielsweise bei der Kolorierung von Punktwolken oder der Texturierung von aus Laserscannerdaten erzeugten Oberflächenmodellen. Die konsequente Nutzung der komplementären Eigenschaften beider Sensortypen bietet jedoch ein weitaus größeres Potenzial. Aus diesem Grund wurde im Rahmen dieser Arbeit eine Berechnungsmethode – die integrierte Bündelblockausgleichung – entwickelt, bei dem die aus terrestrischen Laserscannerdaten und photogrammetrischen Bilddaten abgeleiteten Beobachtungen diskreter Objektpunkte gleichberechtigt Verwendung finden können. Diese Vorgehensweise hat mehrere Vorteile: durch die Nutzung der individuellen Eigenschaften beider Datentypen unterstützen sie sich gegenseitig bei der Bestimmung von 3D-Objektkoordinaten, wodurch eine höhere Genauigkeit erreicht werden kann. Alle am Ausgleichungsprozess beteiligten Daten werden optimal zueinander referenziert und die verwendeten Aufnahmegeräte können simultan kalibriert werden. Wegen des (sphärischen) Gesichtsfeldes der meisten terrestrischen Laserscanner von 360° in horizontaler und bis zu 180° in vertikaler Richtung bietet sich die Kombination mit Rotationszeilen-Panoramakameras oder Kameras mit Fisheye-Objektiv an, weil diese im Vergleich zu zentralperspektiven Kameras deutlich größere Winkelbereiche in einer Aufnahme abbilden können. Grundlage für die gemeinsame Auswertung terrestrischer Laserscanner- und photogrammetrischer Bilddaten ist die strenge geometrische Modellierung der Aufnahmegeräte. Deshalb wurde für terrestrische Laserscanner und verschiedene Kameratypen ein geometrisches Modell, bestehend aus einem Grundmodell und Zusatzparametern zur Kompensation von Restsystematiken, entwickelt und verifiziert. Insbesondere bei der Entwicklung des geometrischen Modells für Laserscanner wurden verschiedene in der Literatur beschriebene Ansätze berücksichtigt. Dabei wurde auch auf von Theodoliten und Tachymetern bekannte Korrekturmodelle zurückgegriffen. Besondere Bedeutung innerhalb der gemeinsamen Auswertung hat die Festlegung des stochastischen Modells. Weil verschiedene Typen von Beobachtungen mit unterschiedlichen zugrunde liegenden geometrischen Modellen und unterschiedlichen stochastischen Eigenschaften gemeinsam ausgeglichen werden, muss den Daten ein entsprechendes Gewicht zugeordnet werden. Bei ungünstiger Gewichtung der Beobachtungen können die Ausgleichungsergebnisse negativ beeinflusst werden. Deshalb wurde die integrierte Bündelblockausgleichung um das Verfahren der Varianzkomponentenschätzung erweitert, mit dem optimale Beobachtungsgewichte automatisch bestimmt werden können. Erst dadurch wird es möglich, das Potenzial der Kombination terrestrischer Laserscanner- und photogrammetrischer Bilddaten vollständig auszuschöpfen. Zur Berechnung der integrierten Bündelblockausgleichung wurde eine Software entwickelt, mit der vielfältige Varianten der algorithmischen Kombination der Datentypen realisiert werden können. Es wurden zahlreiche Laserscannerdaten, Panoramabilddaten, Fisheye-Bilddaten und zentralperspektive Bilddaten in mehreren Testumgebungen aufgenommen und unter Anwendung der entwickelten Software prozessiert. Dabei wurden verschiedene Berechnungsvarianten detailliert analysiert und damit die Vorteile und Einschränkungen der vorgestellten Methode demonstriert. Ein Anwendungsbeispiel aus dem Bereich der Geologie veranschaulicht das Potenzial des Algorithmus in der Praxis. / The use of terrestrial laser scanning has grown in popularity in recent years, and replaces and complements previous measuring methods, as well as opening new fields of application. If data from terrestrial laser scanners are combined with photogrammetric image data, this yields promising possibilities, as the properties of both types of data can be considered mainly complementary: terrestrial laser scanners produce fast and reliable three-dimensional representations of object surfaces from only one position, while two-dimensional photogrammetric image data are characterised by a high visual quality, ease of interpretation, and high lateral accuracy. Consequently there are numerous approaches existing, both hardware- and software-based, where this combination is realised. However, in most approaches, the image data are only used to add additional characteristics, such as colouring point clouds or texturing object surfaces generated from laser scanner data. A thorough exploitation of the complementary characteristics of both types of sensors provides much more potential. For this reason a calculation method – the integrated bundle adjustment – was developed within this thesis, where the observations of discrete object points derived from terrestrial laser scanner data and photogrammetric image data are utilised equally. This approach has several advantages: using the individual characteristics of both types of data they mutually strengthen each other in terms of 3D object coordinate determination, so that a higher accuracy can be achieved; all involved data sets are optimally co-registered; and each instrument is simultaneously calibrated. Due to the (spherical) field of view of most terrestrial laser scanners of 360° in the horizontal direction and up to 180° in the vertical direction, the integration with rotating line panoramic cameras or cameras with fisheye lenses is very appropriate, as they have a wider field of view compared to central perspective cameras. The basis for the combined processing of terrestrial laser scanner and photogrammetric image data is the strict geometric modelling of the recording instruments. Therefore geometric models, consisting of a basic model and additional parameters for the compensation of systematic errors, was developed and verified for terrestrial laser scanners and different types of cameras. Regarding the geometric laser scanner model, different approaches described in the literature were considered, as well as applying correction models known from theodolites and total stations. A particular consideration within the combined processing is the definition of the stochastic model. Since different types of observations with different underlying geometric models and different stochastic properties have to be adjusted simultaneously, adequate weights have to be assigned to the measurements. An unfavourable weighting can have a negative influence on the adjustment results. Therefore a variance component estimation procedure was implemented in the integrated bundle adjustment, which allows for an automatic determination of optimal observation weights. Hence, it becomes possible to exploit the potential of the combination of terrestrial laser scanner and photogrammetric image data completely. For the calculation of the integrated bundle adjustment, software was developed allowing various algorithmic configurations of the different data types to be applied. Numerous laser scanner, panoramic image, fisheye image and central perspective image data were recorded in different test fields and processed using the developed software. Several calculation alternatives were analysed, demonstrating the advantages and limitations of the presented method. An application example from the field of geology illustrates the potential of the algorithm in practice.
43

GeoRiS – Geotechnische Risikoanalyse steinschlaggefährdeter Felshänge unter Anwendung photogrammetrischer Messverfahren

Orlamünder, Marc, Ernst, Christian, Gauger, Steffen 16 July 2019 (has links)
Massenbewegungen, Ausgleichs- und Verwitterungsprozesse sind geologisch-geomorphologisch natürliche Vorgänge in Gebirgen. Die stark zunehmenden Extremwetterereignisse einhergehend mit immer dichterer Besiedelung der Gebirgs- und Hangregionen verursachen bei Felsstürzen beträchtliche Schäden an Gebäuden und Infrastruktur und gefährden Menschenleben. Ziel von GeoRiS ist das Monitoring dieser Prozesse und Standsicherheitsentwicklung steinschlaggefährdeter Felshänge mittels hochauflösender, photogrammetrischer Messverfahren. Die Risiken sollen künftig auf der Grundlage einer präzisen, umfassenden aber vor allem objektiven und standardisierbaren Standortbegutachtung prognostizierbar sein, um anschließende Sicherungsmaßnahmen gezielt an Gefährdungsschwerpunkten einzusetzen. In den letzten Jahren haben sich neue Messverfahren und -methoden etabliert, deren Anwendungen mittlerweile in vielen Bereichen Einzug gehalten haben. Eines der Verfahren ist z.B. der Einsatz von UAVs / Drohen mit verschiedenen Sensoren an Bord. Nachfolgend möchten wir die möglichen aktuellen Auswertemethoden in der der Felserfassung vorstellen, einen Überblick über erreichbare Ergebnisse und Genauigkeiten geben sowie die methodischen Ansätze für die künftige gutachterliche Praxis vorstellen. Das Forschungs-, Technologie- und Innovationsprojekt „GeoRiS“ wird durch den Freistaat Thüringen und die Europäische Union gefördert. Die Ausführung verantwortet das Ingenieurbüro für Geotechnik Prof. Witt & Partner in Kooperation mit der TRIGIS GeoServices GmbH.
44

Optimierung und Auswirkungen von ikonischen Bildfusionsverfahren zur Verbesserung von fernerkundlichen Auswerteverfahren

Klonus, Sascha 10 February 2012 (has links)
Die Verfügbarkeit von Fernerkundungsdaten ist in den letzten Jahren stark gestiegen. Spätestens seit der Entwicklung von Google Earth wächst auch das Interesse der Allgemeinheit an Fernerkundungsdaten. Aktuell ist eine Vielzahl von Satelliten- und flugzeuggestützten Fernerkundungssystemen operationell verfügbar. Neue Techniken in der Fernerkundung erbringen immer höhere räumliche und zeitliche Auflösungen. Daten, die von den verschiedenen Sensoren aufgenommen werden, unterscheiden sich daher in spektraler, räumlicher sowie temporaler Auflösung. Eines haben die meisten dieser Sensoren aber gemeinsam, nämlich, dass die höchste räumliche Auflösung nur im panchromatischen Modus erzeugt werden kann. Das Verhältnis zwischen der hoch aufgelösten panchromatischen und der niedrig auflösenden multispektralen Aufnahme eines Sensors liegt dabei zwischen 1:2 (SPOT 4) und 1:8 (DMC - Beijing-1). Diese werden in der Regel auf Bilddaten angewandt, die vom gleichen Sensor zur gleichen Zeit aufgenommen wurden (unisensorale, unitemporale Fusion). Einige Sensoren erzeugen allerdings nur panchromatische Bilder, andere, wie das neue deutsche System RapidEye, nur multispektrale Daten. Zur Erzeugung von hoch bzw. höchst aufgelösten multispektralen Bildern müssen hier sensorübergreifend Bilddaten fusioniert werden, die zu verschiedenen Zeitpunkten aufgenommen wurden (multisensorale, multitemporale Fusion). Benutzt man Daten von unterschiedlichen Sensoren, so kann das Verhältnis zwischen der hoch aufgelösten panchromatischen und der niedrig auflösenden multispektralen Aufnahme sogar 1:30 (Ikonos-Panchromatisch : Landsat-Multispektral) oder höher betragen. Neben dem Verhältnis der panchromatischen Komponente zu der multispektralen Komponente ist die Veränderung der spektralen Werte bei der Fusion aber noch entscheidender. Die Mehrzahl der entwickelten Fusionsverfahren weist dabei Farbveränderungen auf. Zudem beeinflussen diese Farbveränderungen auch anschließende Analysen. Das allgemeine Ziel der Daten- bzw. auch der Bildfusion ist: verschiedene Daten zusammenzuführen und mehr Informationen aus diesen Daten zu erhalten als aus jedem der einzelnen Sensoren allein (1+1=3). Die Fragestellung, die auch dieser Arbeit zugrunde liegt, lautet: Kann man mehr Informationen aus den fusionierten Datensätzen extrahieren als aus den einzelnen Datensätzen allein? Und wenn ja, wie viel mehr Informationen können extrahiert werden? Das erste Ziel dieser Arbeit ist ein Verfahren zu finden, welches die zu untersuchenden Merkmale so verbessert, dass der Informationsgehalt maximiert wird und damit höher ist als in den einzelnen originalen Datensätzen. In Bezug auf die Fusion von hochaufgelösten panchromatischen mit niedriger aufgelösten multispektralen Daten bedeutet dies, dass die fusionierten Daten die gleich hohe Auflösung der panchromatischen Daten besitzen, ohne dass Farbveränderungen auftreten. Diese fusionierten Daten sollten sich nicht von einem Bild unterscheiden, das mit einem multispektralen Sensor in der räumlichen Auflösung der panchromatischen Eingangsdaten aufgenommen wurde. Um dieses Ziel zu erreichen, wurde die Fusion auf der Pixelebene ausgewählt, da diese für die Fernerkundung von höchster Relevanz ist, weil die ikonischen Bildfusionsverfahren am weitesten entwickelt sind und die Eingangsdaten am wenigsten vor der Anwendung der Fusionsmethode verändert werden. Da es eine große Anzahl an Verfahren im Bereich der Bildfusion gibt, wurde zunächst auf Basis einer Literaturrecherche eine Auswahl von Verfahren getroffen. Zur Beurteilung dieser Verfahren ist es notwendig, quantitativ-statistische Verfahren auszuwählen, da eine rein visuelle Auswertung, zu subjektiv ist. Um das zweite Ziel dieser Arbeit zu erreichen wurde eine Literaturrecherche durchgeführt. Die ausgewählten Evaluierungsverfahren sollten soweit wie möglich automatisch ablaufen und nur wenig manuellen Input benötigen. Das sichert eine erhöhte Objektivität. Das Endergebnis sollte ein Wert für jeden Kanal oder das Bild sein, so dass eindeutige Rückschlüsse auf die Qualität des Bildes möglich sind. Bei der Auswahl dieser Verfahren ist darauf zu achten, dass sowohl Evaluierungsverfahren ausgewählt werden, welche die spektrale Veränderung messen, aber auch solche, welche die räumliche Verbesserung messen. Die Evaluierungsverfahren wurden für 7 Kategorien ausgewählt. Für die Kategorie 1 wird der ERGAS eingesetzt. In der zweiten Kategorie sollen die Bilddifferenzen berechnet werden. Da die einfache Differenz zweier Bilder große Datenmengen produziert und nicht ein einzelner Wert verfügbar ist, wird die Grauwertabweichung pro Pixel als Kriterium ausgewählt. Mit der dritten Kategorie sollen Ähnlichkeiten im Bildaufbau gemessen werden. Dazu eignet sich am besten der Korrelationskoeffizient. In der vierten Kategorie werden die Ähnlichkeiten der räumlichen Details gemessen. Da es hier wieder um Ähnlichkeiten geht, bietet es sich erneut an, den Korrelationskoeffizienten auch hier einzusetzen. Diesmal allerdings die Korrelation nach Hochpassfilterung zwischen den panchromatischen Eingangsdaten und den fusionierten Bildern. Kategorie 5 betrifft die Qualität der lokalen räumlichen Verbesserungen. Dazu wird die Kantendetektion mit dem Canny Kantenoperator für diese Arbeit ausgewählt. Bei der sechsten Kategorie geht es um die Messung von Unstimmigkeiten in den Spektren. Der SAM wurde daher ausgewählt. Die siebte Kategorie beschreibt die globalen Unterschiede in den Bildern. Dazu wird der SSIM verwendet. Nachdem die Evaluierungsverfahren in den sieben Kategorien ausgewählt wurden, zeigte die Anwendung dieser Evaluierungsmethoden, dass die Ehlers Fusion das beste Fusionsverfahren ist. Die uantitativstatistischen Untersuchungen präsentierten die besten Ergebnisse für die Ehlers Fusion. Die Werte zur spektralen Untersuchung unterschieden sich nur im geringem Maße von den orginalen Werten. Aus diesem Grund wurde die Ehlers Fusion für weitere Untersuchungen in dieser Arbeit ausgewählt und optimiert. Um den Mehrwert von fusionierten Daten zu ermitteln, wurde die Interpretation der fusionierten Fernerkundungsdaten durchgeführt. Bei der unisensoralen Bildfusion hat sich gezeigt, dass die Mehrzahl der Verfahren eine Verbesserung bei der Interpretation der Daten erreicht. Objekte können genauer erkannt werden und auch die Farben bleiben erhalten. Bei den multitemporalen Datensätzen und insbesondere bei der Fusion von Radardaten erreicht dieses Ziel nur ein einziges Verfahren: die Ehlers Fusion. Die Interpretation der Daten wird auch bei den multitemporalen Daten erleichtert. Es werden nicht nur die Kanten von Objekten geschärft, wie beim Brovey Verfahren, sondern auch die spektralen Werte bleiben erhalten. Die Werterhaltung ist besonders wichtig, da durch Veränderung der Farbwerte die genaue Feldfrucht nicht mehr bestimmt werden kann und eine Interpretation dadurch erschwert bzw. unmöglich wird. Bei der CAPI (Computer Assisted Photo Interpretation) konnten durch die Ehlers Fusion vor allem zwei Faktoren der Interpretation deutlich verbessert werden: Zum einen gab es eine schärfere Abgrenzung der Flächengrenzen von unterschiedlich genutzten landwirtschaftlichen Flächen im Vergleich mit den originalen spektralen Daten und zum anderen können Pflanzen, z.B. Weinberge, die nur einen Teil des Bodens bedecken, besser erkannt werden. Bei der unitemporalen Klassifikation stellte sich heraus, dass die fusionierten Daten eine höhere Genauigkeit haben, wenn für die Klassifikation nur die multispektralen Daten verwendet werden. Werden zusätzlich noch die panchromatischen Daten als weiterer Kanal für die Klassifikation herangezogen, so ist die Genauigkeit gleich. Bei der multitemporalen Klassifikation zeigte sich dagegen, dass fusionierte Daten genauer klassifiziert werden können als die Daten mit einem zusätzlichen panchromatischen Kanal. Da bei der Klassifikation mit einem panchromatischen Kanal, der Aufnahmetermin nicht mit den multispektralen Daten übereinstimmt. Bei der Klassifikation mit fusionierten Radardaten zeigte sich, dass die fusionierten Daten eine detailliertere und damit verbesserte Klassifikation erzeugen. Fusionierte Daten können also dabei helfen, mehr Informationen aus den Eingangsdaten zu extrahieren als aus jeden der einzelnen Datensätze. Diese Arbeit hat gezeigt, dass die Genauigkeiten der Klassifikation sich erhöhen kann, wenn die Daten vorher fusioniert werden. Auch die Interpretation kann deutlich dadurch erleichtert werden, dass nicht der panchromatische Kanal und die multispektralen Kanäle getrennt voneinander betrachtet werden müssen. Man kann sich auf ein fusioniertes Bild konzentrieren und seine Interpretation durchführen.
45

Versuchsgrenzlastindikatoren bei Belastungsversuchen II: Forschungsinitiative Zukunft Bau

Marx, Steffen, Schacht, Gregor, Maas, Hans-Gerd, Liebold, Frank, Bolle, Guido January 2013 (has links)
Ziel des Folgeantrages war die Entwicklung der photogrammetrischen Messtechnik zur onlinefähigen Anwendung bei In-situ-Belastungsversuchen. Dies wurde mit den in Kapitel 3 beschriebenen Ansätzen erfolgreich umgesetzt. Die gewählte künstliche Texturierung der Bauteiloberflächen stellte sich als sehr geeignet heraus, um bereits kleinste Strukturveränderungen beobachten und visualisieren zu können. Durch die Verwendung einer Industriekamera konnte die onlinefähige Bildanalyse und simultane Darstellung der Ergebnisse auf dem Bildschirm umgesetzt werden. Durch die Verwendung von Dreiecken und der Ermittlung der Hauptverzerrung jedes dieser Dreiecke wurden Bereiche hoher lokaler Dehnungen (Rissentwicklung) frühzeitig detektiert. Diese frühe und automatisierte Erkennung der Rissentwicklung ermöglicht und verbessert die Beurteilung des Tragzustandes des zu untersuchenden Bauteils erheblich. Für die Beurteilung des Tragverhaltens von Stahlbetonbauteilen ohne oder mit zu geringer Bügelbewehrung wurden neben der Photogrammetrie die Schallemissionsanalyse, herkömmliche Verformungsmesstechniken und abschnittsweise Verformungsmessungen mit Neigungssensoren durchgeführt. Es zeigte sich, dass gerade die Kombination dieser Messverfahren zu einer erheblichen Verbesserung der Information über den Tragzustand des untersuchten Bauteils führte.
46

Entwicklung und Validierung eines Gesamtsystems zur Verkehrserfassung basierend auf Luftbildsequenzen

Kozempel, Karsten 22 March 2012 (has links)
Diese Dissertation soll einen Beitrag zur Weiterentwicklung der luftgestützten Verkehrslageerfassung leisten. Als Plattform dafür dient ein flugzeuggetragenes Kamerasystem, welches mit einem Inertialsystem gekoppelt ist. Vorgestellt werden hauptsächlich bildverarbeitende Algorithmen, welche an die Bildaufnahme anschließend bis hin zur Ermittlung der verkehrstechnischen Kenngrößen zum Einsatz kommen. Nach kurzer Skizzierung der verwendeten Hardware wird die Kalibrierung der Kameraeinbauwinkel durch Testflüge erläutert und auf ihre Genauigkeit hin untersucht. Es wird gezeigt, dass die Orientierungsdaten nicht die vom Hersteller angegebene Genauigkeit erreichen, was jedoch für die Verkehrslageerfassung nur von geringer Bedeutung ist. Anschließend an die Bildaufbereitung, welche die Orthobildgenerierung sowie die Eingrenzung der verkehrsaktiven Flächen beinhaltet, wird zur Ermittlung der Fahrzeugdichte ein zweistufiger Fahrzeugerkennungsalgorithmus entwickelt, welcher zunächst auf Kantenfilterbasis möglichst schnell Hypothesen erstellt. Diese werden in einer zweiten Phase durch eine Support Vector Machine überprüft, wobei ein Großteil der Fehlhypothesen verworfen wird. Die Erkennung erreicht bei guten Voraussetzungen Vollständigkeiten bis zu 90 Prozent bei sehr geringem Anteil von Fehldetektionen. Anschließend wird ein auf Singulärwertzerlegung basierender Tracking-Algorithmus verwendet, um Fahrzeughypothesen in benachbarten Bildern zu assoziieren und die mittleren Geschwindigkeiten zu ermitteln. Die erhaltenen Geschwindigkeiten unterscheiden sich um weniger als zehn km/h von den manuell erhobenen. Abschließend wird eine alternative Orientierungsmethode vorgestellt, welche auf Basis von GPS-Positionen und Bildinformationen automatisch die Fluglage ermittelt. Dies geschieht durch die Extraktion und das Matching von Straßensegmenten sowie zusätzliche Passpunktverfolgung. Die Ergebnisse weisen Genauigkeiten von etwa 0,1 bis 0,2 Grad auf. / This dissertation should make a contribution to the further development of airborne traffic detection. The used hardware is an airborne camera system combined with an inertial measurement unit for orientation determination. Mainly computer vision algorithms are presented, which are applied afterwards the image acquisition up to the determination of the most important traffic data. After a short presentation of the used hardware the calibration of the camera''s alignment angles during test flights is explained and its accuracy is analyzed. It is shown that the orientation data doesn''t reach the specified accuracy, which is fortunately less important for traffic detection. After the image preparation, which contains the ortho image generation as well as the clipping of traffic areas, a two-stage vehicle detection algorithm is implemented, which at first rapidly creates hypotheses based on edge filters. In the second stage those hypotheses are verified by a Support Vector Machine which rejects most of the False Posititves. At good conditions the detection reaches completeness rates of up to 90 percent with a low contingent of FP detections. Subsequently a tracking algorithm based on singular value decomposition is applied to associate vehicle hypotheses in adjacent images and determine the average speed. The achieved velocities differ less than ten kph from the manually obtained data. Concluding an orientation method is presented, that automatically determines the airplane''s attitude based on GPS and image information. This is realized by extraction and matching of street segments and additional tracking of ground control points. The results have accuracies of around 0.1 to 0.2 degrees.
47

Optical orientation determination for airborne and spaceborne line cameras

Wohlfeil, Jürgen 16 January 2012 (has links)
Flugzeug- und satellitengestützte Zeilenkameras ermöglichen eine sehr ökonomische Aufnahme von hoch aufgelösten Luftbildern mit großer Schwadbreite. Eine ungleichförmige Bewegung der Kamera kann sich auf die Bildqualität auswirken. Deswegen ist es unerlässlich, schnelle Orientierungsänderungen der Kamera mit angemessener Genauigkeit und Messrate zu erfassen. Deshalb ist es unerlässlich, die Orientierung der Kamera genau zu messen, um sicher zu stellen, dass die resultierenden Bilder in einem Nachbearbeitungsschritt geometrisch korrigiert werden können. Angemessene High-End-Navigationssysteme sind groß und teuer und ihre Genauigkeit und Messrate dennoch für viele denkbare Anwendungen unzureichend. Aus diesen Gründen besteht ein großes Interesse an Methoden zur Unterstützung der Orientierungsmessung durch die Nutzung optischer Informationen vom Hauptobjektiv bzw. Teleskop. In dieser Arbeit werden zwei unterschiedliche Verfahren vorgestellt, die es erlauben, schnelle Orientierungsänderungen der Kamera auf optischem Wege zu ermitteln. Ersteres basiert auf zusätzlichen Bildsensoren mit kleiner Fläche. Der optische Fluss auf diesen Bildsensoren wird ermittelt und zur Bestimmung von Orientierungsänderungen beliebiger Fernerkundungssysteme verwendet. Das zweite Verfahren beruht ausschließlich auf den Inhalten der Zeilenbilder und der gemessenen Kameratrajektorie. Hierfür macht sich das Verfahren die typische Geometrie multispektraler Zeilenkameras zu Nutze. Zunächst werden homologe Punkte in den möglicherweise stark verzerrten Zeilenbildern unterschiedlicher Spektralbänder extrahiert. Diese Punkte werden dann dazu benutzt, die Orientierungsänderungen der Kamera zu ermitteln. Schließlich wird gezeigt, dass es möglich ist, die absolute Orientierung einer luftgestützten Zeilenkamera anhand der optisch ermittelten Orientierungsänderungen hochgenau zu ermitteln. / Airborne and spaceborne line cameras allow a very economic acquisition of high resolution and wide swath images of the Earth. They generate two-dimensional images while rotating or translating, which causes a non-rigid image geometry. Nonuniform motion of the camera can negatively affect the image quality. Due to this, a key requirement for line cameras is that fast orientation changes have to be measured with a very high rate and precision. Therefore, it is essential to measure the camera’s orientation accurately to ensure that the resulting imagery products can be geometrically corrected in a later processing step. Adequate high-end measurement systems are large and expensive and their angular and temporal resolution can be still too low for many possible applications. Due to these reasons there is great interest in approaches to support the orientation measurement by using optical information received through the main optics or telescope. In this thesis two different approaches are presented that allow the determination of a line camera’s orientation changes optically. One approach to determine fast orientation changes is based on small auxiliary frame image sensors. The optical flow on these sensors is determined and used to derive orientation changes of any remote sensing system. The second approach does not require any additional sensors to determine orientation changes. It relies only on the images of a line camera and a rough estimate of its trajectory by taking advantage of the typical geometry of multi-spectral line cameras. In a first step homologous points are detected within the distorted images of different spectral bands. These points are used to calculate the orientation changes of the camera with a high temporal and angular resolution via bundle adjustment. Finally it is shown how the absolute exterior orientation of an airborne line camera can completely be derived from the optically determined orientation changes.
48

Reconstruction 3D pour la volcanologie: apports d'une méthode multi-vues par photogrammétrie numérique

cecchi, emmanuelle 12 December 2003 (has links) (PDF)
La reconstruction 3D est un outil primordial en volcanologie : études morpho-structurales, déformation du sol, modélisation analogique. Une approche originale de reconstruction 3D spécifique aux applications volcanologiques a été développée. Basée sur l'utilisation de plusieurs images numériques acquises autour d'une surface, elle se décompose en deux étapes : (1) un calibrage précis du capteur optique (2) une reconstruction 3D reposant sur la déformation itérative d'un modèle 3D initial. La méthode a été développée et testée en laboratoire sur divers modèles analogiques. Les résultats montrent qu'elle constitue un outil de quantification souple et puissant permettant de détecter des variations fines de la morphologie. Des tests sur site réel ont aussi montré le potentiel important de la méthode dans le cadre de la surveillance volcanologique. L'approche, à la frontière entre Volcanologie et Vision par Ordinateur, offre une alternative aux méthodes classiquement utilisées.
49

Waldmonitoring unter besonderer Berücksichtigung der aus Stereoluftbildern abgeleiteten 3. Dimension

Sysavath, Vithoone 13 July 2009 (has links) (PDF)
Results of the investigation has been presented to derive digital elevation models of forest areas for the determination of the parallax measuring accuracy from AATE (Adaptive Automatic Terrian Extraction) with the PCI software Geomatica. It has been used the informations from the threefold overlaps of aerial stereoscopic pairs. The parallax measuring errors on forest areas are three times larger than on the arable and pasturelands. It has been shown that the third dimension can be used for the derivative of crown of tree profiles and their roughness and the rates of timber growth can be derived with sufficiently high accuracy from the repeatability flying.
50

Untersuchungen über die Erfassung von Waldflächen und deren Veränderungen mit Hilfe der Satellitenfernerkundung und segmentbasierter Klassifikation / Am Beispiel des Untersuchungsgebietes / Studies on the mapping of forest area and their changes using satellite remote sensing and segment based classification / An example of the study area

Cho, Hyun-Kook 05 July 2002 (has links)
No description available.

Page generated in 0.2047 seconds