Spelling suggestions: "subject:"laserskanning.""
21 |
Road Condition Mapping by Integration of Laser Scanning, RGB Imaging and SpectrometryMiraliakbari, Alvand 16 August 2017 (has links)
Roads are important infrastructure and are primary means of transportation. Control and maintenance of roads are substantial as the pavement surface deforms and deteriorates due to heavy load and influences of weather. Acquiring detailed information about the pavement condition is a prerequisite for proper planning of road pavement maintenance and rehabilitation. Many companies detect and localize the road pavement distresses manually, either by on-site inspection or by digitizing laser data and imagery captured by mobile mapping. The automation of road condition mapping using laser data and colour images is a challenge. Beyond that, the mapping of material properties of the road pavement surface with spectrometers has not yet been investigated.
This study aims at automatic mapping of road surface condition including distress and material properties by integrating laser scanning, RGB imaging and spectrometry. All recorded data are geo-referenced by means of GNSS/ INS. Methods are developed for pavement distress detection that cope with a variety of different weather and asphalt conditions. Further objective is to analyse and map the material properties of the pavement surface using spectrometry data.
No standard test data sets are available for benchmarking developments on road condition mapping. Therefore, all data have been recorded with a mobile mapping van which is set up for the purpose of this research. The concept for detecting and localizing the four main pavement distresses, i.e. ruts, potholes, cracks and patches is the following: ruts and potholes are detected using laser scanning data, cracks and patches using RGB images. For each of these pavement distresses, two or more methods are developed, implemented, compared to each other and evaluated to identify the most successful method. With respect to the material characteristics, spectrometer data of road sections are classified to indicate pavement quality. As a spectrometer registers almost a reflectivity curve in VIS, NIR and SWIR wavelength, indication of aging can be derived. After detection and localization of the pavement distresses and pavement quality classes, the road condition map is generated by overlaying all distresses and quality classes.
As a preparatory step for rut and pothole detection, the road surface is extracted from mobile laser scanning data based on a height jump criterion. For the investigation on rut detection, all scanlines are processed. With an approach based on iterative 1D polynomial fitting, ruts are successfully detected. For streets with the width of 6 m to 10 m, a 6th order polynomial is found to be most suitable. By 1D cross-correlation, the centre of the rut is localized. An alternative method using local curvature shows a high sensitivity to the shape and width of a rut and is less successful. For pothole detection, the approach based on polynomial fitting generalized to two dimensions. As an alternative, a procedure using geodesic morphological reconstruction is investigated. Bivariate polynomial fitting encounters problems with overshoot at the boundary of the regions. The detection is very successful using geodesic morphology. For the detection of pavement cracks, three methods using rotation invariant kernels are investigated. Line Filter, High-pass Filter and Modified Local Binary Pattern kernels are implemented. A conceptual aspect of the procedure is to achieve a high degree of completeness. The most successful variant is the Line Filter for which the highest degree of completeness of 81.2 % is achieved. Two texture measures, the gradient magnitude and the local standard deviation are employed to detect pavement patches. As patches may differ with respect to homogeneity and may not always have a dark border with the intact pavement surface, the method using the local standard deviation is more suitable for detecting the patches. Linear discriminant analysis is utilized for asphalt pavement quality analysis and classification. Road pavement sections of ca. 4 m length are classified into two classes, namely: “Good” and “Bad” with the overall accuracy of 77.6 %.
The experimental investigations show that the developed methods for automatic distress detection are very successful. By 1D polynomial fitting on laser scanlines, ruts are detected. In addition to ruts also pavement depressions like shoving can be revealed. The extraction of potholes is less demanding. As potholes appear relatively rare in the road networks of a city, the road segments which are affected by potholes are selected interactively. While crack detection by Line Filter works very well, the patch detection is more challenging as patches sometimes look very similar to the intact surface. The spectral classification of pavement sections contributes to road condition mapping as it gives hints on aging of the road pavement. / Straßen bilden die primären Transportwege für Personen und Güter und sind damit ein wichtiger Bestandteil der Infrastruktur. Der Aufwand für Instandhaltung und Wartung der Straßen ist erheblich, da sich die Fahrbahnoberfläche verformt und durch starke Belastung und Wettereinflüsse verschlechtert. Die Erfassung detaillierter Informationen über den Fahrbahnzustand ist Voraussetzung für eine sachgemäße Planung der Fahrbahnsanierung und -rehabilitation. Viele Unternehmen detektieren und lokalisieren die Fahrbahnschäden manuell entweder durch Vor-Ort-Inspektion oder durch Digitalisierung von Laserdaten und Bildern aus mobiler Datenerfassung. Eine Automatisierung der Straßenkartierung mit Laserdaten und Farbbildern steht noch in den Anfängen. Zudem werden bisher noch nicht die Alterungszustände der Asphaltdecke mit Hilfe der Spektrometrie bewertet.
Diese Studie zielt auf den automatischen Prozess der Straßenzustandskartierung einschließlich der Straßenschäden und der Materialeigenschaften durch Integration von Laserscanning, RGB-Bilderfassung und Spektrometrie ab. Alle aufgezeichneten Daten werden mit GNSS / INS georeferenziert. Es werden Methoden für die Erkennung von Straßenschäden entwickelt, die sich an unterschiedliche Datenquellen bei unterschiedlichem Wetter- und Asphaltzustand anpassen können. Ein weiteres Ziel ist es, die Materialeigenschaften der Fahrbahnoberfläche mittels Spektrometrie-Daten zu analysieren und abzubilden.
Derzeit gibt es keine standardisierten Testdatensätze für die Evaluierung von Verfahren zur Straßenzustandsbeschreibung. Deswegen wurden alle Daten, die in dieser Studie Verwendung finden, mit einem eigens für diesen Forschungszweck konfigurierten Messfahrzeug aufgezeichnet. Das Konzept für die Detektion und Lokalisierung der wichtigsten vier Arten von Straßenschäden, nämlich Spurrillen, Schlaglöcher, Risse und Flickstellen ist das folgende: Spurrillen und Schlaglöcher werden aus Laserdaten extrahiert, Risse und Flickstellen aus RGB- Bildern. Für jede dieser Straßenschäden werden mindestens zwei Methoden entwickelt, implementiert, miteinander verglichen und evaluiert um festzustellen, welche Methode die erfolgreichste ist. Im Hinblick auf die Materialeigenschaften werden Spektrometriedaten der Straßenabschnitte klassifiziert, um die Qualität des Straßenbelages zu bewerten. Da ein Spektrometer nahezu eine kontinuierliche Reflektivitätskurve im VIS-, NIR- und SWIR-Wellenlängenbereich aufzeichnet, können Merkmale der Asphaltalterung abgeleitet werden. Nach der Detektion und Lokalisierung der Straßenschäden und der Qualitätsklasse des Straßenbelages wird der übergreifende Straßenzustand mit Hilfe von Durchschlagsregeln als Kombination aller Zustandswerte und Qualitätsklassen ermittelt.
In einem vorbereitenden Schritt für die Spurrillen- und Schlaglocherkennung wird die Straßenoberfläche aus mobilen Laserscanning-Daten basierend auf einem Höhensprung-Kriterium extrahiert. Für die Untersuchung zur Spurrillen-Erkennung werden alle Scanlinien verarbeitet. Mit einem Ansatz, der auf iterativer 1D-Polynomanpassung basiert, werden Spurrillen erfolgreich erkannt. Für eine Straßenbreite von 8-10m erweist sich ein Polynom sechsten Grades als am besten geeignet. Durch 1D-Kreuzkorrelation wird die Mitte der Spurrille erkannt. Eine alternative Methode, die die lokale Krümmung des Querprofils benutzt, erweist sich als empfindlich gegenüber Form und Breite einer Spurrille und ist weniger erfolgreich. Zur Schlaglocherkennung wird der Ansatz, der auf Polynomanpassung basiert, auf zwei Dimensionen verallgemeinert. Als Alternative wird eine Methode untersucht, die auf der Geodätischen Morphologischen Rekonstruktion beruht. Bivariate Polynomanpassung führt zu Überschwingen an den Rändern der Regionen. Die Detektion mit Hilfe der Geodätischen Morphologischen Rekonstruktion ist dagegen sehr erfolgreich. Zur Risserkennung werden drei Methoden untersucht, die rotationsinvariante Kerne verwenden. Linienfilter, Hochpassfilter und Lokale Binäre Muster werden implementiert. Ein Ziel des Konzeptes zur Risserkennung ist es, eine hohe Vollständigkeit zu erreichen. Die erfolgreichste Variante ist das Linienfilter, für das mit 81,2 % der höchste Grad an Vollständigkeit erzielt werden konnte. Zwei Texturmaße, nämlich der Betrag des Grauwert-Gradienten und die lokale Standardabweichung werden verwendet, um Flickstellen zu entdecken. Da Flickstellen hinsichtlich der Homogenität variieren können und nicht immer eine dunkle Grenze mit dem intakten Straßenbelag aufweisen, ist diejenige Methode, welche die lokale Standardabweichung benutzt, besser zur Erkennung von Flickstellen geeignet. Lineare Diskriminanzanalyse wird zur Analyse der Asphaltqualität und zur Klassifikation benutzt. Straßenabschnitte von ca. 4m Länge werden zwei Klassen („Gut“ und „Schlecht“) mit einer gesamten Accuracy von 77,6 % zugeordnet.
Die experimentellen Untersuchungen zeigen, dass die entwickelten Methoden für die automatische Entdeckung von Straßenschäden sehr erfolgreich sind. Durch 1D Polynomanpassung an Laser-Scanlinien werden Spurrillen entdeckt. Zusätzlich zu Spurrillen werden auch Unebenheiten des Straßenbelages wie Aufschiebungen detektiert. Die Extraktion von Schlaglöchern ist weniger anspruchsvoll. Da Schlaglöcher relativ selten in den Straßennetzen von Städten auftreten, werden die Straßenabschnitte mit Schlaglöchern interaktiv ausgewählt. Während die Rissdetektion mit Linienfiltern sehr gut funktioniert, ist die Erkennung von Flickstellen eine größere Herausforderung, da Flickstellen manchmal der intakten Straßenoberfläche sehr ähnlich sehen. Die spektrale Klassifizierung der Straßenabschnitte trägt zur Straßenzustandsbewertung bei, indem sie Hinweise auf den Alterungszustand des Straßenbelages liefert.
|
22 |
Geometrische und stochastische Modelle für die integrierte Auswertung terrestrischer Laserscannerdaten und photogrammetrischer Bilddaten: Geometrische und stochastische Modelle für die integrierte Auswertung terrestrischer Laserscannerdaten und photogrammetrischer BilddatenSchneider, Danilo 13 November 2008 (has links)
Terrestrische Laserscanner finden seit einigen Jahren immer stärkere Anwendung in der Praxis und ersetzen
bzw. ergänzen bisherige Messverfahren, oder es werden neue Anwendungsgebiete erschlossen. Werden
die Daten eines terrestrischen Laserscanners mit photogrammetrischen Bilddaten kombiniert, ergeben sich
viel versprechende Möglichkeiten, weil die Eigenschaften beider Datentypen als weitestgehend komplementär
angesehen werden können: Terrestrische Laserscanner erzeugen schnell und zuverlässig dreidimensionale Repräsentationen
von Objektoberflächen von einem einzigen Aufnahmestandpunkt aus, während sich zweidimensionale
photogrammetrische Bilddaten durch eine sehr gute visuelle Qualität mit hohem Interpretationsgehalt
und hoher lateraler Genauigkeit auszeichnen. Infolgedessen existieren bereits zahlreiche Ansätze, sowohl
software- als auch hardwareseitig, in denen diese Kombination realisiert wird. Allerdings haben die
Bildinformationen bisher meist nur ergänzenden Charakter, beispielsweise bei der Kolorierung von Punktwolken
oder der Texturierung von aus Laserscannerdaten erzeugten Oberflächenmodellen. Die konsequente Nutzung
der komplementären Eigenschaften beider Sensortypen bietet jedoch ein weitaus größeres Potenzial.
Aus diesem Grund wurde im Rahmen dieser Arbeit eine Berechnungsmethode – die integrierte Bündelblockausgleichung
– entwickelt, bei dem die aus terrestrischen Laserscannerdaten und photogrammetrischen
Bilddaten abgeleiteten Beobachtungen diskreter Objektpunkte gleichberechtigt Verwendung finden können.
Diese Vorgehensweise hat mehrere Vorteile: durch die Nutzung der individuellen Eigenschaften beider Datentypen
unterstützen sie sich gegenseitig bei der Bestimmung von 3D-Objektkoordinaten, wodurch eine höhere
Genauigkeit erreicht werden kann. Alle am Ausgleichungsprozess beteiligten Daten werden optimal zueinander
referenziert und die verwendeten Aufnahmegeräte können simultan kalibriert werden.
Wegen des (sphärischen) Gesichtsfeldes der meisten terrestrischen Laserscanner von 360° in horizontaler
und bis zu 180° in vertikaler Richtung bietet sich die Kombination mit Rotationszeilen-Panoramakameras
oder Kameras mit Fisheye-Objektiv an, weil diese im Vergleich zu zentralperspektiven Kameras deutlich größere
Winkelbereiche in einer Aufnahme abbilden können. Grundlage für die gemeinsame Auswertung terrestrischer
Laserscanner- und photogrammetrischer Bilddaten ist die strenge geometrische Modellierung der Aufnahmegeräte.
Deshalb wurde für terrestrische Laserscanner und verschiedene Kameratypen ein geometrisches
Modell, bestehend aus einem Grundmodell und Zusatzparametern zur Kompensation von Restsystematiken,
entwickelt und verifiziert. Insbesondere bei der Entwicklung des geometrischen Modells für Laserscanner
wurden verschiedene in der Literatur beschriebene Ansätze berücksichtigt. Dabei wurde auch auf von Theodoliten
und Tachymetern bekannte Korrekturmodelle zurückgegriffen.
Besondere Bedeutung innerhalb der gemeinsamen Auswertung hat die Festlegung des stochastischen Modells.
Weil verschiedene Typen von Beobachtungen mit unterschiedlichen zugrunde liegenden geometrischen
Modellen und unterschiedlichen stochastischen Eigenschaften gemeinsam ausgeglichen werden, muss den
Daten ein entsprechendes Gewicht zugeordnet werden. Bei ungünstiger Gewichtung der Beobachtungen können
die Ausgleichungsergebnisse negativ beeinflusst werden. Deshalb wurde die integrierte Bündelblockausgleichung
um das Verfahren der Varianzkomponentenschätzung erweitert, mit dem optimale Beobachtungsgewichte
automatisch bestimmt werden können. Erst dadurch wird es möglich, das Potenzial der Kombination
terrestrischer Laserscanner- und photogrammetrischer Bilddaten vollständig auszuschöpfen.
Zur Berechnung der integrierten Bündelblockausgleichung wurde eine Software entwickelt, mit der vielfältige
Varianten der algorithmischen Kombination der Datentypen realisiert werden können. Es wurden zahlreiche
Laserscannerdaten, Panoramabilddaten, Fisheye-Bilddaten und zentralperspektive Bilddaten in mehreren
Testumgebungen aufgenommen und unter Anwendung der entwickelten Software prozessiert. Dabei wurden
verschiedene Berechnungsvarianten detailliert analysiert und damit die Vorteile und Einschränkungen der
vorgestellten Methode demonstriert. Ein Anwendungsbeispiel aus dem Bereich der Geologie veranschaulicht
das Potenzial des Algorithmus in der Praxis. / The use of terrestrial laser scanning has grown in popularity in recent years, and replaces and complements
previous measuring methods, as well as opening new fields of application. If data from terrestrial laser
scanners are combined with photogrammetric image data, this yields promising possibilities, as the properties
of both types of data can be considered mainly complementary: terrestrial laser scanners produce fast and reliable
three-dimensional representations of object surfaces from only one position, while two-dimensional
photogrammetric image data are characterised by a high visual quality, ease of interpretation, and high lateral
accuracy. Consequently there are numerous approaches existing, both hardware- and software-based, where
this combination is realised. However, in most approaches, the image data are only used to add additional
characteristics, such as colouring point clouds or texturing object surfaces generated from laser scanner data.
A thorough exploitation of the complementary characteristics of both types of sensors provides much more
potential.
For this reason a calculation method – the integrated bundle adjustment – was developed within this thesis,
where the observations of discrete object points derived from terrestrial laser scanner data and photogrammetric
image data are utilised equally. This approach has several advantages: using the individual characteristics
of both types of data they mutually strengthen each other in terms of 3D object coordinate determination,
so that a higher accuracy can be achieved; all involved data sets are optimally co-registered; and
each instrument is simultaneously calibrated.
Due to the (spherical) field of view of most terrestrial laser scanners of 360° in the horizontal direction
and up to 180° in the vertical direction, the integration with rotating line panoramic cameras or cameras with
fisheye lenses is very appropriate, as they have a wider field of view compared to central perspective cameras.
The basis for the combined processing of terrestrial laser scanner and photogrammetric image data is the
strict geometric modelling of the recording instruments. Therefore geometric models, consisting of a basic
model and additional parameters for the compensation of systematic errors, was developed and verified for
terrestrial laser scanners and different types of cameras. Regarding the geometric laser scanner model, different
approaches described in the literature were considered, as well as applying correction models known
from theodolites and total stations.
A particular consideration within the combined processing is the definition of the stochastic model. Since
different types of observations with different underlying geometric models and different stochastic properties
have to be adjusted simultaneously, adequate weights have to be assigned to the measurements. An unfavourable
weighting can have a negative influence on the adjustment results. Therefore a variance component estimation
procedure was implemented in the integrated bundle adjustment, which allows for an automatic determination
of optimal observation weights. Hence, it becomes possible to exploit the potential of the combination
of terrestrial laser scanner and photogrammetric image data completely.
For the calculation of the integrated bundle adjustment, software was developed allowing various algorithmic
configurations of the different data types to be applied. Numerous laser scanner, panoramic image, fisheye
image and central perspective image data were recorded in different test fields and processed using the
developed software. Several calculation alternatives were analysed, demonstrating the advantages and limitations
of the presented method. An application example from the field of geology illustrates the potential of the
algorithm in practice.
|
23 |
Entwicklung von Verfahren zur Bestimmung räumlich-zeitlich hochaufgelöster Bewegungsvektorfelder an Gletschern aus monoskopischen BildsequenzenSchwalbe, Ellen 27 March 2013 (has links)
Die vorliegende Arbeit beschäftigt sich mit der Bestimmung von räumlich und zeitlich hochaufgelösten Bewegungsvektorfeldern von Gletschern aus monokularen Bildsequenzen. Diese stellen eine wertvolle Grundlage für glaziologische Analysen des Bewegungsverhaltens von Gletschern dar. Im Rahmen der Arbeit wurden Bildsequenzmessungen an fünf schnellfließenden Gletschern im Bereich der Diskobucht in Westgrönland durchgeführt. Insbesondere erfolgte die Aufnahme von Bildsequenzen und multi-temporalen Laserscannerdaten am Jakobshavn Isbræ, einem der schnellsten und produktivsten Gletscher Grönlands. Diese Messungen bilden die Datengrundlage der Arbeit.
Es werden Messkonzepte zur Aufnahme der entsprechenden Bildsequenzen und multi-temporalen Laserscans
bereitgestellt sowie Methoden entwickelt, um die Auswertung dieser Daten nach dem Prinzip der monoskopischen Bildsequenzanalyse zu ermöglichen. Die Bildsequenzen und multi-temporalen Laserscans werden von einem festen Standpunkt aus aufgenommen. Die Ableitung von Bewegungsvektorfeldern erfolgt dann durch eine automatische Zuordnung von Grauwertmustern in den Bildsequenzen bzw. durch die Zuordnung von 3D-Punktmustern in den multi-temporalen Laserscannerdaten. Bestehende Punktzuordnungsmethoden werden einerseits an die besonderen Eigenschaften der Gletscherdaten angepasst, andererseits werden geeignete Methoden zur Lösung von Detailproblemen neu entwickelt. Die Methodik der Bildsequenzanalyse wird dabei vor allem hinsichtlich ihrer Robustheit – beispielsweise gegenüber durch Schattenwurf verursachten Störungen im Bild – optimiert und es werden Bewegungseffekte in den Bildsequenzen korrigiert, die durch die Eigenbewegung der Kamera verursacht werden. Bei der Entwicklung der Methodik zur Analyse multitemporaler Laserscannerdaten werden vor allem Effekte berücksichtigt, die durch das sequenzielle Aufnahmeprinzip eines Scanners auftreten.
Auf Basis der entwickelten und implementierten Methodik erfolgt die Auswertung der aufgenommenen Bildsequenzen und multi-temporalen Laserscans. Das Ergebnis der monoskopischen Bildsequenzauswertung ist ein dichtes Raster an Bewegungskurven für jede Bildsequenz. Die einzelnen Translationen der Bewegungskurven können mit einer Genauigkeit von einigen Zentimetern bis zu einem Dezimeter bestimmt werden. Die Auswertung der Laserscannerdaten liefert räumlich hochaufgelöste digitale Geländemodelle der Gletscheroberfläche sowie ein dichtes Raster von 3D-Bewegungsvektoren, deren Genauigkeit im Dezimeterbereich liegt.
Anhand von Beispielen wird gezeigt, dass sich die aus monokularen Bildsequenzen abgeleiteten Bewegungsvektorfelder zur Bestimmung frontnaher Geschwindigkeitsfelder mit hoher räumlicher Auflösung, zur Ableitung der Lage und der Migration der Aufsetzlinie aus gezeiteninduzierten Vertikalbewegungen sowie zur Untersuchung des Geschwindigkeitsverhalten von Gletschern bei Kalbungsereignissen eignen. Aus den Laserscannerdaten können hochaufgelöste digitale Geländemodelle zur Dokumentation von Fronthöhen und Gletscherstrukturen abgeleitet werden, zudem eignen sie sich zur Bestimmung von Geschwindigkeitsfeldern, die eine sehr hohe räumliche Auflösung besitzen. / This research aims to determine the motion vector fields of glaciers with high spatial and temporal resolution. These vector fields can be derived from monocular image sequences and are a valuable data source for glaciological analysis of the motion behaviour of glaciers. Image sequence measurements have been conducted at five fast-flowing glaciers in the Disko Bay region in western Greenland. Especially at the Jakobshavn Isbræ – one of the fastest and most productive glaciers in Greenland – numerous image sequences have been recorded, as well as multi-temporal laser scanner data sets. These measurements provide the basic data sets for this thesis.
The measurement concepts for the acquisition of image sequences and multi-temporal laser scans are presented, and procedures for the processing of the recorded data are developed, based on the principle of monoscopic image sequence analysis. Both the image sequences and multi-temporal laser scans are acquired statically. Motion vector fields can be derived by applying automatic co-registration methods on grey value patterns in the image sequences and on 3D point patterns in the laser scanner datasets respectively. Thus, standard matching techniques have been adapted to the special characteristics of the glacier data, and suitable methods that solve detail problems have been developed in addition. The method of the image sequence analysis has been optimised with respect to its robustness against errors caused by moving shadows. Furthermore, motion effects caused by small instabilities in the camera setup have been corrected. Regarding the analysis of multi-temporal laser scanner data, effects that occur because of the sequential acquisition principle of a laser scanner must also be considered.
Based on the developed method, the image sequences and multi temporal laser scans have been processed. The result of the monoscopic image sequence analysis is a dense raster of trajectories for each image sequence. Each translation component from these trajectories can be determined with an accuracy of some centimeters up to one decimetre. The processing of the laser scanner data provides digital surface models of the glacier with high spatial resolution, and a dense raster of 3D motion vectors with accuracy in the range of decimetres.
Specific examples show that motion vector fields derived from monocular image sequences can be used for the determination of high resolution velocity fields of glaciers, for the determination of the position and migration of the grounding line and for the investigation of a glacier’s motion behaviour during calving events. From the multi-temporal laser scanner data, velocity fields with high spatial resolution can be derived as well as digital surface models from single scans that document glacier front heights and glacier structures.
|
24 |
Automatisierte Bestimmung von Schüttgutvolumen aus PunktwolkenRosenbohm, Mario 03 June 2020 (has links)
Ziel dieser Diplomarbeit ist es, eine Software zu entwickeln, welche den Benutzer bei der Volumenberechnung aus Punktwolken unterstützt.
Dazu werden verschiedene Methoden diskutiert, mit deren Hilfe eine Trennung der Punktwolke in zwei Klassen ('gehört zur Volumenoberfläche' und 'gehört nicht zur Volumenoberfläche') möglich ist. Eine Methode stellt sich, unter bestimmten Bedingungen, als geeignet dar. Mit dieser Methode lässt sich die geforderte Klassifizierung effizient durchführen.
Weiterhin gilt es, für die eigentliche Volumenberechnung, Methoden zu analysieren und auf deren Tauglichkeit für die Anwendung in der Punktwolke zu prüfen. Aus diesen Ergebnissen wird ein Verfahren zur Klassifizierung der Scanpunkte und direkt anschließender Volumenmodellerstellung erarbeitet.
Die Darstellung des Volumens ist an vorgegebene Rahmenbedingungen, das Verwenden einer bestimmten CAD-Software, gebunden. Mit Hilfe dieser CAD-Software ist eine Darstellungsvariante zu wählen, welche ein zügiges Arbeiten mit dem Volumenmodell ermöglicht.
Alle Verfahren und Methoden, einschließlich der dabei auftretenden Probleme werden in Programmcode umgesetzt, damit am Ende eine funktionsfähige, unterstützende Software entsteht.:1 Einleitung
1.1 Thesen / Fragen
1.2 Literatur
1.3 Abgrenzung
2 Grundlagen
2.1 Rahmenbedingungen
2.2 Struktur des Programmierprojektes
2.2.1 Speicherung von Einstellungen / Parametern
2.3 Datengrundlage
2.3.1 Dateiformate der Punktwolkendateien
3 Filterung der Punktwolke
3.1 Das Voxelsystem
3.1.1 Programmierung des Voxelsystems
3.1.2 Speicherung der Voxeldaten
3.2 Filterung mit Hilfe des Voxelsystem
4 Volumenberechnungen
4.1 Erläuterung der verwendeten Säulenprismen
4.1.1 Rasterung der Grundfläche
4.1.2 Umsetzung des Texelsystems als Quadtree
4.2 Einsatz des Texelsystem in der Volumenberechnung
4.2.1 Speicherung der Volumendaten
4.3 Darstellung der Volumendaten
5 Bearbeitungen der Volumendaten
5.1 Füllen von Löchern in der Volumenfläche
5.2 Glätten von Bereichen
6 Die Software in Gänze betrachtet
6.1 Analyse der Effektivität
6.2 Ausblick und Ausbau / The intention of this thesis is to develop a software which supports the user in calculating volumes from point clouds.
For this purpose, different methods are discussed that allow a separation of the point cloud into two classes (i.e. 'belongs to the volume surface' and 'does not belong to the volume surface'). One method is shown to be suitable under certain conditions. With this method, the required classification can be carried out efficiently.
Furthermore, methods for the volume calculation itself are analyzed and tested to ensure that they are suitable for use in the point cloud. Based on these results, a method for the classification of the scan points and the ensuing generation of the volume model are developed.
The representation of the volume is bound to given framework conditions, including the use of a specific CAD software. With the help of this CAD software, a representation variant is to be selected which enables a user to easily work with the volume model.
All procedures and methods, including the problems that arise in the process, are converted into program code, so that in the end a functional, helpful software is created.:1 Einleitung
1.1 Thesen / Fragen
1.2 Literatur
1.3 Abgrenzung
2 Grundlagen
2.1 Rahmenbedingungen
2.2 Struktur des Programmierprojektes
2.2.1 Speicherung von Einstellungen / Parametern
2.3 Datengrundlage
2.3.1 Dateiformate der Punktwolkendateien
3 Filterung der Punktwolke
3.1 Das Voxelsystem
3.1.1 Programmierung des Voxelsystems
3.1.2 Speicherung der Voxeldaten
3.2 Filterung mit Hilfe des Voxelsystem
4 Volumenberechnungen
4.1 Erläuterung der verwendeten Säulenprismen
4.1.1 Rasterung der Grundfläche
4.1.2 Umsetzung des Texelsystems als Quadtree
4.2 Einsatz des Texelsystem in der Volumenberechnung
4.2.1 Speicherung der Volumendaten
4.3 Darstellung der Volumendaten
5 Bearbeitungen der Volumendaten
5.1 Füllen von Löchern in der Volumenfläche
5.2 Glätten von Bereichen
6 Die Software in Gänze betrachtet
6.1 Analyse der Effektivität
6.2 Ausblick und Ausbau
|
25 |
Birka är ingen ö : om båtgravar, barockspännen och laserskanningNeiß (Neiss), Michael January 2012 (has links)
När vikingatiden kommer på tal, leds tankarna ofta osökt till Birka. För även om Birka låg på en ö i Mälaren, så var det allt annat än isolerat. Istället ingick Birka i ett komplext nätverk som täckte såväl nära bygder som fjärran stränder. Därav följer att nyckeln till vår förståelse av Mälardalens vikingatid ofta finns i Birka. Men även det motsatta gäller, och ibland behöver arkeologer titta åt andra håll för att uppnå en bättre förståelse av Birka. Detta ömsesidiga förhållande ska illustreras med hjälp av ett båtgravsfynd från Turinge i Södermanland. / <p>Övriga forskningsfinansiärer:</p><p>Berit Wallenbergs stiftelse ("Transformationer inom vikingatidens djurornamentik"), Helge Ax:son Jonsons stiftelse ("3D-laserskanning som verktyg vid vikingatidsstudier")</p> / En förlorad värld? - Turinge re-visited / 3D-laserskanning som verktyg vid vikingatidsstudier / Transformationer inom vikingatidens djurornamentik
|
26 |
On the role of the proventricle region in reproduction and regeneration in Typosyllis antoni (Annelida: Syllidae)Weidhase, Michael, Beckers, Patrick, Bleidorn, Christoph, Aguado, M. Teresa 14 December 2016 (has links)
Background: Syllids are a species rich annelid family possessing remarkable regenerative ability, which is not only the response after traumatic injury, but also a key step during the life cycle of several syllid taxa. In these animals the posterior part of the body becomes an epitoke and is later detached as a distinct unit named stolon. Such a
sexual reproductive mode is named schizogamy or stolonization. The prostomium and the proventricle, a modified foregut structure, have been proposed to have a control function during this process, though the concrete mechanisms behind it have never been elucidated. Results: By using different experimental set-ups, histology and immunohistochemistry combined with subsequent cLSM analyzes, we investigate and document the regeneration and stolonization in specimens of Typosyllis antoni that were amputated at different levels throughout the antero-posterior body axis. The removal of the anterior end including the proventricle implies an incomplete anterior regeneration as well as severe deviations from the usual reproductive pattern, i.e. accelerated stolonization, masculinization and the occurrence of aberrant stolons. The detailed anatomy of aberrant
stolons is described. A histological study of the proventricle revealed no signs of glandular or secretory structures. The ventricle and the caeca are composed of glandular tissue but they are not involved in the reproductive and regenerative processes. Conclusions: As in other investigated syllids, the proventricle region has a significant role during stolonization and reproduction processes in Typosyllis antoni. When the proventricle region is absent, anterior and posterior regeneration are considerably deviated from the general patterns. However, proventricle ultrastructure does not show any glandular component, thereby questioning a direct involvement of this organ itself in the control of reproduction and regeneration. Our findings offer a comprehensive starting point for further studies of regeneration and reproductive control in syllids as well as annelids in general.
|
27 |
Automatic Retrieval of Skeletal Structures of Trees from Terrestrial Laser Scanner DataSchilling, Anita 10 October 2014 (has links)
Research on forest ecosystems receives high attention, especially nowadays with regard to sustainable management of renewable resources and the climate change. In particular, accurate information on the 3D structure of a tree is important for forest science and bioclimatology, but also in the scope of commercial applications.
Conventional methods to measure geometric plant features are labor- and time-intensive. For detailed analysis, trees have to be cut down, which is often undesirable. Here, Terrestrial Laser Scanning (TLS) provides a particularly attractive tool because of its contactless measurement technique. The object geometry is reproduced as a 3D point cloud. The objective of this thesis is the automatic retrieval of the spatial structure of trees from TLS data. We focus on forest scenes with comparably high stand density and with many occlusions resulting from it. The varying level of detail of TLS data poses a big challenge.
We present two fully automatic methods to obtain skeletal structures from scanned trees that have complementary properties. First, we explain a method that retrieves the entire tree skeleton from 3D data of co-registered scans. The branching structure is obtained from a voxel space representation by searching paths from branch tips to the trunk. The trunk is determined in advance from the 3D points. The skeleton of a tree is generated as a 3D line graph.
Besides 3D coordinates and range, a scan provides 2D indices from the intensity image for each measurement. This is exploited in the second method that processes individual scans. Furthermore, we introduce a novel concept to manage TLS data that facilitated the researchwork. Initially, the range image is segmented into connected components. We describe a procedure to retrieve the boundary of a component that is capable of tracing inner depth discontinuities. A 2D skeleton is generated from the boundary information and used to decompose the component into sub components. A Principal Curve is computed from the 3D point set that is associated with a sub component. The skeletal structure of a connected component is summarized as a set of polylines.
Objective evaluation of the results remains an open problem because the task itself is ill-defined: There exists no clear definition of what the true skeleton should be w.r.t. a given point set. Consequently, we are not able to assess the correctness of the methods quantitatively, but have to rely on visual assessment of results and provide a thorough discussion of the particularities of both methods.
We present experiment results of both methods. The first method efficiently retrieves full skeletons of trees, which approximate the branching structure. The level of detail is mainly governed by the voxel space and therefore, smaller branches are reproduced inadequately. The second method retrieves partial skeletons of a tree with high reproduction accuracy. The method is sensitive to noise in the boundary, but the results are very promising. There are plenty of possibilities to enhance the method’s robustness. The combination of the strengths of both presented methods needs to be investigated further and may lead to a robust way to obtain complete tree skeletons from TLS data automatically. / Die Erforschung des ÖkosystemsWald spielt gerade heutzutage im Hinblick auf den nachhaltigen Umgang mit nachwachsenden Rohstoffen und den Klimawandel eine große Rolle. Insbesondere die exakte Beschreibung der dreidimensionalen Struktur eines Baumes ist wichtig für die Forstwissenschaften und Bioklimatologie, aber auch im Rahmen kommerzieller Anwendungen.
Die konventionellen Methoden um geometrische Pflanzenmerkmale zu messen sind arbeitsintensiv und zeitaufwändig. Für eine genaue Analyse müssen Bäume gefällt werden, was oft unerwünscht ist. Hierbei bietet sich das Terrestrische Laserscanning (TLS) als besonders attraktives Werkzeug aufgrund seines kontaktlosen Messprinzips an. Die Objektgeometrie wird als 3D-Punktwolke wiedergegeben. Basierend darauf ist das Ziel der Arbeit die automatische Bestimmung der räumlichen Baumstruktur aus TLS-Daten. Der Fokus liegt dabei auf Waldszenen mit vergleichsweise hoher Bestandesdichte und mit zahlreichen daraus resultierenden Verdeckungen. Die Auswertung dieser TLS-Daten, die einen unterschiedlichen Grad an Detailreichtum aufweisen, stellt eine große Herausforderung dar.
Zwei vollautomatische Methoden zur Generierung von Skelettstrukturen von gescannten Bäumen, welche komplementäre Eigenschaften besitzen, werden vorgestellt. Bei der ersten Methode wird das Gesamtskelett eines Baumes aus 3D-Daten von registrierten Scans bestimmt. Die Aststruktur wird von einer Voxelraum-Repräsentation abgeleitet indem Pfade von Astspitzen zum Stamm gesucht werden. Der Stamm wird im Voraus aus den 3D-Punkten rekonstruiert. Das Baumskelett wird als 3D-Liniengraph erzeugt.
Für jeden gemessenen Punkt stellt ein Scan neben 3D-Koordinaten und Distanzwerten auch 2D-Indizes zur Verfügung, die sich aus dem Intensitätsbild ergeben. Bei der zweiten Methode, die auf Einzelscans arbeitet, wird dies ausgenutzt. Außerdem wird ein neuartiges Konzept zum Management von TLS-Daten beschrieben, welches die Forschungsarbeit erleichtert hat. Zunächst wird das Tiefenbild in Komponenten aufgeteilt. Es wird eine Prozedur zur Bestimmung von Komponentenkonturen vorgestellt, die in der Lage ist innere Tiefendiskontinuitäten zu verfolgen. Von der Konturinformation wird ein 2D-Skelett generiert, welches benutzt wird um die Komponente in Teilkomponenten zu zerlegen. Von der 3D-Punktmenge, die mit einer Teilkomponente assoziiert ist, wird eine Principal Curve berechnet. Die Skelettstruktur einer Komponente im Tiefenbild wird als Menge von Polylinien zusammengefasst.
Die objektive Evaluation der Resultate stellt weiterhin ein ungelöstes Problem dar, weil die Aufgabe selbst nicht klar erfassbar ist: Es existiert keine eindeutige Definition davon was das wahre Skelett in Bezug auf eine gegebene Punktmenge sein sollte. Die Korrektheit der Methoden kann daher nicht quantitativ beschrieben werden. Aus diesem Grund, können die Ergebnisse nur visuell beurteiltwerden. Weiterhinwerden die Charakteristiken beider Methoden eingehend diskutiert.
Es werden Experimentresultate beider Methoden vorgestellt. Die erste Methode bestimmt effizient das Skelett eines Baumes, welches die Aststruktur approximiert. Der Detaillierungsgrad wird hauptsächlich durch den Voxelraum bestimmt, weshalb kleinere Äste nicht angemessen reproduziert werden. Die zweite Methode rekonstruiert Teilskelette eines Baums mit hoher Detailtreue. Die Methode reagiert sensibel auf Rauschen in der Kontur, dennoch sind die Ergebnisse vielversprechend. Es gibt eine Vielzahl von Möglichkeiten die Robustheit der Methode zu verbessern. Die Kombination der Stärken von beiden präsentierten Methoden sollte weiter untersucht werden und kann zu einem robusteren Ansatz führen um vollständige Baumskelette automatisch aus TLS-Daten zu generieren.
|
28 |
Untersuchungen zur Entfernungsmessung terrestrischer Long-Range LaserscannerMartienßen, Thomas, Geier, Andreas, Wand, Robert 29 July 2016 (has links)
Der vorliegende Beitrag beschäftigt sich mit Untersuchungen zur Entfernungsmessung terrestrischer Long-Range Laserscanner. Für diese Studie wurden dem Institut für Markscheidewesen und Geodäsie dankenswerter Weise von der Firma RIEGL ein Laserscanner VZ-4000 zur Verfügung gestellt. In diesem Beitrag werden der Versuchsaufbau erläutert und erste Ergebnisse des Soll-Ist-Vergleiches gezeigt. Die unterschiedlichen Einflussgrößen, wie Temperatur und Luftdruck, die bei Messungen auf große Entfernungen eine Rolle spielen, werden angesprochen. / This paper deals with actual researches for measuring distances of terrestrial long-range Laser scanners. The Institute for Mine Surveying and Geodesy had a laser scanner VZ-4000 by the company RIEGL easy and unconventional provided. The paper presents the experimental setup and the results of the target-actual comparison. Several influences, for example temperature and atmospheric pressure, are considered for long-range measurements.
|
29 |
Konzeption einer qualitätsgesicherten Implementierung eines Echtzeitassistenzsystems basierend auf einem terrestrischen Long Range LaserscannerCzerwonka-Schröder, Daniel 04 July 2023 (has links)
Sich verändernde Rahmenbedingungen des Klimawandels haben einen erheblichen Einfluss auf die Gestaltung der Erdoberfläche. Der Sachverhalt ist anhand unterschiedlicher geomorphologischer Veränderungsprozesse zu beobachten, sei es bei gravitativen Naturgefahren (Felsstürze, Hangrutschungen oder Murereignissen), der Gletscherschmelze in Hochgebirgsregionen oder der Änderungen der Küstendynamik an Sandstränden. Derartige Ereignisse werden durch immer stärker ausgeprägte, extreme Wetterbedingungen verursacht. In diesem Zusammenhang sind präventive Maßnahmen und der Schutz der Bevölkerung im Zuge eines Risikomanagements essentiell. Um mit diesen Gefahren sicher umgehen zu können, sind qualitativ hochwertige drei- und vierdimensionale (3D und 4D) Datensätze der Erdoberfläche erforderlich.
Der technische Fortschritt in der Messtechnik und damit verbunden ein Paradigmenwechsel haben die Möglichkeiten in der Erfassung von räumlich als auch zeitlich verdichteten Daten erheblich verbessert. Die Weiterentwicklung von terrestrischen Laserscannern hin zu kommunikationsfähigen, programmierbaren Multisensorsystemen, eine kompakte und robuste Bauweise, hohe Messreichweiten sowie wirtschaftlich attraktive Systeme lassen einen Übergang zu permanentem terrestrischen Laserscanning (PLS) zu. Im Sinne eines adaptiven Monitorings ist PLS für die Integration in echtzeitnahe Assistenz- oder Frühwarnsysteme prädestiniert. Um die Akzeptanz eines solchen Systems zu erreichen sind jedoch transparente, nachvollziehbare Methoden und Prozesse zur Informationsgewinnung und -aufbereitung zu definieren.
Ziel dieser Arbeit ist es, PLS als Methode systematisch aufzuarbeiten. Vier wesentliche Schritte entlang der Prozesskette werden identifiziert: (i) Die Datenerfassung einer einzelnen Epoche, (ii) die Bereitstellung eines redundanten Datenmanagements sowie einer sicheren Datenkommunikation zu zentralen Servern, (iii) die multitemporale Datenanalyse und (iv) die Aufbereitung, das Reporting und die Präsentation der Ergebnisse für Stakeholder.
Basierend auf dieser Prozesskette ergeben sich zwei Untersuchungsschwerpunkte. Zunächst wird die qualitative Beurteilung der erfassten Punktwolken behandelt. Der Fokus liegt dabei einerseits auf dem Einfluss unterschiedlicher Registrierungsmethoden auf die multitemporalen Punktwolken und andererseits auf dem Einfluss der Atmosphäre auf die Messergebnisse. Es wird nachgewiesen, dass eine Nichtberücksichtigung dieser Einflüsse zu signifikanten Abweichungen führt, welche zu Fehlinterpretationen der abgeleiteten Informationen führen kann. Weiterhin wird gezeigt, dass es an datenbasierten Verfahren zur Berücksichtigung dieser Einflüsse fehlt. Als Grundlage für die Untersuchungen dienen umfangreiche Datensätze aus Noordwijk / Niederlande und Vals / Österreich.
Der zweite Schwerpunkt befasst sich mit der Datenanalyse. Die Herausforderung besteht darin, tausende Punktwolken einzelner Messepochen analysieren zu müssen. Bitemporale Methoden sind hier nur eingeschränkt anwendbar. Die vorliegende Arbeit stellt eine zweistufige Methode vor, mit der automatisiert Informationen aus dem umfangreichen Datensatz abgeleitet werden können. Aus der vollumfänglichen 3D-Zeitserie der Szene werden zunächst relevante Merkmale auf Basis von 2D-Rasterbildern durch Clustering extrahiert. Semiautomatisch lassen sich die extrahierten Segmente klassifizieren und so maßgeblichen geomorphologischen Prozessen zuweisen. Dieser Erkenntnisgewinn über den vorliegenden Datensatz wird in einem zweiten Schritt genutzt, um die Szene räumlich zu limitieren und in den Interessensbereichen tiefergehende Analysen durchzuführen. Auf Basis der Methoden «M3C2-EP mit adaptierter Kalman-Filterung» und «4D-Änderungsobjekten» werden zwei Analysetools vorgestellt und auf den Datensatz in Vals angewendet.
Die Überwachung topographischer Oberflächenveränderungen mit PLS wird zunehmen und eine große Menge an Daten erzeugen. Diese Datensätze müssen verarbeitet, analysiert und gespeichert werden. Diese Dissertation trägt zum besseren Verständnis der Methodik bei. Anwender bekommen durch die Systematisierung der Methode ein besseres Verständnis über die beeinflussenden Faktoren entlang der Prozesskette von der Datenerfassung bis hin zur Darstellung relevanter Informationen. Mit dieser Dissertation wird eine Toolbox vorgestellt, die es ermöglicht, multitemporale Punktwolken mit Hilfe von unüberwachtem maschinellem Lernen automatisiert auszuwerten und Informationen dem Nutzer zur Verfügung zu stellen. Dieser Ansatz ist einfach und hat ein hohes Potential für die automatische Analyse in zukünftigen Anwendungen.:Kurzfassung i
Abstract iii
Danksagung v
1. Einleitung 1
2. Deformationsmonitoring mittels terrestrischer Laserscanner: Aktuelle
Methoden, Regulierungen und technische Aspekte 5
2.1. Ingenieurgeodätische Überwachungsmessungen . . . . . . . . . . . . . . 5
2.2. Anforderungen an ein integratives Monitoring aus der Sicht eines ganzheitlichen
Risikomanagements . . . . . . . . . . . . . . . . . . . . . . . 8
2.2.1. Aktives Monitoring . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2.2. Ganzheitliches Risikomanagement . . . . . . . . . . . . . . . . . 9
2.2.3. Qualitätsbeurteilung und Qualitätssicherung . . . . . . . . . . . 12
2.2.4. Relevante Normen, Richtlinien und Merkblätter beim Einsatz
von permanentem Laserscanning . . . . . . . . . . . . . . . . . 15
2.3. Terrestrisches Laserscanning . . . . . . . . . . . . . . . . . . . . . . . . 17
2.4. Permanentes Laserscanning . . . . . . . . . . . . . . . . . . . . . . . . 22
2.5. Parameter einer permanenten Installation eines Long Range Laserscanners 24
2.5.1. Registrierung und Georeferenzierung . . . . . . . . . . . . . . . 26
2.5.2. Geodätische Refraktion . . . . . . . . . . . . . . . . . . . . . . . 30
2.5.3. Geodätisches Monitoring mittels terrestrischer Laserscanner . . 36
2.6. Zusammenfassende Betrachtungen . . . . . . . . . . . . . . . . . . . . . 39
3. Ziel und abgeleiteter Untersuchungsschwerpunkt dieser Arbeit 41
4. Konzept eines Echtzeitassistenzsystems basierend auf PLS 43
5. Untersuchung von Einflussfaktoren auf die Messergebnisse von permanent
installierten terrestrischen Long Range Laserscannern 47
5.1. Fallstudie I: Noordwijk / Niederlande . . . . . . . . . . . . . . . . . . . 47
5.1.1. Beschreibung der Daten . . . . . . . . . . . . . . . . . . . . . . 48
5.1.2. Methoden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
5.1.3. Resultate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.1.4. Zusammenfassung und Diskussion . . . . . . . . . . . . . . . . . 57
5.2. Fallstudie II: Detektion von Corner Cube Prismen und deren Genauigkeit 58
5.2.1. Prismendetektion aus Daten eines TLS . . . . . . . . . . . . . . 59
5.2.2. Genauigkeitsanalyse der Prismendetektion . . . . . . . . . . . . 59
5.3. Fallstudie III: Valsertal (Tirol) / Österreich . . . . . . . . . . . . . . . 67
5.3.1. Beschreibung des Datensatzes . . . . . . . . . . . . . . . . . . . 68
5.3.2. Geodätische Refraktion als Einfluss auf die Messergebnisse eines
PLS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
5.3.3. Einfluss von Registrierungsparametern auf die Messergebnisse eines
PLS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
6. Informationsextraktion aus multitemporalen Punktwolken 95
6.1. Stufe I: Segmentierung räumlich verteilter Zeitreihen auf Basis von 2DBildrastern
als Methode des unüberwachten maschinellen Lernens . . . 96
6.1.1. Extraktion von Zeitreihen aus den Punktwolken . . . . . . . . . 98
6.1.2. Zeitreihensegmentierung mittels k-Means-Algorithmen . . . . . 101
6.1.3. Zeitreihensegmentierung mittels extrahierter Merkmale auf Grundlage
Gaußscher Mischmodelle (GMM) . . . . . . . . . . . . . . . 113
6.2. Stufe II: Zeitreihenanalyse von räumlich hochauflösenden 3D-Daten . . 122
6.2.1. M3C2-EP mit adaptiver Kalman-Filterung . . . . . . . . . . . . 122
6.2.2. 4D-Änderungsobjekte (4D-OBC) . . . . . . . . . . . . . . . . . 128
6.2.3. Zusammenfassung und Diskussion . . . . . . . . . . . . . . . . . 132
7. Fazit und Ausblick 135
A. Ergebnisse der Systemuntersuchung in Unna-Hemmerde (21.03.2022) 141
B. Ergebnisse der Zeitreihensegmentierung mittels k-Means 145
B.1. Ergebnistabellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
B.2. Zeitreihen und räumliche Visualisierung - vollständiger Bereich . . . . . 148
B.3. Zeitreihen und räumliche Visualisierung - limitierter Bereich . . . . . . 161
C. Ergebnisse der Zeitreihensegmentierung mittels GMM 164
C.1. Ergebnistabellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
C.2. Zeitreihen und räumliche Visualisierung - vollständiger Bereich . . . . . 166
Literaturverzeichnis 175
Abbildungsverzeichnis 195
Abkürzungsverzeichnis 199
Tabellenverzeichnis 201
Curriculum Vitae 203 / Climate change has an important impact on the scale and frequency with which the Earths surface is changing. This can be seen in various geomorphological change processes, such as gravitational natural hazards (rockfalls, landslides or debris flows), glacier melt in high mountain regions or the quantification of coastal dynamics on sandy beaches. Such events are triggered by increasingly prominent and extreme meteorological conditions. In this context, it is essential to implement preventive measures to protect the population as part of a risk management system. To safely manage these hazards, high quality three- and four-dimensional (3D and 4D) data sets of the Earth’s surface are required.
Technological advances in metrology and the associated paradigm shift have significantly improved the ability to collect spatially and temporally distributed data. Progress from terrestrial laser scanners to communication-enabled, programmable multisensor systems, compact and robust design, long range and economically competitive systems allow a transition to a permanent laser scanning (PLS). PLS enables the acquisition of data from a fixed position to a target area kilometers away at high frequency and over a long period of time. In terms of adaptive monitoring, PLS is suitable for integration into near realtime assistance or early warning systems. However, in order to achieve acceptance of these systems, transparent, reproducible methods and processes for extracting information must be defined.
The aim of this thesis is to present a methodological framework for PLS. Four crucial steps along the processing chain are identifiable: (i) collecting single epoch data, (ii) providing redundant data management and secure data communication to central servers, (iii) multi-temporal data analysis and (iv) reporting and presenting results to stakeholders. Two main research topics emerge from this processing chain. First, the qualitative assessment of the acquired point clouds, which focuses on the influence of different registration methods on the multitemporal point clouds and the influence of the atmosphere on the measured data. It is shown that ignoring these influences leads to significant deviations, which in turn can result in a misinterpretation of the derived information. It is also shown that there is still a lack of data-based procedures to account for these influences. The investigations are based on extensive data sets from Noordwijk/Netherlands and Vals/Austria.
The second research topic addreses data analysis. The challenge is to analyse thousands of point clouds per measurement epoch. In this case, bitemporal methods are limited in their applicability. The thesis presents a two-step method to automatically extract information from the large data set. In the first step relevant features are extracted from the full 3D time series of the scene based on 2D raster images by clustering. The extracted segments can then be semi-automatically classified and assigned to relevant geomorphological processes. Based on this knowledge, the scene is, in the second step, spatially delimited. Deeper analyses can then be performed in areas of interest. Using the «M3C2-EP method with adapted Kalman filtering» and «4D objects-by-change», two analysis tools are presented and applied to the dataset in Vals.
The monitoring of topographic surface changes with PLS will increase and generate large amounts of data. These data sets need to be processed, analysed and stored. This thesis contributes to a better understanding of the methodology. Users will gain a deeper understanding of the influencing factors along the processing chain from data acquisition to reporting of relevant information by applying the method in a systematic way. The dissertation presents a toolbox that enables automated evaluation of multitemporal point clouds using unsupervised machine learning and provides relevant information to the user. The approach is straightforward and simple and has a high potential for automated analysis in future applications.:Kurzfassung i
Abstract iii
Danksagung v
1. Einleitung 1
2. Deformationsmonitoring mittels terrestrischer Laserscanner: Aktuelle
Methoden, Regulierungen und technische Aspekte 5
2.1. Ingenieurgeodätische Überwachungsmessungen . . . . . . . . . . . . . . 5
2.2. Anforderungen an ein integratives Monitoring aus der Sicht eines ganzheitlichen
Risikomanagements . . . . . . . . . . . . . . . . . . . . . . . 8
2.2.1. Aktives Monitoring . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2.2. Ganzheitliches Risikomanagement . . . . . . . . . . . . . . . . . 9
2.2.3. Qualitätsbeurteilung und Qualitätssicherung . . . . . . . . . . . 12
2.2.4. Relevante Normen, Richtlinien und Merkblätter beim Einsatz
von permanentem Laserscanning . . . . . . . . . . . . . . . . . 15
2.3. Terrestrisches Laserscanning . . . . . . . . . . . . . . . . . . . . . . . . 17
2.4. Permanentes Laserscanning . . . . . . . . . . . . . . . . . . . . . . . . 22
2.5. Parameter einer permanenten Installation eines Long Range Laserscanners 24
2.5.1. Registrierung und Georeferenzierung . . . . . . . . . . . . . . . 26
2.5.2. Geodätische Refraktion . . . . . . . . . . . . . . . . . . . . . . . 30
2.5.3. Geodätisches Monitoring mittels terrestrischer Laserscanner . . 36
2.6. Zusammenfassende Betrachtungen . . . . . . . . . . . . . . . . . . . . . 39
3. Ziel und abgeleiteter Untersuchungsschwerpunkt dieser Arbeit 41
4. Konzept eines Echtzeitassistenzsystems basierend auf PLS 43
5. Untersuchung von Einflussfaktoren auf die Messergebnisse von permanent
installierten terrestrischen Long Range Laserscannern 47
5.1. Fallstudie I: Noordwijk / Niederlande . . . . . . . . . . . . . . . . . . . 47
5.1.1. Beschreibung der Daten . . . . . . . . . . . . . . . . . . . . . . 48
5.1.2. Methoden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
5.1.3. Resultate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.1.4. Zusammenfassung und Diskussion . . . . . . . . . . . . . . . . . 57
5.2. Fallstudie II: Detektion von Corner Cube Prismen und deren Genauigkeit 58
5.2.1. Prismendetektion aus Daten eines TLS . . . . . . . . . . . . . . 59
5.2.2. Genauigkeitsanalyse der Prismendetektion . . . . . . . . . . . . 59
5.3. Fallstudie III: Valsertal (Tirol) / Österreich . . . . . . . . . . . . . . . 67
5.3.1. Beschreibung des Datensatzes . . . . . . . . . . . . . . . . . . . 68
5.3.2. Geodätische Refraktion als Einfluss auf die Messergebnisse eines
PLS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
5.3.3. Einfluss von Registrierungsparametern auf die Messergebnisse eines
PLS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
6. Informationsextraktion aus multitemporalen Punktwolken 95
6.1. Stufe I: Segmentierung räumlich verteilter Zeitreihen auf Basis von 2DBildrastern
als Methode des unüberwachten maschinellen Lernens . . . 96
6.1.1. Extraktion von Zeitreihen aus den Punktwolken . . . . . . . . . 98
6.1.2. Zeitreihensegmentierung mittels k-Means-Algorithmen . . . . . 101
6.1.3. Zeitreihensegmentierung mittels extrahierter Merkmale auf Grundlage
Gaußscher Mischmodelle (GMM) . . . . . . . . . . . . . . . 113
6.2. Stufe II: Zeitreihenanalyse von räumlich hochauflösenden 3D-Daten . . 122
6.2.1. M3C2-EP mit adaptiver Kalman-Filterung . . . . . . . . . . . . 122
6.2.2. 4D-Änderungsobjekte (4D-OBC) . . . . . . . . . . . . . . . . . 128
6.2.3. Zusammenfassung und Diskussion . . . . . . . . . . . . . . . . . 132
7. Fazit und Ausblick 135
A. Ergebnisse der Systemuntersuchung in Unna-Hemmerde (21.03.2022) 141
B. Ergebnisse der Zeitreihensegmentierung mittels k-Means 145
B.1. Ergebnistabellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
B.2. Zeitreihen und räumliche Visualisierung - vollständiger Bereich . . . . . 148
B.3. Zeitreihen und räumliche Visualisierung - limitierter Bereich . . . . . . 161
C. Ergebnisse der Zeitreihensegmentierung mittels GMM 164
C.1. Ergebnistabellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
C.2. Zeitreihen und räumliche Visualisierung - vollständiger Bereich . . . . . 166
Literaturverzeichnis 175
Abbildungsverzeichnis 195
Abkürzungsverzeichnis 199
Tabellenverzeichnis 201
Curriculum Vitae 203
|
30 |
Automatische Extraktion von 3D-Baumparametern aus terrestrischen Laserscannerdaten / Automatic extraction of 3D tree parameters from terrestrial laser scanner point cloudsBienert, Anne 06 August 2013 (has links) (PDF)
Ein großes Anwendungsgebiet des Flugzeuglaserscannings ist in Bereichen der Forstwirtschaft und der Forstwissenschaft zu finden. Die Daten dienen flächendeckend zur Ableitung von digitalen Gelände- und Kronenmodellen, aus denen sich die Baumhöhe ableiten lässt. Aufgrund der Aufnahmerichtung aus der Luft lassen sich spezielle bodennahe Baumparameter wie Stammdurchmesser und Kronenansatzhöhe nur durch Modelle schätzen. Der Einsatz terrestrischer Laserscanner bietet auf Grund der hochauflösenden Datenakquisition eine gute Ergänzung zu den Flugzeuglaserscannerdaten. Inventurrelevante Baumparameter wie Brusthöhendurchmesser und Baumhöhe lassen sich ableiten und eine Verdichtung von digitalen Geländemodellen durch die terrestrisch erfassten Daten vornehmen. Aufgrund der dichten, dreidimensionalen Punktwolken ist ein hoher Dokumentationswert gegeben und eine Automatisierung der Ableitung der Geometrieparameter realisierbar.
Um den vorhandenen Holzvorrat zu kontrollieren und zu bewirtschaften, werden in periodischen Zeitabständen Forstinventuren auf Stichprobenbasis durchgeführt. Geometrische Baumparameter, wie Baumhöhe, Baumposition und Brusthöhendurchmesser, werden gemessen und dokumentiert. Diese herkömmliche Erfassung ist durch einen hohen Arbeits- und Zeitaufwand gekennzeichnet. Aus diesem Grund wurden im Rahmen dieser Arbeit Algorithmen entwickelt, die eine automatische Ableitung der geometrischen Baumparameter aus terrestrischen Laserscannerpunktwolken ermöglichen. Die Daten haben neben der berührungslosen und lichtunabhängigen Datenaufnahme den Vorteil einer objektiven und schnellen Parameterbestimmung. Letztendlich wurden die Algorithmen in einem Programm zusammengefasst, das neben der Baumdetektion eine Bestimmung der wichtigsten Parameter in einem Schritt realisiert. An Datensätzen von drei verschiedenen Studiengebieten werden die Algorithmen getestet und anhand manuell gewonnener Baumparameter validiert.
Aufgrund der natürlich gewachsenen Vegetationsstruktur sind bei Aufnahmen von einem Standpunkt gerade im Kronenraum Abschattungen vorhanden. Durch geeignete Scankonfigurationen können diese Abschattungen minimiert, allerdings nicht vollständig umgangen werden. Zusätzlich ist der Prozess der Registrierung gerade im Wald mit einem zeitlichen Aufwand verbunden. Die größte Schwierigkeit besteht in der effizienten Verteilung der Verknüpfungspunkte bei dichter Bodenvegetation. Deshalb wird ein Ansatz vorgestellt, der eine Registrierung über die berechneten Mittelpunkte der Brusthöhendurchmesser durchführt. Diese Methode verzichtet auf künstliche Verknüpfungspunkte und setzt Mittelpunkte von identischen Stammabschnitten in beiden Datensätzen voraus. Dennoch ist die größte Unsicherheit in der Z-Komponente der Translation zu finden. Eine Methode unter Verwendung der Lage der Baumachsen sowie mit einem identischen Verknüpfungspunkt führt zu besseren Ergebnissen, da die Datensätze an dem homologen Punkt fixiert werden. Anhand eines Studiengebietes werden die Methoden mit den herkömmlichen Registrierungsverfahren über homologe Punkte verglichen und analysiert. Eine Georeferenzierung von terrestrischen Laserscannerpunktwolken von Waldbeständen ist aufgrund der Signalabschattung der Satellitenpositionierungssysteme nur bedingt und mit geringer Genauigkeit möglich. Deshalb wurde ein Ansatz entwickelt, um Flugzeuglaserscannerdaten mit terrestrischen Punktwolken allein über die Kenntnis der Baumposition und des vorliegenden digitalen Geländemodells zu verknüpfen und zusätzlich das Problem der Georeferenzierung zu lösen.
Dass ein terrestrischer Laserscanner nicht nur für Forstinventuren gewinnbringend eingesetzt werden kann, wird anhand von drei verschiedenen Beispielen beleuchtet. Neben der Ableitung von statischen Verformungsstrukturen an Einzelbäumen werden beispielsweise auch die Daten zur Bestimmung von Vegetationsmodellen auf Basis von Gitterstrukturen (Voxel) zur Simulation von turbulenten Strömungen in und über Waldbeständen eingesetzt. Das aus Laserscannerdaten abgeleitete Höhenbild einer Rinde führt unter Verwendung von Bildverarbeitungsmethoden (Texturanalyse) zur Klassifizierung der Baumart.
Mit dem terrestrischen Laserscanning ist ein interessantes Werkzeug für den Einsatz im Forst gegeben. Bestehende Konzepte der Forstinventur können erweiterte werden und es eröffnen sich neue Felder in forstwirtschaftlichen und forstwissenschaftlichen Anwendungen, wie beispielsweise die Nutzung eines Scanners auf einem Harvester während des Erntevorganges. Mit der stetigen Weiterentwicklung der Laserscannertechnik hinsichtlich Gewicht, Reichweite und Geschwindigkeit wird der Einsatz im Forst immer attraktiver. / An important application field of airborne laser scanning is forestry and the science of forestry. The captured data serve as an area-wide determination of digital terrain and canopy models, with a derived tree height. Due to the nadir recording direction, near-ground tree parameters, such as diameter at breast height (dbh) and crown base height, are predicted using forest models. High resolution terrestrial laser scanner data complements the airborne laser scanner data. Forest inventory parameters, such as dbh and tree height can be derived directly and digital terrain models are created. As a result of the dense three dimensional point clouds captured, a high level of detail exists, and a high degree of automation of the determination of the parameters is possible.
To control and manage the existing stock of wood, forest inventories are carried out at periodic time intervals, on the base of sample plots. Geometric tree parameters, such as tree height, tree position and dbh are measured and documented. This conventional data acquisition is characterised by a large amount of work and time. Because of this, algorithms are developed to automatically determine geometric tree parameters from terrestrial laser scanner point clouds. The data acquisition enables an objective and fast determination of parameters, remotely, and independent of light conditions. Finally the majority of the algorithms are combined into a single program, allowing tree detection and the determination of relevant parameters in one step. Three different sample plots are used to test the algorithms. Manually measured tree parameters are also used to validate the algorithms.
The natural vegetation structure causes occlusions inside the crown when scanning from one position. These scan shadows can be minimized, though not completely avoided, via an appropriate scan configuration. Additional the registration process in forest scenes is time-consuming. The largest problem is to find a suitable distribution of tie points when dense ground vegetation exists. Therefore an approach is introduced that allows data registration with the determined centre points of the dbh. The method removes the need for artificial tie points. However, the centre points of identical stem sections in both datasets are assumed. Nevertheless the biggest uncertainness is found in the Z co-ordinate of the translation. A method using the tree axes and one homologous tie point, which fixes the datasets, shows better results. The methods are compared and analysed with the traditional registration process with tie points, using a single study area. Georeferencing of terrestrial laser scanner data in forest stands is problematic, due to signal shadowing of global navigation satellite systems. Thus an approach was developed to register airborne and terrestrial laser scanner data, taking the tree positions and the available digital terrain model.
With the help of three examples the benefits of applying laser scanning to forest applications is shown. Besides the derivation of static deformation structures of single trees, the data is used to determine vegetation models on the basis of a grid structure (voxel space) for simulation of turbulent flows in and over forest stands. In addition, the derived height image of tree bark using image processing methods (texture analysis) can be used to classify the tree species.
Terrestrial laser scanning is a valuable tool for forest applications. Existing inventory concepts can be enlarged, and new fields in forestry and the science of forestry are established, e. g. the application of scanners on a harvester. Terrestrial laser scanners are becoming increasingly important for forestry applications, caused by continuous technological enhancements that reduce the weight, whilst increasing the range and the data rate.
|
Page generated in 0.1114 seconds