• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • 5
  • Tagged with
  • 12
  • 12
  • 12
  • 9
  • 7
  • 7
  • 7
  • 6
  • 5
  • 5
  • 5
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Automatic Reconstruction of Urban Objects from Mobile Laser Scanner Data

Nalani, Hetti Arachchige 28 January 2015 (has links) (PDF)
Aktuelle 3D-Stadtmodelle werden immer wichtiger in verschiedenen städtischen Anwendungsbereichen. Im Moment dienen sie als Grundlage bei der Stadtplanung, virtuellem Tourismus und Navigationssystemen. Mittlerweile ist der Bedarf an 3D-Gebäudemodellen dramatisch gestiegen. Der Grund dafür sind hauptsächlich Navigationssysteme und Onlinedienste wie Google Earth. Die Mehrheit der Untersuchungen zur Rekonstruktion von Gebäudemodellen von Luftaufnahmen konzentriert sich ausschließlich auf Dachmodellierung. Jedoch treiben Anwendungen wie Virtuelle Realität und Navigationssysteme die Nachfrage nach detaillieren Gebäudemodellen, die nicht nur die geometrischen Aspekte sondern auch semantische Informationen beinhalten, stark an. Urbanisierung und Industrialisierung beeinflussen das Wachstum von urbaner Vegetation drastisch, welche als ein wesentlicher Teil des Lebensraums angesehen wird. Aus diesem Grund werden Aufgaben wie der Ökosystemüberwachung, der Verbesserung der Planung und des Managements von urbanen Regionen immer mehr Aufmerksamkeit geschenkt. Gleichermaßen hat die Erkennung und Modellierung von Bäumen im Stadtgebiet sowie die kontinuierliche Überprüfung ihrer Inventurparameter an Bedeutung gewonnen. Die steigende Nachfrage nach 3D-Gebäudemodellen, welche durch Fassadeninformation ergänzt wurden, und Informationen über einzelne Bäume im städtischen Raum erfordern effiziente Extraktions- und Rekonstruktionstechniken, die hochgradig automatisiert sind. In diesem Zusammenhang ist das Wissen über die geometrische Form jedes Objektteils ein wichtiger Aspekt. Heutzutage, wird das Mobile Laser Scanning (MLS) vermehrt eingesetzt um Objekte im städtischen Umfeld zu erfassen und es entwickelt sich zur Hauptquelle von Daten für die Modellierung von urbanen Objekten. Eine Vielzahl von Objekten wurde schon mit Daten von MLS rekonstruiert. Außerdem wurden bereits viele Methoden für die Verarbeitung von MLS-Daten mit dem Ziel urbane Objekte zu erkennen und zu rekonstruieren vorgeschlagen. Die 3D-Punkwolke einer städtischen Szene stellt eine große Menge von Messungen dar, die viele Objekte von verschiedener Größe umfasst, komplexe und unvollständige Strukturen sowie Löcher (Rauschen und Datenlücken) enthält und eine inhomogene Punktverteilung aufweist. Aus diesem Grund ist die Verarbeitung von MLS-Punktwolken im Hinblick auf die Extrahierung und Modellierung von wesentlichen und charakteristischen Fassadenstrukturen sowie Bäumen von großer Bedeutung. In der Arbeit werden zwei neue Methoden für die Rekonstruktion von Gebäudefassaden und die Extraktion von Bäumen aus MLS-Punktwolken vorgestellt, sowie ihre Anwendbarkeit in der städtischen Umgebung analysiert. Die erste Methode zielt auf die Rekonstruktion von Gebäudefassaden mit expliziter semantischer Information, wie beispielsweise Fenster, Türen, und Balkone. Die Rekonstruktion läuft vollautomatisch ab. Zu diesem Zweck werden einige Algorithmen vorgestellt, die auf dem Vorwissen über die geometrische Form und das Arrangement von Fassadenmerkmalen beruhen. Die initiale Klassifikation, mit welcher die Punkte in Objektpunkte und Bodenpunkte unterschieden werden, wird über eine lokale Höhenhistogrammanalyse zusammen mit einer planaren Region-Growing-Methode erzielt. Die Punkte, die als zugehörig zu Objekten klassifiziert werden, werden anschließend in Ebenen segmentiert, welche als Basiselemente der Merkmalserkennung angesehen werden können. Information über die Gebäudestruktur kann in Form von Regeln und Bedingungen erfasst werden, welche die wesentlichen Steuerelemente bei der Erkennung der Fassadenmerkmale und der Rekonstruktion des geometrischen Modells darstellen. Um Merkmale wie Fenster oder Türen zu erkennen, die sich an der Gebäudewand befinden, wurde eine löcherbasierte Methode implementiert. Einige Löcher, die durch Verdeckungen entstanden sind, können anschließend durch einen neuen regelbasierten Algorithmus eliminiert werden. Außenlinien der Merkmalsränder werden durch ein Polygon verbunden, welches das geometrische Modell repräsentiert, indem eine Methode angewendet wird, die auf geometrischen Primitiven basiert. Dabei werden die topologischen Relationen unter Beachtung des Vorwissens über die primitiven Formen analysiert. Mögliche Außenlinien können von den Kantenpunkten bestimmt werden, welche mit einer winkelbasierten Methode detektiert werden können. Wiederkehrende Muster und Ähnlichkeiten werden ausgenutzt um geometrische und topologische Ungenauigkeiten des rekonstruierten Modells zu korrigieren. Neben der Entwicklung des Schemas zur Rekonstruktion des 3D-Fassadenmodells, sind die Segmentierung einzelner Bäume und die Ableitung von Attributen der städtischen Bäume im Fokus der Untersuchung. Die zweite Methode zielt auf die Extraktion von individuellen Bäumen aus den Restpunktwolken. Vorwissen über Bäume, welches speziell auf urbane Regionen zugeschnitten ist, wird im Extraktionsprozess verwendet. Der formbasierte Ansatz zur Extraktion von Einzelbäumen besteht aus einer Reihe von Schritten. In jedem Schritt werden Objekte in Abhängigkeit ihrer geometrischen Merkmale gefunden. Stämme werden unter Ausnutzung der Hauptrichtung der Punktverteilung identifiziert. Dafür werden Punktsegmente gesucht, die einen Teil des Baumstamms repräsentieren. Das Ergebnis des Algorithmus sind segmentierte Bäume, welche genutzt werden können um genaue Informationen über die Größe und Position jedes einzelnen Baumes abzuleiten. Einige Beispiele der Ergebnisse werden in der Arbeit angeführt. Die Zuverlässigkeit der Algorithmen und der Methoden im Allgemeinen wurden unter Verwendung von drei Datensätzen, die mit verschiedenen Laserscannersystemen aufgenommen wurden, verifiziert. Die Untersuchung zeigt auch das Potential sowie die Einschränkungen der entwickelten Methoden wenn sie auf verschiedenen Datensätzen angewendet werden. Die Ergebnisse beider Methoden wurden quantitativ bewertet unter Verwendung einer Menge von Maßen, die die Qualität der Fassadenrekonstruktion und Baumextraktion betreffen wie Vollständigkeit und Genauigkeit. Die Genauigkeit der Fassadenrekonstruktion, der Baumstammdetektion, der Erfassung von Baumkronen, sowie ihre Einschränkungen werden diskutiert. Die Ergebnisse zeigen, dass MLS-Punktwolken geeignet sind um städtische Objekte detailreich zu dokumentieren und dass mit automatischen Rekonstruktionsmethoden genaue Messungen der wichtigsten Attribute der Objekte, wie Fensterhöhe und -breite, Flächen, Stammdurchmesser, Baumhöhe und Kronenfläche, erzielt werden können. Der gesamte Ansatz ist geeignet für die Rekonstruktion von Gebäudefassaden und für die korrekte Extraktion von Bäumen sowie ihre Unterscheidung zu anderen urbanen Objekten wie zum Beispiel Straßenschilder oder Leitpfosten. Aus diesem Grund sind die beiden Methoden angemessen um Daten von heterogener Qualität zu verarbeiten. Des Weiteren bieten sie flexible Frameworks für das viele Erweiterungen vorstellbar sind. / Up-to-date 3D urban models are becoming increasingly important in various urban application areas, such as urban planning, virtual tourism, and navigation systems. Many of these applications often demand the modelling of 3D buildings, enriched with façade information, and also single trees among other urban objects. Nowadays, Mobile Laser Scanning (MLS) technique is being progressively used to capture objects in urban settings, thus becoming a leading data source for the modelling of these two urban objects. The 3D point clouds of urban scenes consist of large amounts of data representing numerous objects with significant size variability, complex and incomplete structures, and holes (noise and data gaps) or variable point densities. For this reason, novel strategies on processing of mobile laser scanning point clouds, in terms of the extraction and modelling of salient façade structures and trees, are of vital importance. The present study proposes two new methods for the reconstruction of building façades and the extraction of trees from MLS point clouds. The first method aims at the reconstruction of building façades with explicit semantic information such as windows, doors and balconies. It runs automatically during all processing steps. For this purpose, several algorithms are introduced based on the general knowledge on the geometric shape and structural arrangement of façade features. The initial classification has been performed using a local height histogram analysis together with a planar growing method, which allows for classifying points as object and ground points. The point cloud that has been labelled as object points is segmented into planar surfaces that could be regarded as the main entity in the feature recognition process. Knowledge of the building structure is used to define rules and constraints, which provide essential guidance for recognizing façade features and reconstructing their geometric models. In order to recognise features on a wall such as windows and doors, a hole-based method is implemented. Some holes that resulted from occlusion could subsequently be eliminated by means of a new rule-based algorithm. Boundary segments of a feature are connected into a polygon representing the geometric model by introducing a primitive shape based method, in which topological relations are analysed taking into account the prior knowledge about the primitive shapes. Possible outlines are determined from the edge points detected from the angle-based method. The repetitive patterns and similarities are exploited to rectify geometrical and topological inaccuracies of the reconstructed models. Apart from developing the 3D façade model reconstruction scheme, the research focuses on individual tree segmentation and derivation of attributes of urban trees. The second method aims at extracting individual trees from the remaining point clouds. Knowledge about trees specially pertaining to urban areas is used in the process of tree extraction. An innovative shape based approach is developed to transfer this knowledge to machine language. The usage of principal direction for identifying stems is introduced, which consists of searching point segments representing a tree stem. The output of the algorithm is, segmented individual trees that can be used to derive accurate information about the size and locations of each individual tree. The reliability of the two methods is verified against three different data sets obtained from different laser scanner systems. The results of both methods are quantitatively evaluated using a set of measures pertaining to the quality of the façade reconstruction and tree extraction. The performance of the developed algorithms referring to the façade reconstruction, tree stem detection and the delineation of individual tree crowns as well as their limitations are discussed. The results show that MLS point clouds are suited to document urban objects rich in details. From the obtained results, accurate measurements of the most important attributes relevant to the both objects (building façades and trees), such as window height and width, area, stem diameter, tree height, and crown area are obtained acceptably. The entire approach is suitable for the reconstruction of building façades and for the extracting trees correctly from other various urban objects, especially pole-like objects. Therefore, both methods are feasible to cope with data of heterogeneous quality. In addition, they provide flexible frameworks, from which many extensions can be envisioned.
2

Untersuchungen zur Qualität und Genauigkeit von 3D-Punktwolken für die 3D-Objektmodellierung auf der Grundlage von terrestrischem Laserscanning und bildbasierten Verfahren / Investigations into the Quality and Accuracy of 3D Point Clouds for 3D Object Modelling on the Basis of Terrestrial Laser Scanning and Image-based Technology

Kersten, Thomas 09 January 2018 (has links) (PDF)
3D-Punktwolken haben die Objektvermessung in den letzten 25 Jahren signifikant verändert. Da Einzelpunktmessungen durch flächenhafte Messungen in Form von Punktwolken bei vielen Anwendungen ersetzt wurden, spricht man auch von einem Paradigmenwechsel in der Vermessung. Ermöglicht wurde diese Änderung in der Messmethodik durch die Innovationen im Instrumentenbau und die rasanten Entwicklungen der Computertechnologie. Luftgestützte und terrestrische Laserscanner sowie handgeführte 3D-Scanner liefern heute direkt dichte Punktwolken, während dichte 3D-Punkt-wolken aus Fotos bildbasierter Aufnahmesysteme indirekt abgeleitet werden, die zur detaillierten 3D-Objektrekonstruktion zunehmend eingesetzt werden. In dieser Arbeit werden Untersuchungen vorgestellt, mit denen das geometrische Genauigkeitsverhalten verschiedener scannender Messsysteme evaluiert und geprüft wurde. Während bei den untersuchten terrestrischen Laserscannern in den Untersuchungen die Genauigkeitsangaben (1 Sigma) der technischen Spezifikationen der Systemhersteller von 3-5 mm für den 3D-Punkt und die Distanzmessung eingehalten wurden, zeigten sich dagegen bei vielen untersuchten 3D-Handscannern signifikante Abweichungen gegenüber den technischen Spezifikationen. Diese festgestellten Abweichungen deuten auf eine gewisse geometrische Instabilität des jeweiligen Messsystems hin, die entweder durch die Bauweise und/oder durch eine ungenaue Systemkalibrierung (besonders hinsichtlich der Maßstäblichkeit) verursacht werden. Daher ist davon auszugehen, dass diese handgeführten 3D-Scanner offensichtlich erst am Anfang ihrer Entwicklungsphase stehen und dass noch genügend Optimierungspotential vorhanden ist. Als flexible und effiziente Alternativen zu den scannenden Messsystemen haben sich seit ca. 10 Jahren die bildbasierten Aufnahmesysteme zunehmend im Markt etabliert. Die in dieser Arbeit vorgestellten Untersuchungen des bildbasierten Aufnahme- und Auswertungsverfahren haben gezeigt, dass diese (mit Farbattributen versehene) 3D-Punktwolken, je nach Bildmaßstab und Oberflächenmaterial des Objektes, durchaus den Genauigkeiten der Laserscanner entsprechen. Gegenüber den Ergebnissen vieler 3D-Handscanner weisen die durch bildbasierte Aufnahmeverfahren generierten Punktwolken qualitativ bessere Resultate auf. Allerdings zeigte der Creaform HandySCAN 700, der auf einem photogrammetrischen Aufnahmeprinzip beruht, als einzige Ausnahme bei der handgeführten 3D-Scannern sehr gute Ergebnisse, die mit Durchschnittswerten besser als 30 Mikrometern sogar in den Bereichen der Referenzsysteme (hier Streifenprojektionssysteme) lagen. Die entwickelten Prüfverfahren und die entsprechenden durchgeführten Untersuchungen haben sich als praxistauglich erwiesen, da man auch unter zur Hilfenahme der VDI/VDE Richtlinie 2634 ver-gleichbare Ergebnisse erzielt, die dem praxisorientierten Anwender Aussagen über die Leistungsfä-higkeit des Messsystems erlauben. Bei den im statischen Modus erfassten Scans kommen noch Fehlereinflüsse durch die Registrierung der Scans hinzu, während bei kinematisch erfassten Scans die Genauigkeiten der verschiedenen (absoluten) Positionierungssensoren auf dem Fehlerhaushalt der Punktwolke addiert werden. Eine sorgfältige Systemkalibrierung der verschiedenen im kinematischen Modus arbeitenden Positionierungs- und Aufnahmesensoren des mobilen Multi-Sensor-Systems ermöglicht eine 3D-Punktgenauigkeit von ca. 3-5 cm, die unter guten Bedingungen mit höherwertigen Sensoren ggf. noch verbessert werden kann. Mit statischen Scans kann eine höhere Genauigkeit von besser als 1 cm für den 3D-Punkt erreicht werden, jedoch sind bei größeren aufzunehmenden Flächen mobile Aufnahmesysteme wesentlich effizienter. Die Anwendung definiert daher das zum Einsatz kommende Messverfahren. 3D-Punktwolken dienen als Grundlage für die Objektrekonstruktion auf verschiedenen Wegen: a) Engineering Modelling als generalisierte CAD-Konstruktion durch geometrische Primitive und b) Mesh Modelling durch Dreiecksvermaschung der Punktwolken zur exakten Oberflächenbeschreibung. Durch die Generalisierung bei der CAD-Konstruktion können sehr schnell Abweichungen vom Sollmaß von bis zu 10 cm (und größer) entstehen, allerdings werden durch die Anpassung auf geometrische Primitive eine signifikante Datenreduktion und eine topologische Strukturierung erreicht. Untersuchungen haben jedoch auch gezeigt, dass die Anzahl der Polygone bei der Dreiecksvermaschung je nach Oberflächenbeschaffenheit des Objektes auf 25% und sogar auf 10% der Originaldatenmenge bei intelligenter Ausdünnung (z.B. krümmungsbasiert) reduziert werden kann, ohne die visuelle und geometrische Qualität des Ergebnisses zu stark zu beeinträchtigen. Je nach Objektgröße können hier Abweichungen von unter einem Millimeter (z.B. bei archäologischen Fundstücken) bis zu 5 cm im Durchschnitt bei größeren Objekten erreicht werden. Heute können Punktwolken eine wichtige Grundlage zur Konstruktion der Umgebung für viele Virtual Reality Anwendungen bilden, bei denen die geometrische Genauigkeit der modellierten Objekte im Einzelfall keine herausragende Rolle spielt. / 3D point clouds have significantly changed the surveying of objects in the last 25 years. Since in many applications, the individual point measurements were replaced through area-based measurements in form of point clouds, a paradigm shift in surveying has been fulfilled. This change in measurement methodology was made possible with the rapid developments in instrument manufacturing and computer technology. Today, airborne and terrestrial laser scanners, as well as hand-held 3D scanners directly generate dense point clouds, while dense point clouds are indirectly derived from photos of image-based recording systems used for detailed 3D object reconstruction in almost any scale. In this work, investigations into the geometric accuracy of some of these scanning systems are pre-sented to document and evaluate their performance. While terrestrial laser scanners mostly met the accuracy specifications in the investigations, 3-5 mm for 3D points and distance measurements as defined in the technical specifications of the system manufacturer, significant differences are shown, however, by many tested hand-held 3D scanners. These observed deviations indicate a certain geometric instability of the measuring system, caused either by the construction/manufacturing and/or insufficient calibration (particularly with regard to the scale). It is apparent that most of the hand-held 3D scanners are at the beginning of the technical development, which still offers potential for optimization. The image-based recording systems have been increasingly accepted by the market as flexible and efficient alternatives to laser scanning systems for about ten years. The research of image-based recording and evaluation methods presented in this work has shown that these coloured 3D point clouds correspond to the accuracy of the laser scanner depending on the image scale and surface material of the object. Compared with the results of most hand-held 3D scanners, point clouds gen-erated by image-based recording techniques exhibit superior quality. However, the Creaform HandySCAN 700, based on a photogrammetric recording principle (stereo photogrammetry), shows as the solitary exception of the hand-held 3D scanners very good results with better than 30 micrometres on average, representing accuracies even in the range of the reference systems (here structured light projection systems). The developed test procedures and the corresponding investigations have been practically proven for both terrestrial and hand-held 3D scanners, since comparable results can be obtained using the VDI/VDE guidelines 2634, which allows statements about the performance of the tested scanning system for practice-oriented users. For object scans comprised of multiple single scan acquired in static mode, errors of the scan registration have to be added, while for scans collected in the kine-matic mode the accuracies of the (absolute) position sensors will be added on the error budget of the point cloud. A careful system calibration of various positioning and recording sensors of the mobile multi-sensor system used in kinematic mode allows a 3D point accuracy of about 3-5 cm, which if necessary can be improved with higher quality sensors under good conditions. With static scans an accuracy of better than 1 cm for 3D points can be achieved surpassing the potential of mobile recording systems, which are economically much more efficient if larger areas have to be scanned. The 3D point clouds are the basis for object reconstruction in two different ways: a) engineering modelling as generalized CAD construction through geometric primitives and b) mesh modelling by triangulation of the point clouds for the exact representation of the surface. Deviations up to 10 cm (and possibly higher) from the nominal value can be created very quickly through the generalization in the CAD construction, but on the other side a significant reduction of data and a topological struc-turing can be achieved by fitting the point cloud into geometric primitives. However, investigations have shown that the number of polygons can be reduced to 25% and even 10% of the original data in the mesh triangulation using intelligent polygon decimation algorithms (e.g. curvature based) depending on the surface characteristic of the object, without having too much impact on the visual and geometric quality of the result. Depending on the object size, deviations of less than one milli-metre (e.g. for archaeological finds) up to 5 cm on average for larger objects can be achieved. In the future point clouds can form an important basis for the construction of the environment for many virtual reality applications, where the visual appearance is more important than the perfect geometric accuracy of the modelled objects.
3

Photogrammetric techniques for across-scale soil erosion assessment

Eltner, Anette 01 November 2016 (has links) (PDF)
Soil erosion is a complex geomorphological process with varying influences of different impacts at different spatio-temporal scales. To date, measurement of soil erosion is predominantly realisable at specific scales, thereby detecting separate processes, e.g. interrill erosion contrary to rill erosion. It is difficult to survey soil surface changes at larger areal coverage such as field scale with high spatial resolution. Either net changes at the system outlet or remaining traces after the erosional event are usually measured. Thus, either quasi-point measurements are extrapolated to the corresponding area without knowing the actual sediment source as well as sediment storage behaviour on the plot or erosion rates are estimated disrupting the area of investigation during the data acquisition impeding multi-temporal assessment. Furthermore, established methods of soil erosion detection and quantification are typically only reliable for large event magnitudes, very labour and time intense, or inflexible. To better observe soil erosion processes at field scale and under natural conditions, the development of a method is necessary, which identifies and quantifies sediment sources and sinks at the hillslope with high spatial resolution and captures single precipitation events as well as allows for longer observation periods. Therefore, an approach is introduced, which measures soil surface changes for multi-spatio-temporal scales without disturbing the area of interest. Recent advances regarding techniques to capture high resolution topography (HiRT) data led to several promising tools for soil erosion measurement with corresponding advantages but also disadvantages. The necessity exists to evaluate those methods because they have been rarely utilised in soil surface studies. On the one hand, there is terrestrial laser scanning (TLS), which comprises high error reliability and retrieves 3D information directly. And on the other hand, there is unmanned aerial vehicle (UAV) technology in combination with structure from motion (SfM) algorithms resulting in UAV photogrammetry, which is very flexible in the field and depicts a beneficial perspective. Evaluation of the TLS feasibility reveals that this method implies a systematic error that is distance-related and temporal constant for the investigated device and can be corrected transferring calibration values retrieved from an estimated lookup table. However, TLS still reaches its application limits quickly due to an unfavourable (almost horizontal) scanning view at the soil surface resulting in a fast decrease of point density and increase of noise with increasing distance from the device. UAV photogrammetry allows for a better perspective (birds-eye view) onto the area of interest, but possesses more complex error behaviour, especially in regard to the systematic error of a DEM dome, which depends on the method for 3D reconstruction from 2D images (i.e. options for additional implementation of observations) and on the image network configuration (i.e. parallel-axes and control point configuration). Therefore, a procedure is developed that enables flexible usage of different cameras and software tools without the need of additional information or specific camera orientations and yet avoiding this dome error. Furthermore, the accuracy potential of UAV photogrammetry describing rough soil surfaces is assessed because so far corresponding data is missing. Both HiRT methods are used for multi-temporal measurement of soil erosion processes resulting in surface changes of low magnitudes, i.e. rill and especially interrill erosion. Thus, a reference with high accuracy and stability is a requirement. A local reference system with sub-cm and at its best 1 mm accuracy is setup and confirmed by control surveys. TLS and UAV photogrammetry data registration with these targets ensures that errors due to referencing are of minimal impact. Analysis of the multi-temporal performance of both HiRT methods affirms TLS to be suitable for the detection of erosion forms of larger magnitudes because of a level of detection (LoD) of 1.5 cm. UAV photogrammetry enables the quantification of even lower magnitude changes (LoD of 1 cm) and a reliable observation of the change of surface roughness, which is important for runoff processes, at field plots due to high spatial resolution (1 cm²). Synergetic data fusion as a subsequent post-processing step is necessary to exploit the advantages of both HiRT methods and potentially further increase the LoD. The unprecedented high level of information entails the need for automatic geomorphic feature extraction due to the large amount of novel content. Therefore, a method is developed, which allows for accurate rill extraction and rill parameter calculation with high resolution enabling new perspectives onto rill erosion that has not been possible before due to labour and area access limits. Erosion volume and cross sections are calculated for each rill revealing a dominant rill deepening. Furthermore, rill shifting in dependence of the rill orientation towards the dominant wind direction is revealed. Two field plots are installed at erosion prone positions in the Mediterranean (1,000 m²) and in the European loess belt (600 m²) to ensure the detection of surface changes, permitting the evaluation of the feasibility, potential and limits of TLS and UAV photogrammetry in soil erosion studies. Observations are made regarding sediment connectivity at the hillslope scale. Both HiRT methods enable the identification of local sediment sources and sinks, but still exhibiting some degree of uncertainty due to the comparable high LoD in regard to laminar accumulation and interrill erosion processes. At both field sites wheel tracks and erosion rills increase hydrological and sedimentological connectivity. However, at the Mediterranean field plot especially dis-connectivity is obvious. At the European loess belt case study a triggering event could be captured, which led to high erosion rates due to high soil moisture contents and yet further erosion increase due to rill amplification after rill incision. Estimated soil erosion rates range between 2.6 tha-1 and 121.5 tha-1 for single precipitation events and illustrate a large variability due to very different site specifications, although both case studies are located in fragile landscapes. However, the susceptibility to soil erosion has different primary causes, i.e. torrential precipitation at the Mediterranean site and high soil erodibility at the European loess belt site. The future capability of the HiRT methods is their potential to be applicable at yet larger scales. Hence, investigations of the importance of gullys for sediment connectivity between hillslopes and channels are possible as well as the possible explanation of different erosion rates observed at hillslope and at catchment scales because local sediment sink and sources can be quantified. In addition, HiRT data can be a great tool for calibrating, validating and enhancing soil erosion models due to the unprecedented level of detail and the flexible multi-spatio-temporal application.
4

Photogrammetrische Erfassung der Verformungs- und Rissentwicklung bei baumechanischen Untersuchungen / Application of photogrammetry for measuring deformations and cracks during load tests in civil engineering material testing

Hampel, Uwe 17 June 2008 (has links) (PDF)
Verfahren der digitalen Nahbereichsphotogrammetrie ermöglichen eine dreidimensionale Erfassung von Objekten und stellen damit interessante Lösungsansätze für Messaufgaben im Bautechnischen Mess- und Versuchswesen dar. Ihr Einsatz bietet bei einer Vielzahl baumechanischer Untersuchungen die Voraussetzung für eine kontinuierliche, zeitsynchrone Objektoberflächenerfassung bei kurz- und langzeitigen Belastungsversuchen im Labor und in situ. Die daraus resultierenden Möglichkeiten der kontinuierlichen Erfassung von Verformungs-, Riss- und Schädigungsentwicklungen an Objektoberflächen stellen für viele experimentelle Untersuchungen im Bauingenieurwesen eine signifikante Qualitätssteigerung dar, die mit klassischen Messtechniken – wie z. B. Dehnmessstreifen oder induktiven Wegaufnehmern – nur bedingt bzw. nicht realisiert werden kann. Um das Potential der digitalen Nahbereichsphotogrammetrie zur kontinuierlichen Erfassung der Verformungs-, Riss- und Schädigungsentwicklung an Objektoberflächen bei baumechanischen Untersuchungen erfassen zu können, wurden – aufbauend auf den bekannten Grundlagen und Lösungsansätzen – systematische Untersuchungen durchgeführt. Diese bildeten den Ausgangspunkt für den Einsatz photogrammetrischer Verfahren bei experimentellen Untersuchungen in den verschiedenen Teildisziplinen des Bauingenieurwesens, z. B. im Holz-, Massiv-, Mauerwerks-, Stahl- und Straßenbau. Die photogrammetrisch zu erfassenden Versuchsobjekte – einschließlich ihrer Veränderungen bei den Belastungsversuchen – waren dabei u. a. kleinformatige Prüfkörper und Baukonstruktionen aus den verschiedensten Materialien bzw. Verbundmaterialien. Bei den anwendungsorientierten Untersuchungen musste beachtet werden, dass aufgrund der z. T. sehr heterogenen Anforderungen und der zahlreichen Möglichkeiten, die beim Einsatz photogrammetrischer Verfahren denkbar waren, die Notwendigkeit der Auswahl und ggf. einer Weiter- bzw. Neuentwicklung geeigneter Systeme, effizienter Verfahren und optimaler Auswertealgorithmen der digitalen Nahbereichsphotogrammetrie bestand. In diesem Zusammenhang wurde mit der systematischen Zusammenstellung und Untersuchung relevanter Einflussgrößen begonnen. Diese waren oftmals durch die jeweiligen photogrammetrischen Messprozesse und Messaufgaben beeinflusst. Die Ergebnisse machen deutlich, dass die digitale Nahbereichsphotogrammetrie ein flexibel anwendbares Werkzeug für die Erfassung der Verformungs-, Riss- und Schädigungsentwicklung bei baumechanischen Untersuchungen darstellt. Spezielle Messaufgaben stellen im Bautechnischen Mess- und Versuchswesen oftmals sehr hohe Anforderungen an die Messgenauigkeit, die Robustheit und das Messvolumen. Sie erfordern optimierte Verfahren und führten im Zusammenhang mit der vorliegenden Arbeit zu einer Reihe von Lösungen, wie beispielsweise der 2.5D-Objekterfassung auf Basis der Dynamischen Projektiven Transformation oder der Objekterfassung mittels Spiegelphotogrammetrie. Im Hinblick auf die Objektsignalisierung wurde eine intensitätsbasierte Messmarke entwickelt. Diese ermöglicht besonders bei sehr hochgenauen Deformations- bzw. Dehnungsmessungen ein großes Genauigkeitspotential im Sub-Pixelbereich, das im 1/100 eines Pixels liegt. In Bezug auf die photogrammetrischen Auswerteprozesse wurden optimierte Bildzuordnungsverfahren implementiert, die beispielsweise eine Punkteinmessung von bis zu 60.000 Punkten pro Sekunde ermöglichen und eine Grundlage für die flächenhafte Rissanalyse darstellen. In Bezug auf die qualitative und quantitative Risserfassung wurden verschiedene Verfahren entwickelt. Diese ermöglichen z. B. die lastabhängige Erfassung der Rissposition und -breite in Messprofilen. In einem Messbereich von 100 mm x 100 mm konnten beispielsweise Verformungen mit einer Genauigkeit bis 1 µm und Rissbreiten ab 3 µm erfasst werden. Im Zusammenhang mit den zahlreichen anwendungsbezogenen Untersuchungen entstanden immer wieder Fragen hinsichtlich der Faktoren, die einen Einfluss auf den photogrammetrischen Messprozess im Bautechnischen Mess- und Versuchswesen ausüben. Aufgrund der zahlreichen Einflussgrößen, die als Steuer- bzw. Störgrößen eine mögliche Wirkung auf bauspezifische photogrammetrische Messprozesse ausüben können, wurde im Rahmen der vorliegenden Arbeit mit deren systematischer Zusammenstellung relevanter Einflussgrößen begonnen. Die Relevanz einzelner Einflussgrößen konnte durch Untersuchungen bereits bestätigt werden. Um eine ganzheitliche Bewertung aller relevanten Einflussgrößen aufgabenabhängig vornehmen zu können, wurde ein spezieller Versuchsstand entwickelt. Dieser ermöglicht eine vollautomatisierte systematische Untersuchung bauspezifischer photogrammetrischer Messprozesse unter definierten Versuchsbedingungen und dient dem systematischen Einsatz photogrammetrischer Verfahren im Bautechnischen Mess- und Versuchswesen hinsichtlich der Absicherung bestehender Messaufgaben, kann aber auch zu weiteren neuen und optimierten Messprozessen führen. / Methods of digital close range photogrammetry are a useful tool for the measurement of three-dimensional objects in civil engineering material testing. They are generally suitable for automatic measurements with chronological synchronism of object-surfaces during short and long time load tests in laboratories and in situ. The methods provide an opportunity for measuring deformations, cracks and damages at the object-surfaces during load tests in civil engineering material testing. These possibilities can present new results for a lot of applications in civil engineering material testing. Displacement and deformation measurements still rely on wire strain gauges or inductive displacement transducers. However, they are not suitable for a large number of measurement points or the detection of cracks during load tests. First of all, a number of systematic investigations was conducted. This was necessary to identify capable methods of the digital photogrammetry for the measuring of deformations, cracks and damages at object-surfaces during load tests in civil engineering material testing. These investigations laid the foundation for practical measurements during short and long time load tests of samples and constructions from different parts of the civil engineering (e.g. timber construction, solid structure, stell and road construction). The application-oriented research in civil engineering material testing demonstrates the wide range of demands on systems and methods of digital close range photogrammetry have to meet. Often the methods and systems of digital close range photogrammetry had to be modified or developed. In this context the systematic analysis of relevant determining factors was started.The results demonstrate that the methods and systems of digital close range photogrammetry are a suitable and flexible tool for the measurement of deformations, cracks and damages at the object-surfaces in civil engineering material testing. In addition, the special experiments in civil engineering material testing demonstrate the high requirements laid upon methods and systems of the digital closed range photogrammetry, for instance regarding with the measurement resolution/range and robustness processes. This was the motivation to optimize and to develop methods and systems for the special measurement tasks in civil engineering material testing, for instance a 2.5D measurement technique based on the Dynamic Projective Transformation (DPT) or the use of mirrors. Also a special measurement target was developed. This type of measurement target modifies intensities and is ideal for high deformation measurements (1/100 pixel). The large number of points in conjunction with area-based measurements require time-optimized methods for the analysis process. The modified and developed methods/programs enable fast analysis-processes, e.g. in conjunction with point-matching process 60.000 points per second.The developed crack-detection-methods allow area- and profile-based to analyze the load-dependent position and width of cracks, e.g. cracks > 3 µm (100 mm x 100 mm). A main target of this work was to compile all relevant determining factors regarding the application of the digital close range photogrammetry during load tests in civil engineering material testing. To a large extent, this target was reached. However, the compilation of all relevant determining factors requires a special experimental set-up. This experimental set-up was developed. In the future, it may enable the automatic research of all significant determining factors. The results can be used to qualify or optimize the established methods and processes. Also it's possible that the results generates new measurement processes.
5

Geometrische und stochastische Modelle für die integrierte Auswertung terrestrischer Laserscannerdaten und photogrammetrischer Bilddaten

Schneider, Danilo 07 September 2009 (has links) (PDF)
Terrestrische Laserscanner finden seit einigen Jahren immer stärkere Anwendung in der Praxis und ersetzen bzw. ergänzen bisherige Messverfahren, oder es werden neue Anwendungsgebiete erschlossen. Werden die Daten eines terrestrischen Laserscanners mit photogrammetrischen Bilddaten kombiniert, ergeben sich viel versprechende Möglichkeiten, weil die Eigenschaften beider Datentypen als weitestgehend komplementär angesehen werden können: Terrestrische Laserscanner erzeugen schnell und zuverlässig dreidimensionale Repräsentationen von Objektoberflächen von einem einzigen Aufnahmestandpunkt aus, während sich zweidimensionale photogrammetrische Bilddaten durch eine sehr gute visuelle Qualität mit hohem Interpretationsgehalt und hoher lateraler Genauigkeit auszeichnen. Infolgedessen existieren bereits zahlreiche Ansätze, sowohl software- als auch hardwareseitig, in denen diese Kombination realisiert wird. Allerdings haben die Bildinformationen bisher meist nur ergänzenden Charakter, beispielsweise bei der Kolorierung von Punktwolken oder der Texturierung von aus Laserscannerdaten erzeugten Oberflächenmodellen. Die konsequente Nutzung der komplementären Eigenschaften beider Sensortypen bietet jedoch ein weitaus größeres Potenzial. Aus diesem Grund wurde im Rahmen dieser Arbeit eine Berechnungsmethode – die integrierte Bündelblockausgleichung – entwickelt, bei dem die aus terrestrischen Laserscannerdaten und photogrammetrischen Bilddaten abgeleiteten Beobachtungen diskreter Objektpunkte gleichberechtigt Verwendung finden können. Diese Vorgehensweise hat mehrere Vorteile: durch die Nutzung der individuellen Eigenschaften beider Datentypen unterstützen sie sich gegenseitig bei der Bestimmung von 3D-Objektkoordinaten, wodurch eine höhere Genauigkeit erreicht werden kann. Alle am Ausgleichungsprozess beteiligten Daten werden optimal zueinander referenziert und die verwendeten Aufnahmegeräte können simultan kalibriert werden. Wegen des (sphärischen) Gesichtsfeldes der meisten terrestrischen Laserscanner von 360° in horizontaler und bis zu 180° in vertikaler Richtung bietet sich die Kombination mit Rotationszeilen-Panoramakameras oder Kameras mit Fisheye-Objektiv an, weil diese im Vergleich zu zentralperspektiven Kameras deutlich größere Winkelbereiche in einer Aufnahme abbilden können. Grundlage für die gemeinsame Auswertung terrestrischer Laserscanner- und photogrammetrischer Bilddaten ist die strenge geometrische Modellierung der Aufnahmegeräte. Deshalb wurde für terrestrische Laserscanner und verschiedene Kameratypen ein geometrisches Modell, bestehend aus einem Grundmodell und Zusatzparametern zur Kompensation von Restsystematiken, entwickelt und verifiziert. Insbesondere bei der Entwicklung des geometrischen Modells für Laserscanner wurden verschiedene in der Literatur beschriebene Ansätze berücksichtigt. Dabei wurde auch auf von Theodoliten und Tachymetern bekannte Korrekturmodelle zurückgegriffen. Besondere Bedeutung innerhalb der gemeinsamen Auswertung hat die Festlegung des stochastischen Modells. Weil verschiedene Typen von Beobachtungen mit unterschiedlichen zugrunde liegenden geometrischen Modellen und unterschiedlichen stochastischen Eigenschaften gemeinsam ausgeglichen werden, muss den Daten ein entsprechendes Gewicht zugeordnet werden. Bei ungünstiger Gewichtung der Beobachtungen können die Ausgleichungsergebnisse negativ beeinflusst werden. Deshalb wurde die integrierte Bündelblockausgleichung um das Verfahren der Varianzkomponentenschätzung erweitert, mit dem optimale Beobachtungsgewichte automatisch bestimmt werden können. Erst dadurch wird es möglich, das Potenzial der Kombination terrestrischer Laserscanner- und photogrammetrischer Bilddaten vollständig auszuschöpfen. Zur Berechnung der integrierten Bündelblockausgleichung wurde eine Software entwickelt, mit der vielfältige Varianten der algorithmischen Kombination der Datentypen realisiert werden können. Es wurden zahlreiche Laserscannerdaten, Panoramabilddaten, Fisheye-Bilddaten und zentralperspektive Bilddaten in mehreren Testumgebungen aufgenommen und unter Anwendung der entwickelten Software prozessiert. Dabei wurden verschiedene Berechnungsvarianten detailliert analysiert und damit die Vorteile und Einschränkungen der vorgestellten Methode demonstriert. Ein Anwendungsbeispiel aus dem Bereich der Geologie veranschaulicht das Potenzial des Algorithmus in der Praxis. / The use of terrestrial laser scanning has grown in popularity in recent years, and replaces and complements previous measuring methods, as well as opening new fields of application. If data from terrestrial laser scanners are combined with photogrammetric image data, this yields promising possibilities, as the properties of both types of data can be considered mainly complementary: terrestrial laser scanners produce fast and reliable three-dimensional representations of object surfaces from only one position, while two-dimensional photogrammetric image data are characterised by a high visual quality, ease of interpretation, and high lateral accuracy. Consequently there are numerous approaches existing, both hardware- and software-based, where this combination is realised. However, in most approaches, the image data are only used to add additional characteristics, such as colouring point clouds or texturing object surfaces generated from laser scanner data. A thorough exploitation of the complementary characteristics of both types of sensors provides much more potential. For this reason a calculation method – the integrated bundle adjustment – was developed within this thesis, where the observations of discrete object points derived from terrestrial laser scanner data and photogrammetric image data are utilised equally. This approach has several advantages: using the individual characteristics of both types of data they mutually strengthen each other in terms of 3D object coordinate determination, so that a higher accuracy can be achieved; all involved data sets are optimally co-registered; and each instrument is simultaneously calibrated. Due to the (spherical) field of view of most terrestrial laser scanners of 360° in the horizontal direction and up to 180° in the vertical direction, the integration with rotating line panoramic cameras or cameras with fisheye lenses is very appropriate, as they have a wider field of view compared to central perspective cameras. The basis for the combined processing of terrestrial laser scanner and photogrammetric image data is the strict geometric modelling of the recording instruments. Therefore geometric models, consisting of a basic model and additional parameters for the compensation of systematic errors, was developed and verified for terrestrial laser scanners and different types of cameras. Regarding the geometric laser scanner model, different approaches described in the literature were considered, as well as applying correction models known from theodolites and total stations. A particular consideration within the combined processing is the definition of the stochastic model. Since different types of observations with different underlying geometric models and different stochastic properties have to be adjusted simultaneously, adequate weights have to be assigned to the measurements. An unfavourable weighting can have a negative influence on the adjustment results. Therefore a variance component estimation procedure was implemented in the integrated bundle adjustment, which allows for an automatic determination of optimal observation weights. Hence, it becomes possible to exploit the potential of the combination of terrestrial laser scanner and photogrammetric image data completely. For the calculation of the integrated bundle adjustment, software was developed allowing various algorithmic configurations of the different data types to be applied. Numerous laser scanner, panoramic image, fisheye image and central perspective image data were recorded in different test fields and processed using the developed software. Several calculation alternatives were analysed, demonstrating the advantages and limitations of the presented method. An application example from the field of geology illustrates the potential of the algorithm in practice.
6

Automatic Retrieval of Skeletal Structures of Trees from Terrestrial Laser Scanner Data

Schilling, Anita 26 November 2014 (has links) (PDF)
Research on forest ecosystems receives high attention, especially nowadays with regard to sustainable management of renewable resources and the climate change. In particular, accurate information on the 3D structure of a tree is important for forest science and bioclimatology, but also in the scope of commercial applications. Conventional methods to measure geometric plant features are labor- and time-intensive. For detailed analysis, trees have to be cut down, which is often undesirable. Here, Terrestrial Laser Scanning (TLS) provides a particularly attractive tool because of its contactless measurement technique. The object geometry is reproduced as a 3D point cloud. The objective of this thesis is the automatic retrieval of the spatial structure of trees from TLS data. We focus on forest scenes with comparably high stand density and with many occlusions resulting from it. The varying level of detail of TLS data poses a big challenge. We present two fully automatic methods to obtain skeletal structures from scanned trees that have complementary properties. First, we explain a method that retrieves the entire tree skeleton from 3D data of co-registered scans. The branching structure is obtained from a voxel space representation by searching paths from branch tips to the trunk. The trunk is determined in advance from the 3D points. The skeleton of a tree is generated as a 3D line graph. Besides 3D coordinates and range, a scan provides 2D indices from the intensity image for each measurement. This is exploited in the second method that processes individual scans. Furthermore, we introduce a novel concept to manage TLS data that facilitated the researchwork. Initially, the range image is segmented into connected components. We describe a procedure to retrieve the boundary of a component that is capable of tracing inner depth discontinuities. A 2D skeleton is generated from the boundary information and used to decompose the component into sub components. A Principal Curve is computed from the 3D point set that is associated with a sub component. The skeletal structure of a connected component is summarized as a set of polylines. Objective evaluation of the results remains an open problem because the task itself is ill-defined: There exists no clear definition of what the true skeleton should be w.r.t. a given point set. Consequently, we are not able to assess the correctness of the methods quantitatively, but have to rely on visual assessment of results and provide a thorough discussion of the particularities of both methods. We present experiment results of both methods. The first method efficiently retrieves full skeletons of trees, which approximate the branching structure. The level of detail is mainly governed by the voxel space and therefore, smaller branches are reproduced inadequately. The second method retrieves partial skeletons of a tree with high reproduction accuracy. The method is sensitive to noise in the boundary, but the results are very promising. There are plenty of possibilities to enhance the method’s robustness. The combination of the strengths of both presented methods needs to be investigated further and may lead to a robust way to obtain complete tree skeletons from TLS data automatically. / Die Erforschung des ÖkosystemsWald spielt gerade heutzutage im Hinblick auf den nachhaltigen Umgang mit nachwachsenden Rohstoffen und den Klimawandel eine große Rolle. Insbesondere die exakte Beschreibung der dreidimensionalen Struktur eines Baumes ist wichtig für die Forstwissenschaften und Bioklimatologie, aber auch im Rahmen kommerzieller Anwendungen. Die konventionellen Methoden um geometrische Pflanzenmerkmale zu messen sind arbeitsintensiv und zeitaufwändig. Für eine genaue Analyse müssen Bäume gefällt werden, was oft unerwünscht ist. Hierbei bietet sich das Terrestrische Laserscanning (TLS) als besonders attraktives Werkzeug aufgrund seines kontaktlosen Messprinzips an. Die Objektgeometrie wird als 3D-Punktwolke wiedergegeben. Basierend darauf ist das Ziel der Arbeit die automatische Bestimmung der räumlichen Baumstruktur aus TLS-Daten. Der Fokus liegt dabei auf Waldszenen mit vergleichsweise hoher Bestandesdichte und mit zahlreichen daraus resultierenden Verdeckungen. Die Auswertung dieser TLS-Daten, die einen unterschiedlichen Grad an Detailreichtum aufweisen, stellt eine große Herausforderung dar. Zwei vollautomatische Methoden zur Generierung von Skelettstrukturen von gescannten Bäumen, welche komplementäre Eigenschaften besitzen, werden vorgestellt. Bei der ersten Methode wird das Gesamtskelett eines Baumes aus 3D-Daten von registrierten Scans bestimmt. Die Aststruktur wird von einer Voxelraum-Repräsentation abgeleitet indem Pfade von Astspitzen zum Stamm gesucht werden. Der Stamm wird im Voraus aus den 3D-Punkten rekonstruiert. Das Baumskelett wird als 3D-Liniengraph erzeugt. Für jeden gemessenen Punkt stellt ein Scan neben 3D-Koordinaten und Distanzwerten auch 2D-Indizes zur Verfügung, die sich aus dem Intensitätsbild ergeben. Bei der zweiten Methode, die auf Einzelscans arbeitet, wird dies ausgenutzt. Außerdem wird ein neuartiges Konzept zum Management von TLS-Daten beschrieben, welches die Forschungsarbeit erleichtert hat. Zunächst wird das Tiefenbild in Komponenten aufgeteilt. Es wird eine Prozedur zur Bestimmung von Komponentenkonturen vorgestellt, die in der Lage ist innere Tiefendiskontinuitäten zu verfolgen. Von der Konturinformation wird ein 2D-Skelett generiert, welches benutzt wird um die Komponente in Teilkomponenten zu zerlegen. Von der 3D-Punktmenge, die mit einer Teilkomponente assoziiert ist, wird eine Principal Curve berechnet. Die Skelettstruktur einer Komponente im Tiefenbild wird als Menge von Polylinien zusammengefasst. Die objektive Evaluation der Resultate stellt weiterhin ein ungelöstes Problem dar, weil die Aufgabe selbst nicht klar erfassbar ist: Es existiert keine eindeutige Definition davon was das wahre Skelett in Bezug auf eine gegebene Punktmenge sein sollte. Die Korrektheit der Methoden kann daher nicht quantitativ beschrieben werden. Aus diesem Grund, können die Ergebnisse nur visuell beurteiltwerden. Weiterhinwerden die Charakteristiken beider Methoden eingehend diskutiert. Es werden Experimentresultate beider Methoden vorgestellt. Die erste Methode bestimmt effizient das Skelett eines Baumes, welches die Aststruktur approximiert. Der Detaillierungsgrad wird hauptsächlich durch den Voxelraum bestimmt, weshalb kleinere Äste nicht angemessen reproduziert werden. Die zweite Methode rekonstruiert Teilskelette eines Baums mit hoher Detailtreue. Die Methode reagiert sensibel auf Rauschen in der Kontur, dennoch sind die Ergebnisse vielversprechend. Es gibt eine Vielzahl von Möglichkeiten die Robustheit der Methode zu verbessern. Die Kombination der Stärken von beiden präsentierten Methoden sollte weiter untersucht werden und kann zu einem robusteren Ansatz führen um vollständige Baumskelette automatisch aus TLS-Daten zu generieren.
7

Geometrische und stochastische Modelle zur Optimierung der Leistungsfähigkeit des Strömungsmessverfahrens 3D-PTV

Putze, Torsten 08 January 2009 (has links) (PDF)
Die 3D Particle Tracking Velocimetry (3D PTV) ist eine Methode zur bildbasierten Bestimmung von Geschwindigkeitsfeldern in Gas- oder Flüssigkeitsströmungen. Dazu wird die Strömung mit Partikeln markiert und durch ein Mehrkamerasystem beobachtet. Das Ergebnis der Datenauswertung sind 3D Trajektorien einer großen Anzahl von Partikeln, die zur statistischen Analyse der Strömung genutzt werden können. In der vorliegenden Arbeit werden verschiedene neu entwickelte Modelle gezeigt, die das Einsatzspektrum vergrößern und die Leistungsfähigkeit der 3D PTV erhöhen. Wesentliche Neuerungen sind der Einsatz eines Spiegelsystems zur Generierung eines virtuellen Kamerasystems, die Modellierung von komplex parametrisierten Trennflächen der Mehrmedienphotogrammetrie, eine wahrscheinlichkeitsbasierte Trackingmethode sowie eine neuartige Methode zur tomographischen Rekonstruktion von Rastervolumendaten. Die neuen Modelle sind an drei realen Experimentieranlagen und mit synthetischen Daten getestet worden. Durch den Einsatz eines Strahlteilers vor dem Objektiv einer einzelnen Kamera und vier Umlenkspiegeln, positioniert im weiteren Strahlengang, werden vier virtuelle Kameras generiert. Diese Methode zeichnet sich vor allem durch die Wirtschaftlichkeit als auch durch die nicht notwendige Synchronisation aus. Vor allem für die Anwendung im Hochgeschwindigkeitsbereich sind diese beiden Faktoren entscheidend. Bei der Beobachtung von Phänomenen in Wasser kommt es an den Trennflächen verschiedener Medien zur optischen Brechung. Diese muss für die weitere Auswertung zwingend modelliert werden. Für komplexe Trennflächen sind einfache Ansätze über zusätzliche Korrekturterme nicht praktikabel. Der entwickelte Ansatz basiert auf der mehrfachen Brechung jedes einzelnen Bildstrahls. Dazu müssen die Trennflächenparameter und die Kameraorientierungen im selben Koordinatensystem bekannt sein. Zumeist wird die Mehrbildzuordnung von Partikeln durch die Verwendung von Kernlinien realisiert. Auf Grund von instabilen Kameraorientierungen oder bei einer sehr hohen Partikeldichte sind diese geometrischen Eigenschaften nicht mehr ausreichend, um die Mehrbildzuordnung zu lösen. Unter der Ausnutzung weiterer geometrischer, radiometrischer und physikalischer Eigenschaften kann die Bestimmung der 3D Trajektorien dennoch durchgeführt werden. Dabei werden durch die Analyse verschiedener Merkmale diejenigen ausgewählt, welche sich für die spatio-temporale Zuordnung eignen. Die 3D PTV beruht auf der Diskretisierung der Partikelabbildungen im Bildraum und der anschließenden Objektkoordinatenbestimmung. Eine rasterbasierte Betrachtungsweise stellt die tomographische Rekonstruktion des Volumens dar. Hierbei wird die Intensitätsverteilung wird im Volumen rekonstruiert. Die Bewegungsinformationen werden im Anschluss aus den Veränderungen aufeinander folgender 3D-Bilder bestimmt. Durch dieses Verfahren können Strömungen mit einer höheren Partikeldichte im Volumen analysiert werden. Das entwickelte Verfahren basiert auf der schichtweisen Entzerrung und Zusammensetzung der Kamerabilder. Die entwickelten Modelle und Ansätze sind an verschiedenen Versuchsanlagen erprobt worden. Diese unterschieden sich stark in der Größe (0,5 dm³ – 20 dm³ – 130 m³) und den vorherrschenden Strömungsgeschwindigkeiten (0,3 m/s – 7 m/s – 0,5 m/s). / 3D Particle Tracking Velocimetry (3D PTV) is an image based method for flow field determination. It is based on seeding a flow with tracer particles and recording the flow with a multi camera system. The results are 3D trajectories of a large number of particles for a statistical analysis of the flow. The thesis shows different novel models to increase the spectrum of applications and to optimize efficiency of 3D PTV. Central aspects are the use of the mirror system to generate a virtual multi camera system, the modelling of complex interfaces of multimedia photogrammetry, a probability based tracking method and a novel method for tomographic reconstruction of volume raster data. The improved models are tested in three real testing facilities and with synthetic data. Using a beam splitter in front of the camera lens and deflecting mirrors arranged in the optical path, a four headed virtual camera system can be generated. This method is characterised by its economic efficiency and by the fact that a synchronisation is not necessary. These facts are important especially when using high speed cameras. When observing phenomena in water, there will be refraction at the different interfaces. This has to be taken into account and modelled for each application. Approaches which use correction terms are not suitable to handle complex optical interfaces. The developed approach is based on a multiple refraction ray tracing with known interface parameters and camera orientations. Mostly the multi image matching of particles is performed using epipolar geometry. Caused by the not stable camera orientation or a very high particle density this geometric properties are not sufficient to solve the ambiguities. Using further geometrical radiometrical and physical properties of particles, the determination of the 3D trajectories can be performed. After the analysis of different properties those of them are chosen which are suitable for spatio-temporal matching. 3D PTV bases on the discretisation of particle images in image space and the following object coordinate determination. A raster based approach is the tomographic reconstruction of the volume. Here the light intensity distribution in the volume will be reconstructed. Afterwards the flow information is determined from the differences in successive 3D images. Using tomographic reconstruction techniques a higher particle density can be analysed. The developed approach bases on a slice by slice rectification of the camera images and on a following assembly of the volume. The developed models and approaches are tested at different testing facilities. These differ in size (0.5 dm³ – 20 dm³ – 130 m³) and flow velocities (0.3 m/s – 7 m/s – 0.5 m/s).
8

An Approach to 3D Building Model Reconstruction from Airborne Laser Scanner Data Using Parameter Space Analysis and Fusion of Primitives / Eine Methode zur Rekonstruktion von 3D Gebäudemodellen aus Flugzeuglaserscannerdaten unter der Verwendung von Parameterräumen und der Fusion von Primitiven

Hofmann, Alexandra 05 August 2005 (has links) (PDF)
Within this work an approach was developed, which utilises airborne laser scanner data in order to generate 3D building models. These 3D building models may be used for technical and environmental planning. The approach has to follow certain requirements such as working automatically and robust and being flexible in use but still practicable. The approach starts with small point clouds containing one building at the time extracted from laser scanner data set by applying a pre-segmentation scheme. The laser scanner point cloud of each building is analysed separately. A 2.5D-Delaunay triangle mesh structure (TIN) is calculated into the laser scanner point cloud. For each triangle the orientation parameters in space (orientation, slope and perpendicular distance to the barycentre of the laser scanner point cloud) are determined and mapped into a parameter space. As buildings are composed of planar features, primitives, triangles representing these features should group in parameter space. A cluster analysis technique is utilised to find and outline these groups/clusters. The clusters found in parameter space represent plane objects in object space. Grouping adjacent triangles in object space - which represent points in parameter space - enables the interpolation of planes in the ALS points that form the triangles. In each cluster point group a plane in object space is interpolated. All planes derived from the data set are intersected with their appropriate neighbours. From this, a roof topology is established, which describes the shape of the roof. This ensures that each plane has knowledge on its direct adjacent neighbours. Walls are added to the intersected roof planes and the virtual 3D building model is presented in a file written in VRML (Virtual Reality Macro Language). Besides developing the 3D building model reconstruction scheme, this research focuses on the geometric reconstruction and the derivation of attributes of 3D building models. The developed method was tested on different data sets obtained from different laser scanner systems. This study will also show, which potential and limits the developed method has when applied to these different data sets. / In der vorliegenden Arbeit wird eine neue Methode zur automatischen Rekonstruktion von 3D Gebäudemodellen aus Flugzeuglaserscannerdaten vorgestellt. Diese 3D Gebäudemodelle können in technischer und landschaftsplanerischer Hinsicht genutzt werden. Bezüglich der zu entwickelnden Methode wurden Regelungen und Bedingungen erstellt, die eine voll automatische und robuste Arbeitsweise sowie eine flexible und praktikable Nutzung gewährleisten sollten. Die entwickelte Methode verwendet Punktwolken, welche mittels einer Vorsegmentierung aus dem gesamten Laserscannerdatensatz extrahiert wurden und jeweils nur ein Gebäude beinhalten. Diese Laserscannerdatenpunktwolken werden separat analysiert. Eine 2,5D-Delaunay-Dreiecksvermaschung (TIN) wird in jede Punktwolke gerechnet. Für jedes Dreieck dieser Vermaschung werden die Lageparameter im Raum (Ausrichtung, Neigungsgrad und senkrechter Abstand der Ebene des Dreiecks zum Schwerpunkt der Punktwolke) bestimmt und in einen Parameterraum aufgetragen. Im Parameterraum bilden diejenigen Dreiecke Gruppen, welche sich im Objektraum auf ebenen Flächen befinden. Mit der Annahme, dass sich ein Gebäude aus ebenen Flächen zusammensetzt, dient die Identifizierung von Clustern im Parameterraum der Detektierung dieser Flächen. Um diese Gruppen/Cluster aufzufinden wurde eine Clusteranalysetechnik genutzt. Über die detektierten Cluster können jene Laserscannerpunkte im Objektraum bestimmt werden, die eine Dachfläche formen. In die Laserscannerpunkte der somit gefundenen Dachflächen werden Ebenen interpoliert. Alle abgeleiteten Ebenen gehen in den entwickelten Rekonstruktionsalgorithmus ein, der eine Topologie zwischen den einzelnen Ebenen aufbaut. Anhand dieser Topologie erhalten die Ebenen ?Kenntnis? über ihre jeweiligen Nachbarn und können miteinander verschnitten werden. Der fertigen Dachgestalt werden Wände zugefügt und das komplette 3D Gebäudemodell wird mittels VRML (Virtual Reality Macro Language) visualisiert. Diese Studie bezieht sich neben der Entwicklung eines Schemas zu automatischen Gebäuderekonstruktion auch auf die Ableitung von Attributen der 3D Gebäudemodellen. Die entwickelte Methode wurde an verschiedenen Flugzeuglaserscannerdatensätzen getestet. Es wird gezeigt, welche Potentiale und Grenzen die entwickelte Methode bei der Bearbeitung dieser verschiedenen Laserscannerdatensätze hat.
9

Waldmonitoring unter besonderer Berücksichtigung der aus Stereoluftbildern abgeleiteten 3. Dimension

Sysavath, Vithoone 13 July 2009 (has links) (PDF)
Results of the investigation has been presented to derive digital elevation models of forest areas for the determination of the parallax measuring accuracy from AATE (Adaptive Automatic Terrian Extraction) with the PCI software Geomatica. It has been used the informations from the threefold overlaps of aerial stereoscopic pairs. The parallax measuring errors on forest areas are three times larger than on the arable and pasturelands. It has been shown that the third dimension can be used for the derivative of crown of tree profiles and their roughness and the rates of timber growth can be derived with sufficiently high accuracy from the repeatability flying.
10

Automatische Extraktion von 3D-Baumparametern aus terrestrischen Laserscannerdaten / Automatic extraction of 3D tree parameters from terrestrial laser scanner point clouds

Bienert, Anne 06 August 2013 (has links) (PDF)
Ein großes Anwendungsgebiet des Flugzeuglaserscannings ist in Bereichen der Forstwirtschaft und der Forstwissenschaft zu finden. Die Daten dienen flächendeckend zur Ableitung von digitalen Gelände- und Kronenmodellen, aus denen sich die Baumhöhe ableiten lässt. Aufgrund der Aufnahmerichtung aus der Luft lassen sich spezielle bodennahe Baumparameter wie Stammdurchmesser und Kronenansatzhöhe nur durch Modelle schätzen. Der Einsatz terrestrischer Laserscanner bietet auf Grund der hochauflösenden Datenakquisition eine gute Ergänzung zu den Flugzeuglaserscannerdaten. Inventurrelevante Baumparameter wie Brusthöhendurchmesser und Baumhöhe lassen sich ableiten und eine Verdichtung von digitalen Geländemodellen durch die terrestrisch erfassten Daten vornehmen. Aufgrund der dichten, dreidimensionalen Punktwolken ist ein hoher Dokumentationswert gegeben und eine Automatisierung der Ableitung der Geometrieparameter realisierbar. Um den vorhandenen Holzvorrat zu kontrollieren und zu bewirtschaften, werden in periodischen Zeitabständen Forstinventuren auf Stichprobenbasis durchgeführt. Geometrische Baumparameter, wie Baumhöhe, Baumposition und Brusthöhendurchmesser, werden gemessen und dokumentiert. Diese herkömmliche Erfassung ist durch einen hohen Arbeits- und Zeitaufwand gekennzeichnet. Aus diesem Grund wurden im Rahmen dieser Arbeit Algorithmen entwickelt, die eine automatische Ableitung der geometrischen Baumparameter aus terrestrischen Laserscannerpunktwolken ermöglichen. Die Daten haben neben der berührungslosen und lichtunabhängigen Datenaufnahme den Vorteil einer objektiven und schnellen Parameterbestimmung. Letztendlich wurden die Algorithmen in einem Programm zusammengefasst, das neben der Baumdetektion eine Bestimmung der wichtigsten Parameter in einem Schritt realisiert. An Datensätzen von drei verschiedenen Studiengebieten werden die Algorithmen getestet und anhand manuell gewonnener Baumparameter validiert. Aufgrund der natürlich gewachsenen Vegetationsstruktur sind bei Aufnahmen von einem Standpunkt gerade im Kronenraum Abschattungen vorhanden. Durch geeignete Scankonfigurationen können diese Abschattungen minimiert, allerdings nicht vollständig umgangen werden. Zusätzlich ist der Prozess der Registrierung gerade im Wald mit einem zeitlichen Aufwand verbunden. Die größte Schwierigkeit besteht in der effizienten Verteilung der Verknüpfungspunkte bei dichter Bodenvegetation. Deshalb wird ein Ansatz vorgestellt, der eine Registrierung über die berechneten Mittelpunkte der Brusthöhendurchmesser durchführt. Diese Methode verzichtet auf künstliche Verknüpfungspunkte und setzt Mittelpunkte von identischen Stammabschnitten in beiden Datensätzen voraus. Dennoch ist die größte Unsicherheit in der Z-Komponente der Translation zu finden. Eine Methode unter Verwendung der Lage der Baumachsen sowie mit einem identischen Verknüpfungspunkt führt zu besseren Ergebnissen, da die Datensätze an dem homologen Punkt fixiert werden. Anhand eines Studiengebietes werden die Methoden mit den herkömmlichen Registrierungsverfahren über homologe Punkte verglichen und analysiert. Eine Georeferenzierung von terrestrischen Laserscannerpunktwolken von Waldbeständen ist aufgrund der Signalabschattung der Satellitenpositionierungssysteme nur bedingt und mit geringer Genauigkeit möglich. Deshalb wurde ein Ansatz entwickelt, um Flugzeuglaserscannerdaten mit terrestrischen Punktwolken allein über die Kenntnis der Baumposition und des vorliegenden digitalen Geländemodells zu verknüpfen und zusätzlich das Problem der Georeferenzierung zu lösen. Dass ein terrestrischer Laserscanner nicht nur für Forstinventuren gewinnbringend eingesetzt werden kann, wird anhand von drei verschiedenen Beispielen beleuchtet. Neben der Ableitung von statischen Verformungsstrukturen an Einzelbäumen werden beispielsweise auch die Daten zur Bestimmung von Vegetationsmodellen auf Basis von Gitterstrukturen (Voxel) zur Simulation von turbulenten Strömungen in und über Waldbeständen eingesetzt. Das aus Laserscannerdaten abgeleitete Höhenbild einer Rinde führt unter Verwendung von Bildverarbeitungsmethoden (Texturanalyse) zur Klassifizierung der Baumart. Mit dem terrestrischen Laserscanning ist ein interessantes Werkzeug für den Einsatz im Forst gegeben. Bestehende Konzepte der Forstinventur können erweiterte werden und es eröffnen sich neue Felder in forstwirtschaftlichen und forstwissenschaftlichen Anwendungen, wie beispielsweise die Nutzung eines Scanners auf einem Harvester während des Erntevorganges. Mit der stetigen Weiterentwicklung der Laserscannertechnik hinsichtlich Gewicht, Reichweite und Geschwindigkeit wird der Einsatz im Forst immer attraktiver. / An important application field of airborne laser scanning is forestry and the science of forestry. The captured data serve as an area-wide determination of digital terrain and canopy models, with a derived tree height. Due to the nadir recording direction, near-ground tree parameters, such as diameter at breast height (dbh) and crown base height, are predicted using forest models. High resolution terrestrial laser scanner data complements the airborne laser scanner data. Forest inventory parameters, such as dbh and tree height can be derived directly and digital terrain models are created. As a result of the dense three dimensional point clouds captured, a high level of detail exists, and a high degree of automation of the determination of the parameters is possible. To control and manage the existing stock of wood, forest inventories are carried out at periodic time intervals, on the base of sample plots. Geometric tree parameters, such as tree height, tree position and dbh are measured and documented. This conventional data acquisition is characterised by a large amount of work and time. Because of this, algorithms are developed to automatically determine geometric tree parameters from terrestrial laser scanner point clouds. The data acquisition enables an objective and fast determination of parameters, remotely, and independent of light conditions. Finally the majority of the algorithms are combined into a single program, allowing tree detection and the determination of relevant parameters in one step. Three different sample plots are used to test the algorithms. Manually measured tree parameters are also used to validate the algorithms. The natural vegetation structure causes occlusions inside the crown when scanning from one position. These scan shadows can be minimized, though not completely avoided, via an appropriate scan configuration. Additional the registration process in forest scenes is time-consuming. The largest problem is to find a suitable distribution of tie points when dense ground vegetation exists. Therefore an approach is introduced that allows data registration with the determined centre points of the dbh. The method removes the need for artificial tie points. However, the centre points of identical stem sections in both datasets are assumed. Nevertheless the biggest uncertainness is found in the Z co-ordinate of the translation. A method using the tree axes and one homologous tie point, which fixes the datasets, shows better results. The methods are compared and analysed with the traditional registration process with tie points, using a single study area. Georeferencing of terrestrial laser scanner data in forest stands is problematic, due to signal shadowing of global navigation satellite systems. Thus an approach was developed to register airborne and terrestrial laser scanner data, taking the tree positions and the available digital terrain model. With the help of three examples the benefits of applying laser scanning to forest applications is shown. Besides the derivation of static deformation structures of single trees, the data is used to determine vegetation models on the basis of a grid structure (voxel space) for simulation of turbulent flows in and over forest stands. In addition, the derived height image of tree bark using image processing methods (texture analysis) can be used to classify the tree species. Terrestrial laser scanning is a valuable tool for forest applications. Existing inventory concepts can be enlarged, and new fields in forestry and the science of forestry are established, e. g. the application of scanners on a harvester. Terrestrial laser scanners are becoming increasingly important for forestry applications, caused by continuous technological enhancements that reduce the weight, whilst increasing the range and the data rate.

Page generated in 0.0394 seconds