Spelling suggestions: "subject:"punktwolken""
11 |
Untersuchungen zur Qualität und Genauigkeit von 3D-Punktwolken für die 3D-Objektmodellierung auf der Grundlage von terrestrischem Laserscanning und bildbasierten VerfahrenKersten, Thomas 17 November 2017 (has links)
3D-Punktwolken haben die Objektvermessung in den letzten 25 Jahren signifikant verändert. Da Einzelpunktmessungen durch flächenhafte Messungen in Form von Punktwolken bei vielen Anwendungen ersetzt wurden, spricht man auch von einem Paradigmenwechsel in der Vermessung. Ermöglicht wurde diese Änderung in der Messmethodik durch die Innovationen im Instrumentenbau und die rasanten Entwicklungen der Computertechnologie. Luftgestützte und terrestrische Laserscanner sowie handgeführte 3D-Scanner liefern heute direkt dichte Punktwolken, während dichte 3D-Punkt-wolken aus Fotos bildbasierter Aufnahmesysteme indirekt abgeleitet werden, die zur detaillierten 3D-Objektrekonstruktion zunehmend eingesetzt werden.
In dieser Arbeit werden Untersuchungen vorgestellt, mit denen das geometrische Genauigkeitsverhalten verschiedener scannender Messsysteme evaluiert und geprüft wurde. Während bei den untersuchten terrestrischen Laserscannern in den Untersuchungen die Genauigkeitsangaben (1 Sigma) der technischen Spezifikationen der Systemhersteller von 3-5 mm für den 3D-Punkt und die Distanzmessung eingehalten wurden, zeigten sich dagegen bei vielen untersuchten 3D-Handscannern signifikante Abweichungen gegenüber den technischen Spezifikationen. Diese festgestellten Abweichungen deuten auf eine gewisse geometrische Instabilität des jeweiligen Messsystems hin, die entweder durch die Bauweise und/oder durch eine ungenaue Systemkalibrierung (besonders hinsichtlich der Maßstäblichkeit) verursacht werden. Daher ist davon auszugehen, dass diese handgeführten 3D-Scanner offensichtlich erst am Anfang ihrer Entwicklungsphase stehen und dass noch genügend Optimierungspotential vorhanden ist.
Als flexible und effiziente Alternativen zu den scannenden Messsystemen haben sich seit ca. 10 Jahren die bildbasierten Aufnahmesysteme zunehmend im Markt etabliert. Die in dieser Arbeit vorgestellten Untersuchungen des bildbasierten Aufnahme- und Auswertungsverfahren haben gezeigt, dass diese (mit Farbattributen versehene) 3D-Punktwolken, je nach Bildmaßstab und Oberflächenmaterial des Objektes, durchaus den Genauigkeiten der Laserscanner entsprechen. Gegenüber den Ergebnissen vieler 3D-Handscanner weisen die durch bildbasierte Aufnahmeverfahren generierten Punktwolken qualitativ bessere Resultate auf. Allerdings zeigte der Creaform HandySCAN 700, der auf einem photogrammetrischen Aufnahmeprinzip beruht, als einzige Ausnahme bei der handgeführten 3D-Scannern sehr gute Ergebnisse, die mit Durchschnittswerten besser als 30 Mikrometern sogar in den Bereichen der Referenzsysteme (hier Streifenprojektionssysteme) lagen.
Die entwickelten Prüfverfahren und die entsprechenden durchgeführten Untersuchungen haben sich als praxistauglich erwiesen, da man auch unter zur Hilfenahme der VDI/VDE Richtlinie 2634 ver-gleichbare Ergebnisse erzielt, die dem praxisorientierten Anwender Aussagen über die Leistungsfä-higkeit des Messsystems erlauben. Bei den im statischen Modus erfassten Scans kommen noch Fehlereinflüsse durch die Registrierung der Scans hinzu, während bei kinematisch erfassten Scans die Genauigkeiten der verschiedenen (absoluten) Positionierungssensoren auf dem Fehlerhaushalt der Punktwolke addiert werden. Eine sorgfältige Systemkalibrierung der verschiedenen im kinematischen Modus arbeitenden Positionierungs- und Aufnahmesensoren des mobilen Multi-Sensor-Systems ermöglicht eine 3D-Punktgenauigkeit von ca. 3-5 cm, die unter guten Bedingungen mit höherwertigen Sensoren ggf. noch verbessert werden kann. Mit statischen Scans kann eine höhere Genauigkeit von besser als 1 cm für den 3D-Punkt erreicht werden, jedoch sind bei größeren aufzunehmenden Flächen mobile Aufnahmesysteme wesentlich effizienter. Die Anwendung definiert daher das zum Einsatz kommende Messverfahren.
3D-Punktwolken dienen als Grundlage für die Objektrekonstruktion auf verschiedenen Wegen: a) Engineering Modelling als generalisierte CAD-Konstruktion durch geometrische Primitive und b) Mesh Modelling durch Dreiecksvermaschung der Punktwolken zur exakten Oberflächenbeschreibung. Durch die Generalisierung bei der CAD-Konstruktion können sehr schnell Abweichungen vom Sollmaß von bis zu 10 cm (und größer) entstehen, allerdings werden durch die Anpassung auf geometrische Primitive eine signifikante Datenreduktion und eine topologische Strukturierung erreicht. Untersuchungen haben jedoch auch gezeigt, dass die Anzahl der Polygone bei der Dreiecksvermaschung je nach Oberflächenbeschaffenheit des Objektes auf 25% und sogar auf 10% der Originaldatenmenge bei intelligenter Ausdünnung (z.B. krümmungsbasiert) reduziert werden kann, ohne die visuelle und geometrische Qualität des Ergebnisses zu stark zu beeinträchtigen. Je nach Objektgröße können hier Abweichungen von unter einem Millimeter (z.B. bei archäologischen Fundstücken) bis zu 5 cm im Durchschnitt bei größeren Objekten erreicht werden. Heute können Punktwolken eine wichtige Grundlage zur Konstruktion der Umgebung für viele Virtual Reality Anwendungen bilden, bei denen die geometrische Genauigkeit der modellierten Objekte im Einzelfall keine herausragende Rolle spielt.:Erklärung I
Kurzfassung II
Inhaltsverzeichnis V
1. Einführung 1
1.1. Struktur der Arbeit 2
1.2. Punktwolken durch scannende Systeme 4
1.2.1. Technische Spezifikationen terrestrischer Laserscanner 4
1.2.2. Untersuchungen terrestrischer Laserscanner 6
1.2.3. Untersuchungen handgeführter 3D-Scanner 9
1.3. Geometrische Objektmodellierung auf Basis von Punktwolken statischer Scans 10
1.3.1. Automation in der geometrischen Objektmodellierung auf Basis von Punktwolken 11
1.3.2. Engineering Modelling – Objektrekonstruktion mithilfe geometrischer Primitive im CAD 12
1.3.3. Mesh Modelling – Objektrekonstruktion durch Dreiecksvermaschung 17
1.4. Geometrische Objektmodellierung auf Basis von Punktwolken kinematischer Scans 18
1.5. Punktwolken durch photogrammetrische Verfahren 22
2. Genauigkeitsuntersuchungen 25
2.1. Terrestrische Laserscanner 25
2.2. Handgeführte 3D-Scanner 41
3. Objektmodellierung auf Basis statischer Scans 55
3.1. Objektmodellierung durch CAD 55
3.2. Objektmodellierung durch Dreiecksvermaschung 72
4. Objektmodellierung auf Basis kinematischer Scans 85
4.1. Landbasiertes kinematisches Scanning 85
4.2. Wasserbasiertes kinematisches Scanning (Bonus-Artikel) 103
5. Alternative Verfahren für die Generierung von Punktwolken 111
6. Fazit und Ausblick 126
7. Literatur 135 / 3D point clouds have significantly changed the surveying of objects in the last 25 years. Since in many applications, the individual point measurements were replaced through area-based measurements in form of point clouds, a paradigm shift in surveying has been fulfilled. This change in measurement methodology was made possible with the rapid developments in instrument manufacturing and computer technology. Today, airborne and terrestrial laser scanners, as well as hand-held 3D scanners directly generate dense point clouds, while dense point clouds are indirectly derived from photos of image-based recording systems used for detailed 3D object reconstruction in almost any scale.
In this work, investigations into the geometric accuracy of some of these scanning systems are pre-sented to document and evaluate their performance. While terrestrial laser scanners mostly met the accuracy specifications in the investigations, 3-5 mm for 3D points and distance measurements as defined in the technical specifications of the system manufacturer, significant differences are shown, however, by many tested hand-held 3D scanners. These observed deviations indicate a certain geometric instability of the measuring system, caused either by the construction/manufacturing and/or insufficient calibration (particularly with regard to the scale). It is apparent that most of the hand-held 3D scanners are at the beginning of the technical development, which still offers potential for optimization.
The image-based recording systems have been increasingly accepted by the market as flexible and efficient alternatives to laser scanning systems for about ten years. The research of image-based recording and evaluation methods presented in this work has shown that these coloured 3D point clouds correspond to the accuracy of the laser scanner depending on the image scale and surface material of the object. Compared with the results of most hand-held 3D scanners, point clouds gen-erated by image-based recording techniques exhibit superior quality. However, the Creaform HandySCAN 700, based on a photogrammetric recording principle (stereo photogrammetry), shows as the solitary exception of the hand-held 3D scanners very good results with better than 30 micrometres on average, representing accuracies even in the range of the reference systems (here structured light projection systems).
The developed test procedures and the corresponding investigations have been practically proven for both terrestrial and hand-held 3D scanners, since comparable results can be obtained using the VDI/VDE guidelines 2634, which allows statements about the performance of the tested scanning system for practice-oriented users. For object scans comprised of multiple single scan acquired in static mode, errors of the scan registration have to be added, while for scans collected in the kine-matic mode the accuracies of the (absolute) position sensors will be added on the error budget of the point cloud. A careful system calibration of various positioning and recording sensors of the mobile multi-sensor system used in kinematic mode allows a 3D point accuracy of about 3-5 cm, which if necessary can be improved with higher quality sensors under good conditions. With static scans an accuracy of better than 1 cm for 3D points can be achieved surpassing the potential of mobile recording systems, which are economically much more efficient if larger areas have to be scanned.
The 3D point clouds are the basis for object reconstruction in two different ways: a) engineering modelling as generalized CAD construction through geometric primitives and b) mesh modelling by triangulation of the point clouds for the exact representation of the surface. Deviations up to 10 cm (and possibly higher) from the nominal value can be created very quickly through the generalization in the CAD construction, but on the other side a significant reduction of data and a topological struc-turing can be achieved by fitting the point cloud into geometric primitives. However, investigations have shown that the number of polygons can be reduced to 25% and even 10% of the original data in the mesh triangulation using intelligent polygon decimation algorithms (e.g. curvature based) depending on the surface characteristic of the object, without having too much impact on the visual and geometric quality of the result. Depending on the object size, deviations of less than one milli-metre (e.g. for archaeological finds) up to 5 cm on average for larger objects can be achieved. In the future point clouds can form an important basis for the construction of the environment for many virtual reality applications, where the visual appearance is more important than the perfect geometric accuracy of the modelled objects.:Erklärung I
Kurzfassung II
Inhaltsverzeichnis V
1. Einführung 1
1.1. Struktur der Arbeit 2
1.2. Punktwolken durch scannende Systeme 4
1.2.1. Technische Spezifikationen terrestrischer Laserscanner 4
1.2.2. Untersuchungen terrestrischer Laserscanner 6
1.2.3. Untersuchungen handgeführter 3D-Scanner 9
1.3. Geometrische Objektmodellierung auf Basis von Punktwolken statischer Scans 10
1.3.1. Automation in der geometrischen Objektmodellierung auf Basis von Punktwolken 11
1.3.2. Engineering Modelling – Objektrekonstruktion mithilfe geometrischer Primitive im CAD 12
1.3.3. Mesh Modelling – Objektrekonstruktion durch Dreiecksvermaschung 17
1.4. Geometrische Objektmodellierung auf Basis von Punktwolken kinematischer Scans 18
1.5. Punktwolken durch photogrammetrische Verfahren 22
2. Genauigkeitsuntersuchungen 25
2.1. Terrestrische Laserscanner 25
2.2. Handgeführte 3D-Scanner 41
3. Objektmodellierung auf Basis statischer Scans 55
3.1. Objektmodellierung durch CAD 55
3.2. Objektmodellierung durch Dreiecksvermaschung 72
4. Objektmodellierung auf Basis kinematischer Scans 85
4.1. Landbasiertes kinematisches Scanning 85
4.2. Wasserbasiertes kinematisches Scanning (Bonus-Artikel) 103
5. Alternative Verfahren für die Generierung von Punktwolken 111
6. Fazit und Ausblick 126
7. Literatur 135
|
12 |
Automatisierte Bestimmung von Schüttgutvolumen aus PunktwolkenRosenbohm, Mario 03 June 2020 (has links)
Ziel dieser Diplomarbeit ist es, eine Software zu entwickeln, welche den Benutzer bei der Volumenberechnung aus Punktwolken unterstützt.
Dazu werden verschiedene Methoden diskutiert, mit deren Hilfe eine Trennung der Punktwolke in zwei Klassen ('gehört zur Volumenoberfläche' und 'gehört nicht zur Volumenoberfläche') möglich ist. Eine Methode stellt sich, unter bestimmten Bedingungen, als geeignet dar. Mit dieser Methode lässt sich die geforderte Klassifizierung effizient durchführen.
Weiterhin gilt es, für die eigentliche Volumenberechnung, Methoden zu analysieren und auf deren Tauglichkeit für die Anwendung in der Punktwolke zu prüfen. Aus diesen Ergebnissen wird ein Verfahren zur Klassifizierung der Scanpunkte und direkt anschließender Volumenmodellerstellung erarbeitet.
Die Darstellung des Volumens ist an vorgegebene Rahmenbedingungen, das Verwenden einer bestimmten CAD-Software, gebunden. Mit Hilfe dieser CAD-Software ist eine Darstellungsvariante zu wählen, welche ein zügiges Arbeiten mit dem Volumenmodell ermöglicht.
Alle Verfahren und Methoden, einschließlich der dabei auftretenden Probleme werden in Programmcode umgesetzt, damit am Ende eine funktionsfähige, unterstützende Software entsteht.:1 Einleitung
1.1 Thesen / Fragen
1.2 Literatur
1.3 Abgrenzung
2 Grundlagen
2.1 Rahmenbedingungen
2.2 Struktur des Programmierprojektes
2.2.1 Speicherung von Einstellungen / Parametern
2.3 Datengrundlage
2.3.1 Dateiformate der Punktwolkendateien
3 Filterung der Punktwolke
3.1 Das Voxelsystem
3.1.1 Programmierung des Voxelsystems
3.1.2 Speicherung der Voxeldaten
3.2 Filterung mit Hilfe des Voxelsystem
4 Volumenberechnungen
4.1 Erläuterung der verwendeten Säulenprismen
4.1.1 Rasterung der Grundfläche
4.1.2 Umsetzung des Texelsystems als Quadtree
4.2 Einsatz des Texelsystem in der Volumenberechnung
4.2.1 Speicherung der Volumendaten
4.3 Darstellung der Volumendaten
5 Bearbeitungen der Volumendaten
5.1 Füllen von Löchern in der Volumenfläche
5.2 Glätten von Bereichen
6 Die Software in Gänze betrachtet
6.1 Analyse der Effektivität
6.2 Ausblick und Ausbau / The intention of this thesis is to develop a software which supports the user in calculating volumes from point clouds.
For this purpose, different methods are discussed that allow a separation of the point cloud into two classes (i.e. 'belongs to the volume surface' and 'does not belong to the volume surface'). One method is shown to be suitable under certain conditions. With this method, the required classification can be carried out efficiently.
Furthermore, methods for the volume calculation itself are analyzed and tested to ensure that they are suitable for use in the point cloud. Based on these results, a method for the classification of the scan points and the ensuing generation of the volume model are developed.
The representation of the volume is bound to given framework conditions, including the use of a specific CAD software. With the help of this CAD software, a representation variant is to be selected which enables a user to easily work with the volume model.
All procedures and methods, including the problems that arise in the process, are converted into program code, so that in the end a functional, helpful software is created.:1 Einleitung
1.1 Thesen / Fragen
1.2 Literatur
1.3 Abgrenzung
2 Grundlagen
2.1 Rahmenbedingungen
2.2 Struktur des Programmierprojektes
2.2.1 Speicherung von Einstellungen / Parametern
2.3 Datengrundlage
2.3.1 Dateiformate der Punktwolkendateien
3 Filterung der Punktwolke
3.1 Das Voxelsystem
3.1.1 Programmierung des Voxelsystems
3.1.2 Speicherung der Voxeldaten
3.2 Filterung mit Hilfe des Voxelsystem
4 Volumenberechnungen
4.1 Erläuterung der verwendeten Säulenprismen
4.1.1 Rasterung der Grundfläche
4.1.2 Umsetzung des Texelsystems als Quadtree
4.2 Einsatz des Texelsystem in der Volumenberechnung
4.2.1 Speicherung der Volumendaten
4.3 Darstellung der Volumendaten
5 Bearbeitungen der Volumendaten
5.1 Füllen von Löchern in der Volumenfläche
5.2 Glätten von Bereichen
6 Die Software in Gänze betrachtet
6.1 Analyse der Effektivität
6.2 Ausblick und Ausbau
|
13 |
Multi-view point cloud fusion for LiDAR based cooperative environment detectionJähn, Benjamin, Lindner, Philipp, Wanielik, Gerd 11 November 2015 (has links) (PDF)
A key component for automated driving is 360◦ environment detection. The recognition capabilities of mod- ern sensors are always limited to their direct field of view. In urban areas a lot of objects occlude important areas of in- terest. The information captured by another sensor from an- other perspective could solve such occluded situations. Fur- thermore, the capabilities to detect and classify various ob- jects in the surrounding can be improved by taking multiple views into account. In order to combine the data of two sensors into one co- ordinate system, a rigid transformation matrix has to be de- rived. The accuracy of modern e.g. satellite based relative pose estimation systems is not sufficient to guarantee a suit- able alignment. Therefore, a registration based approach is used in this work which aligns the captured environment data of two sensors from different positions. Thus their relative pose estimation obtained by traditional methods is improved and the data can be fused. To support this we present an approach which utilizes the uncertainty information of modern tracking systems to de- termine the possible field of view of the other sensor. Fur- thermore, it is estimated which parts of the captured data is directly visible to both, taking occlusion and shadowing ef- fects into account. Afterwards a registration method, based on the iterative closest point (ICP) algorithm, is applied to that data in order to get an accurate alignment. The contribution of the presented approch to the achiev- able accuracy is shown with the help of ground truth data from a LiDAR simulation within a 3-D crossroad model. Re- sults show that a two dimensional position and heading esti- mation is sufficient to initialize a successful 3-D registration process. Furthermore it is shown which initial spatial align- ment is necessary to obtain suitable registration results.
|
14 |
Moving Least Squares Correspondences for Iterative Point Set RegistrationDutta, Somnath 16 October 2019 (has links)
Registering partial shapes plays an important role in numerous applications in the fields of robotics, vision, and graphics. An essential problem of registration algorithms is the determination of correspondences between surfaces. In this paper, we provide a in-depth evaluation of an approach that computes high-quality correspondences for pair-wise closest point-based iterative registration and compare the results with state-of-the-art registration algorithms. Instead of using a discrete point set for correspondence search, the approach is based on a locally reconstructed continuous moving least squares surface to overcome sampling mismatches in the input shapes. Furthermore, MLS-based correspondences are highly robust to noise. We demonstrate that this strategy outperforms existing approaches in terms of registration accuracy by combining it with the SparseICP local registration algorithm. Our extensive evaluation over several thousand scans from different sources verify that MLS-based approach results in a significant increase in alignment accuracy, surpassing state-of-theart feature-based and probabilistic methods. At the same time, it allows an efficient implementation that introduces only a modest computational overhead.
|
15 |
Optimierter Einsatz eines 3D-Laserscanners zur Point-Cloud-basierten Kartierung und Lokalisierung im In- und Outdoorbereich / Optimized use of a 3D laser scanner for point-cloud-based mapping and localization in indoor and outdoor areasSchubert, Stefan 05 March 2015 (has links) (PDF)
Die Kartierung und Lokalisierung eines mobilen Roboters in seiner Umgebung ist eine wichtige Voraussetzung für dessen Autonomie. In dieser Arbeit wird der Einsatz eines 3D-Laserscanners zur Erfüllung dieser Aufgaben untersucht. Durch die optimierte Anordnung eines rotierenden 2D-Laserscanners werden hochauflösende Bereiche vorgegeben. Zudem wird mit Hilfe von ICP die Kartierung und Lokalisierung im Stillstand durchgeführt. Bei der Betrachtung zur Verbesserung der Bewegungsschätzung wird auch eine Möglichkeit zur Lokalisierung während der Bewegung mit 3D-Scans vorgestellt. Die vorgestellten Algorithmen werden durch Experimente mit realer Hardware evaluiert.
|
16 |
Optimierter Einsatz eines 3D-Laserscanners zur Point-Cloud-basierten Kartierung und Lokalisierung im In- und OutdoorbereichSchubert, Stefan 30 September 2014 (has links)
Die Kartierung und Lokalisierung eines mobilen Roboters in seiner Umgebung ist eine wichtige Voraussetzung für dessen Autonomie. In dieser Arbeit wird der Einsatz eines 3D-Laserscanners zur Erfüllung dieser Aufgaben untersucht. Durch die optimierte Anordnung eines rotierenden 2D-Laserscanners werden hochauflösende Bereiche vorgegeben. Zudem wird mit Hilfe von ICP die Kartierung und Lokalisierung im Stillstand durchgeführt. Bei der Betrachtung zur Verbesserung der Bewegungsschätzung wird auch eine Möglichkeit zur Lokalisierung während der Bewegung mit 3D-Scans vorgestellt. Die vorgestellten Algorithmen werden durch Experimente mit realer Hardware evaluiert.
|
17 |
Multi-view point cloud fusion for LiDAR based cooperative environment detectionJähn, Benjamin, Lindner, Philipp, Wanielik, Gerd 11 November 2015 (has links)
A key component for automated driving is 360◦ environment detection. The recognition capabilities of mod- ern sensors are always limited to their direct field of view. In urban areas a lot of objects occlude important areas of in- terest. The information captured by another sensor from an- other perspective could solve such occluded situations. Fur- thermore, the capabilities to detect and classify various ob- jects in the surrounding can be improved by taking multiple views into account. In order to combine the data of two sensors into one co- ordinate system, a rigid transformation matrix has to be de- rived. The accuracy of modern e.g. satellite based relative pose estimation systems is not sufficient to guarantee a suit- able alignment. Therefore, a registration based approach is used in this work which aligns the captured environment data of two sensors from different positions. Thus their relative pose estimation obtained by traditional methods is improved and the data can be fused. To support this we present an approach which utilizes the uncertainty information of modern tracking systems to de- termine the possible field of view of the other sensor. Fur- thermore, it is estimated which parts of the captured data is directly visible to both, taking occlusion and shadowing ef- fects into account. Afterwards a registration method, based on the iterative closest point (ICP) algorithm, is applied to that data in order to get an accurate alignment. The contribution of the presented approch to the achiev- able accuracy is shown with the help of ground truth data from a LiDAR simulation within a 3-D crossroad model. Re- sults show that a two dimensional position and heading esti- mation is sufficient to initialize a successful 3-D registration process. Furthermore it is shown which initial spatial align- ment is necessary to obtain suitable registration results.
|
18 |
Entwicklung eines Verfahrens für die Koregistrierung von Bildverbänden und Punktwolken mit digitalen BauwerksmodellenKaiser, Tim 08 November 2021 (has links)
Aufgrund der weiter fortschreitenden Digitalisierung verändern sich die seit langer Zeit etablierten Prozesse im Bauwesen. Dies zeigt sich zum Beispiel in der stetig steigenden Bedeutung des Building Information Modelings (BIM). Eine der wesentlichen Grundideen von BIM besteht darin, das zentrale Modell über den gesamten Lebenszyklus des Bauwerks zu verwenden. Das digitale Bauwerksmodell stellt somit eine der zentralen Komponenten der BIM-Methode dar. Neben den rein geometrischen Ausprägungen des Bauwerks werden im Modell auch eine Vielzahl an semantischen Informationen vorgehalten. Da insbesondere bei größeren Bauwerken ein fortlaufender Veränderungsprozess stattfindet, muss das Modell entsprechend aktualisiert werden, um dem tatsächlichen Istzustand zu entsprechen. Diese Aktualisierung betrifft nicht nur Veränderungen in der Geometrie, sondern auch in den verknüpften Sachdaten.
Bezüglich der Aktualisierung des Modells kann die Photogrammetrie mit ihren modernen Messverfahren wie zum Beispiel Structure-from-Motion (SfM) und daraus abgeleiteten Punktwolken einen wesentlichen Beitrag zur Datenerfassung des aktuellen Zustands leisten. Für die erfolgreiche Verknüpfung des photogrammetrisch erfassten Istzustands mit dem durch das Modell definierten Sollzustand müssen beide Datentöpfe in einem gemeinsamen Koordinatensystem vorliegen. In der Regel werden zur Registrierung photogrammetrischer Produkte im Bauwerkskoordinatensystem definierte Passpunkte verwendet. Der Registrierprozess über Passpunkte ist jedoch mit einem erheblichen manuellen Aufwand verbunden.
Um den Aufwand der Registrierung möglichst gering zu halten, wurde daher in dieser Arbeit ein Konzept entwickelt, das es ermöglicht, kleinräumige Bildverbände und Punktwolken automatisiert mit einem digitalen Bauwerksmodell zu koregistrieren. Das Verfahren nutzt dabei geometrische Beziehungen zwischen aus den Bildern extrahierten 3D-Liniensegmenten und Begrenzungsflächen, die aus dem digitalen Bauwerksmodell gewonnen werden. Die aufgenommenen Bilder des Objektes dienen zu Beginn als Grundlage für die Extraktion von zweidimensionalen Linienstrukturen. Auf Basis eines über SfM durchgeführten Orientierungsprozesses können diese zweidimensionalen Kanten zu einer Rekonstruktion in Form von 3D-Liniensegmenten weiterverarbeitet werden. Die weiterhin benötigten Begrenzungsflächen werden aus einem mit Hilfe der Industry Foundation Classes (IFC) definierten BIM-Modell gewonnen. Das entwickelte Verfahren nutzt dabei auch die von IFC bereitgestellten Möglichkeiten der räumlichen Aggregationshierarchien.
Im Zentrum des neuen Koregistrieransatzes stehen zwei große Komponenten. Dies ist einerseits der mittels eines Gauß-Helmert-Modells umgesetze Ausgleichungsvorgang zur Transformationsparameterbestimmung und andererseits der im Vorfeld der Ausgleichung angewandten Matching-Algorithmus zur automatischen Erstellung von Korrespondenzen zwischen den 3D-Liniensegmenten und den Begrenzungsflächen. Die so gebildeten Linien-Ebenen-Paare dienen dann als Beobachtung im Ausgleichungsprozess. Da während der Parameterschätzung eine durchgängige Betrachtung der stochastischen Informationen der Beobachtungen erfolgt, ist am Ende des Registrierprozesses eine Qualitätsaussage zu den berechneten Transformationsparametern möglich.
Die Validierung des entwickelten Verfahrens erfolgt an zwei Datensätzen. Der Datensatz M24 diente dabei zum Nachweis der Funktionsfähigkeit unter Laborbedingungen. Über den Datensatz Eibenstock konnte zudem nachgewiesen werden, dass das Verfahren auch in praxisnahen Umgebungen auf einer realen Baustelle zum Einsatz kommen kann. Für beide Fälle konnte eine gute Registriergenauigkeit im Bereich weniger Zentimeter nachgewiesen werden.:Kurzfassung 3
Abstract 4
1. Einleitung 7
1.1. Photogrammetrie und BIM 7
1.2. Anwendungsbezug und Problemstellung 7
1.3. Zielsetzung und Forschungsfragen 9
1.4. Aufbau der Arbeit 10
2. Grundlagen 12
2.1. Photogrammetrie 12
2.1.1. Structure-from-Motion (SfM) 12
2.1.2. Räumliche Ähnlichkeitstransformation 14
2.2. Building Information Modeling (BIM) 16
2.2.1. Besonderheiten der geometrisch / topologischen Modellierung 18
2.2.2. Industry Foundation Classes (IFC) 19
2.3. Parameterschätzung und Statistik 21
2.3.1. Nicht lineares Gauß-Helmert-Modell mit Restriktionen 21
2.3.2. Random Sample Consensus (RANSAC) 23
2.3.3. Density-Based Spatial Clustering of Applications with Noise (DBSCAN) 24
3. Stand der Forschung 26
4. Automatische Koregistrierung von Bildverbänden 30
4.1. Überblick 30
4.2. Relative Orientierung des Bildverbandes und Extraktion der 3D-Liniensegmente 33
4.2.1. Line3D++ 33
4.2.2. Stochastische Informationen der 3D-Liniensegmente 36
4.3. Ebenenextraktion aus dem digitalen Gebäudemodell 37
4.4. Linien-Ebenen-Matching 42
4.4.1. Aufstellen von Ebenenhypothesen 42
4.4.2. Analyse und Clustern der Normalenvektorhypothesen 43
4.4.3. Erstellung von Minimalkonfigurationen 44
4.5. Berechnung von Näherungswerten für die Transformationsparameter 46
4.6. Implementiertes Ausgleichungsmodell 49
4.6.1. Funktionales Modell 49
4.6.2. Stochastisches Modell 50
4.7. Entscheidungskriterien der kombinatorischen Auswertung 51
5. Validierung der Methoden 56
5.1. Messung Seminarraum M24 HTW Dresden 56
5.1.1. Untersuchung des Einfluss der SfM2BIM -Programmparameter 59
5.1.2. Ergebnisse der Validierung 64
5.2. Messung LTV Eibenstock 71
6. Diskussion der Ergebnisse 81
6.1. Bewertung der erzielten Genauigkeit 81
6.2. Bewertung der Automatisierbarkeit 82
6.3. Bewertung der praktischen Anwendbarkeit 83
6.4. Beantwortung der Forschungsfragen 85
7. Zusammenfassung und Ausblick 88
Literaturverzeichnis 90
Abbildungsverzeichnis 94
Tabellenverzeichnis 96
A. Anhang 97
A.1. Systemarchitektur SfM2BIM 97
A.2. Untersuchung SfM2BIM Parameter 97 / Due to the ongoing digitalization, traditional and well-established processes in the construction industry face lasting transformations. The rising significance of Building Information Modeling (BIM) can be seen as an example for this development. One of the core principles of BIM is the usage of the model throughout the entire life cycle of the building. Therefore, the digital twin can be regarded as one of the central components of the BIM method. Besides of the pure geometry of the building the corresponding model also contains a huge amount of semantic data. Especially in large building complexes constant changes are taking place. Consequently, the model also has to be updated regularly in order to reflect the actual state. These actualizations include both changes in geometry and in the linked technical data.
Photogrammetry with its modern measuring and reconstruction techniques like structure from motion can help to facilitate this update process. In order to establish a link between the photogrammetric recorded present state and the nominal state specified by the building model both datasets have to be available in a common reference frame. Usually ground control points are used for registering the photogrammetric results with the building coordinate system. However, using ground control points results in a very labor-intensive registration process.
In order to keep the required effort as low as possible this work proposes a novel concept to automatically co-register local image blocks with a digital building model. The procedure makes use of geometric relationships between 3D-linesegments that get extracted from the input images and bounding surfaces that are derived from the building model. At first the captured images are used to extract two-dimensional line patterns. These edges get further processed to 3D line segments based on an orientation estimation using structure from motion. The additionally required bounding surfaces are derived from a building model defined by the Industry Foundation Classes (IFC). The spatial aggregation structures defined in the IFC are used for alleviating the procedure.
Two big components form the core piece of the novel approach. On the one hand this is the adjustment calculation for the estimation of transformation parameters using a full Gauß-Helmert-Model and the developed matching algorithm for establishing line-plane-correspondences on the other hand. The so formed correspondences serve as the observation for the adjustment process. During the parameter estimation stochastic information of the observations is completely considered. Therefore, quality predictions can be made upon completion of the registration process.
The validation of the developed was conducted using two datasets. The dataset M24 served as primary validation source since the results of the algorithm could be checked under laboratory conditions and compared with results obtained by ground control points. By examine the Eibenstock dataset it could be demonstrated that the procedure also works in practical conditions on a real construction site. For both cases the registration accuracy averages to a few centimeters.:Kurzfassung 3
Abstract 4
1. Einleitung 7
1.1. Photogrammetrie und BIM 7
1.2. Anwendungsbezug und Problemstellung 7
1.3. Zielsetzung und Forschungsfragen 9
1.4. Aufbau der Arbeit 10
2. Grundlagen 12
2.1. Photogrammetrie 12
2.1.1. Structure-from-Motion (SfM) 12
2.1.2. Räumliche Ähnlichkeitstransformation 14
2.2. Building Information Modeling (BIM) 16
2.2.1. Besonderheiten der geometrisch / topologischen Modellierung 18
2.2.2. Industry Foundation Classes (IFC) 19
2.3. Parameterschätzung und Statistik 21
2.3.1. Nicht lineares Gauß-Helmert-Modell mit Restriktionen 21
2.3.2. Random Sample Consensus (RANSAC) 23
2.3.3. Density-Based Spatial Clustering of Applications with Noise (DBSCAN) 24
3. Stand der Forschung 26
4. Automatische Koregistrierung von Bildverbänden 30
4.1. Überblick 30
4.2. Relative Orientierung des Bildverbandes und Extraktion der 3D-Liniensegmente 33
4.2.1. Line3D++ 33
4.2.2. Stochastische Informationen der 3D-Liniensegmente 36
4.3. Ebenenextraktion aus dem digitalen Gebäudemodell 37
4.4. Linien-Ebenen-Matching 42
4.4.1. Aufstellen von Ebenenhypothesen 42
4.4.2. Analyse und Clustern der Normalenvektorhypothesen 43
4.4.3. Erstellung von Minimalkonfigurationen 44
4.5. Berechnung von Näherungswerten für die Transformationsparameter 46
4.6. Implementiertes Ausgleichungsmodell 49
4.6.1. Funktionales Modell 49
4.6.2. Stochastisches Modell 50
4.7. Entscheidungskriterien der kombinatorischen Auswertung 51
5. Validierung der Methoden 56
5.1. Messung Seminarraum M24 HTW Dresden 56
5.1.1. Untersuchung des Einfluss der SfM2BIM -Programmparameter 59
5.1.2. Ergebnisse der Validierung 64
5.2. Messung LTV Eibenstock 71
6. Diskussion der Ergebnisse 81
6.1. Bewertung der erzielten Genauigkeit 81
6.2. Bewertung der Automatisierbarkeit 82
6.3. Bewertung der praktischen Anwendbarkeit 83
6.4. Beantwortung der Forschungsfragen 85
7. Zusammenfassung und Ausblick 88
Literaturverzeichnis 90
Abbildungsverzeichnis 94
Tabellenverzeichnis 96
A. Anhang 97
A.1. Systemarchitektur SfM2BIM 97
A.2. Untersuchung SfM2BIM Parameter 97
|
19 |
Automatic segmentation and reconstruction of traffic accident scenarios from mobile laser scanning dataVock, Dominik 08 May 2014 (has links) (PDF)
Virtual reconstruction of historic sites, planning of restorations and attachments of new building parts, as well as forest inventory are few examples of fields that benefit from the application of 3D surveying data. Originally using 2D photo based documentation and manual distance measurements, the 3D information obtained from multi camera and laser scanning systems realizes a noticeable improvement regarding the surveying times and the amount of generated 3D information. The 3D data allows a detailed post processing and better visualization of all relevant spatial information. Yet, for the extraction of the required information from the raw scan data and for the generation of useable visual output, time-consuming, complex user-based data processing is still required, using the commercially available 3D software tools.
In this context, the automatic object recognition from 3D point cloud and depth data has been discussed in many different works. The developed tools and methods however, usually only focus on a certain kind of object or the detection of learned invariant surface shapes. Although the resulting methods are applicable for certain practices of data segmentation, they are not necessarily suitable for arbitrary tasks due to the varying requirements of the different fields of research.
This thesis presents a more widespread solution for automatic scene reconstruction from 3D point clouds, targeting street scenarios, specifically for the task of traffic accident scene analysis and documentation. The data, obtained by sampling the scene using a mobile scanning system is evaluated, segmented, and finally used to generate detailed 3D information of the scanned environment.
To realize this aim, this work adapts and validates various existing approaches on laser scan segmentation regarding the application on accident relevant scene information, including road surfaces and markings, vehicles, walls, trees and other salient objects. The approaches are therefore evaluated regarding their suitability and limitations for the given tasks, as well as for possibilities concerning the combined application together with other procedures. The obtained knowledge is used for the development of new algorithms and procedures to allow a satisfying segmentation and reconstruction of the scene, corresponding to the available sampling densities and precisions.
Besides the segmentation of the point cloud data, this thesis presents different visualization and reconstruction methods to achieve a wider range of possible applications of the developed system for data export and utilization in different third party software tools.
|
20 |
Automatic segmentation and reconstruction of traffic accident scenarios from mobile laser scanning dataVock, Dominik 18 December 2013 (has links)
Virtual reconstruction of historic sites, planning of restorations and attachments of new building parts, as well as forest inventory are few examples of fields that benefit from the application of 3D surveying data. Originally using 2D photo based documentation and manual distance measurements, the 3D information obtained from multi camera and laser scanning systems realizes a noticeable improvement regarding the surveying times and the amount of generated 3D information. The 3D data allows a detailed post processing and better visualization of all relevant spatial information. Yet, for the extraction of the required information from the raw scan data and for the generation of useable visual output, time-consuming, complex user-based data processing is still required, using the commercially available 3D software tools.
In this context, the automatic object recognition from 3D point cloud and depth data has been discussed in many different works. The developed tools and methods however, usually only focus on a certain kind of object or the detection of learned invariant surface shapes. Although the resulting methods are applicable for certain practices of data segmentation, they are not necessarily suitable for arbitrary tasks due to the varying requirements of the different fields of research.
This thesis presents a more widespread solution for automatic scene reconstruction from 3D point clouds, targeting street scenarios, specifically for the task of traffic accident scene analysis and documentation. The data, obtained by sampling the scene using a mobile scanning system is evaluated, segmented, and finally used to generate detailed 3D information of the scanned environment.
To realize this aim, this work adapts and validates various existing approaches on laser scan segmentation regarding the application on accident relevant scene information, including road surfaces and markings, vehicles, walls, trees and other salient objects. The approaches are therefore evaluated regarding their suitability and limitations for the given tasks, as well as for possibilities concerning the combined application together with other procedures. The obtained knowledge is used for the development of new algorithms and procedures to allow a satisfying segmentation and reconstruction of the scene, corresponding to the available sampling densities and precisions.
Besides the segmentation of the point cloud data, this thesis presents different visualization and reconstruction methods to achieve a wider range of possible applications of the developed system for data export and utilization in different third party software tools.
|
Page generated in 0.0463 seconds