Spelling suggestions: "subject:"punktwolken"" "subject:"punktewolken""
1 |
2D-Point-Cloud Reconstruction from Laser-Scanner-Data using Genetic AlgorithmsEder, Rasmus 10 June 2024 (has links)
Die Arbeit widmet sich der Rekonstruktion von Polygonzügen aus 2D-Punktwolkendaten. Die Daten wurden mittels Laser-Scannern erhoben und bilden Grundrisse von historischer Architektur ab. Die Arbeit beleuchtet die Arbeitsfähigkeit von GPU-parallelisierten genetischen Algorithmen, bei dem Versuch aus diesen Daten Polygone und Streckenzüge zu erheben die zu den ursprünglichen Daten kongruent sind.:1 Introduction 5
1.1 Point Cloud Reconstruction 5
1.2 Genetic Algorithms 7
1.3 Evaluation of Results 8
2 Evolutionary Algorithms 10
2.1 Metaheuristic Approaches 10
2.1.1 NPO-problems 11
2.1.2 Metaheuristics 11
2.2 Evolutionary Computing 12
2.2.1 Definition and Motivation 13
2.2.2 Fundamentals and Terminology 13
2.2.3 The Genetic Algorithm 14
2.2.4 Individuals in Genetic Algorithms 15
2.2.5 Components of Genetic Algorithms 15
2.3 Parallel Genetic Algorithms 20
2.3.1 Taxonomy for Parallel Genetic Algorithms 20
2.3.2 Global Parallel Genetic Algorithms 20
3 Hardware Accelerators 22
3.1 SIMD in Global Parallel Gentic Algorithms 22
3.2 OpenCL 23
4 Concepts and Implementation 25
4.1 Input Data and Pre-Proccesing 26
4.2 Genotype Construction 30
4.3 The Fitness Function 33
4.4 Mutation 35
4.5 The Genetic Algorithm 36
4.6 Global Parallelization and GPU-Usage 38
5 Results and Evaluation 40
5.1 Wall-Time and Fitness 40
5.2 Visual Observation 43
6 Conclusion 44
Appendices 47
A Terminology for Evolutionary Algorithms 48
B PC1 49
C PC2 50
D PC3 51
E PC1 Convergence 52
F PC2 Convergence 53
G PC3 Convergence 54
H Layout Reconstruction 1 55
I Layout Reconstruction 2 56
J t-test for implementation comparison 57
|
2 |
Analyse, Integration und webbasierte Visualisierung von Raster- und Vektor-Daten für RenaturierungsprojekteHeinz, Elina 22 October 2021 (has links)
No description available.
|
3 |
Semantische Klassifizierung digitaler Oberflächenmodelle von Landschaften in Form von massiven Punktwolken über Hybrid-VerfahrenKaubukowski, Kenn Joel 04 May 2023 (has links)
Mit der zunehmenden Verfügbarkeit von Technologien zur Aufnahme von digitalen
Oberflächenmodellen nimmt auch die Analyse dieser stetig an Bedeutung zu. Über LiDAR
Scanner lassen sich genaue Aufnahmen in Form von Ansammlungen von Punkten im
dreidimensionalen Raum (Punktwolken) anfertigen und können schließlich visualisiert werden,
wodurch gewöhnliche Darstellungen von Landschaften um die dritte Dimension erweitert
werden. Durch den Prozess der semantischen Klassifizierung werden diesen Punkten
Bedeutungen zugewiesen, was bei weiterer Arbeit mit ihnen schließlich eine isolierte
Darstellung und die Verarbeitung einzelner Klassen ermöglicht, sodass eine große Landschaft
schneller und effektiver manuell oder automatisch evaluiert werden kann. Aufgrund von
variierenden Eigenschaften einzelner Modelle ist die maschinelle semantische Klassifizierung
eine Problemstellung, welche jedoch oftmals individuelle Lösungen benötigt.
In dieser Arbeit werden diverse Ansätze zur Klassifizierung von Punktwolken beschrieben und
anhand der Anwendungsmöglichkeiten eingeschätzt. Schließlich wird ein heuristisches Hybrid-Verfahren
vorgestellt, welches im Rahmen des Projekts „SARDINE“ (Smart Regional Development Infrastructure)
entstanden ist und eine vollständige semantische Klassifizierung digitaler Oberflächenmodelle ermöglicht.:Einleitung
1.1 Zielsetzung und Motivation
1.2 Aufbau der Arbeit
Aktuelle Lösungen und deren Möglichkeiten
2.1 Oberflächenmodelle von Landschaften
2.2 Klassifizierung digitaler Oberflächenmodelle
2.3 Techniken aktueller kommerzieller Software
2.4 Problematik der Klassifizierung mit maschinellem Lernen
Entwicklung eines Hybrid-Verfahrens
3.1 Heuristische Parameterwahl
3.2 Vollständige Klassifizierung der Testdaten
3.2.1 Erstellen eines digitalen Geländemodells
3.2.2 Gebäude
3.2.3 Hochspannungsleitungen und Freileitungsmasten
3.2.4 Fahrzeuge und Straßenlaternen
3.2.5 Vegetation
3.2.6 Gewässer
3.2.7 Boden und Straßen
3.2.8 Mauern, Zäune und sonstige linear verlaufende Objekte
3.2.9 Fertigstellung
3.3 Verwendete Sprache, Bibliotheken und Datenstrukturen
3.4 Dynamisierung statischer Parameter
3.5 Maschinelles Lernen
Evaluation des Hybrid-Verfahrens
4.1 Analyse der Ergebnisse
4.2 Schwachstellen der Konzepte
4.3 Verbesserungspotential
4.4 Fazit
Literaturverzeichnis
|
4 |
Automatic Retrieval of Skeletal Structures of Trees from Terrestrial Laser Scanner DataSchilling, Anita 26 November 2014 (has links) (PDF)
Research on forest ecosystems receives high attention, especially nowadays with regard to sustainable management of renewable resources and the climate change. In particular, accurate information on the 3D structure of a tree is important for forest science and bioclimatology, but also in the scope of commercial applications.
Conventional methods to measure geometric plant features are labor- and time-intensive. For detailed analysis, trees have to be cut down, which is often undesirable. Here, Terrestrial Laser Scanning (TLS) provides a particularly attractive tool because of its contactless measurement technique. The object geometry is reproduced as a 3D point cloud. The objective of this thesis is the automatic retrieval of the spatial structure of trees from TLS data. We focus on forest scenes with comparably high stand density and with many occlusions resulting from it. The varying level of detail of TLS data poses a big challenge.
We present two fully automatic methods to obtain skeletal structures from scanned trees that have complementary properties. First, we explain a method that retrieves the entire tree skeleton from 3D data of co-registered scans. The branching structure is obtained from a voxel space representation by searching paths from branch tips to the trunk. The trunk is determined in advance from the 3D points. The skeleton of a tree is generated as a 3D line graph.
Besides 3D coordinates and range, a scan provides 2D indices from the intensity image for each measurement. This is exploited in the second method that processes individual scans. Furthermore, we introduce a novel concept to manage TLS data that facilitated the researchwork. Initially, the range image is segmented into connected components. We describe a procedure to retrieve the boundary of a component that is capable of tracing inner depth discontinuities. A 2D skeleton is generated from the boundary information and used to decompose the component into sub components. A Principal Curve is computed from the 3D point set that is associated with a sub component. The skeletal structure of a connected component is summarized as a set of polylines.
Objective evaluation of the results remains an open problem because the task itself is ill-defined: There exists no clear definition of what the true skeleton should be w.r.t. a given point set. Consequently, we are not able to assess the correctness of the methods quantitatively, but have to rely on visual assessment of results and provide a thorough discussion of the particularities of both methods.
We present experiment results of both methods. The first method efficiently retrieves full skeletons of trees, which approximate the branching structure. The level of detail is mainly governed by the voxel space and therefore, smaller branches are reproduced inadequately. The second method retrieves partial skeletons of a tree with high reproduction accuracy. The method is sensitive to noise in the boundary, but the results are very promising. There are plenty of possibilities to enhance the method’s robustness. The combination of the strengths of both presented methods needs to be investigated further and may lead to a robust way to obtain complete tree skeletons from TLS data automatically. / Die Erforschung des ÖkosystemsWald spielt gerade heutzutage im Hinblick auf den nachhaltigen Umgang mit nachwachsenden Rohstoffen und den Klimawandel eine große Rolle. Insbesondere die exakte Beschreibung der dreidimensionalen Struktur eines Baumes ist wichtig für die Forstwissenschaften und Bioklimatologie, aber auch im Rahmen kommerzieller Anwendungen.
Die konventionellen Methoden um geometrische Pflanzenmerkmale zu messen sind arbeitsintensiv und zeitaufwändig. Für eine genaue Analyse müssen Bäume gefällt werden, was oft unerwünscht ist. Hierbei bietet sich das Terrestrische Laserscanning (TLS) als besonders attraktives Werkzeug aufgrund seines kontaktlosen Messprinzips an. Die Objektgeometrie wird als 3D-Punktwolke wiedergegeben. Basierend darauf ist das Ziel der Arbeit die automatische Bestimmung der räumlichen Baumstruktur aus TLS-Daten. Der Fokus liegt dabei auf Waldszenen mit vergleichsweise hoher Bestandesdichte und mit zahlreichen daraus resultierenden Verdeckungen. Die Auswertung dieser TLS-Daten, die einen unterschiedlichen Grad an Detailreichtum aufweisen, stellt eine große Herausforderung dar.
Zwei vollautomatische Methoden zur Generierung von Skelettstrukturen von gescannten Bäumen, welche komplementäre Eigenschaften besitzen, werden vorgestellt. Bei der ersten Methode wird das Gesamtskelett eines Baumes aus 3D-Daten von registrierten Scans bestimmt. Die Aststruktur wird von einer Voxelraum-Repräsentation abgeleitet indem Pfade von Astspitzen zum Stamm gesucht werden. Der Stamm wird im Voraus aus den 3D-Punkten rekonstruiert. Das Baumskelett wird als 3D-Liniengraph erzeugt.
Für jeden gemessenen Punkt stellt ein Scan neben 3D-Koordinaten und Distanzwerten auch 2D-Indizes zur Verfügung, die sich aus dem Intensitätsbild ergeben. Bei der zweiten Methode, die auf Einzelscans arbeitet, wird dies ausgenutzt. Außerdem wird ein neuartiges Konzept zum Management von TLS-Daten beschrieben, welches die Forschungsarbeit erleichtert hat. Zunächst wird das Tiefenbild in Komponenten aufgeteilt. Es wird eine Prozedur zur Bestimmung von Komponentenkonturen vorgestellt, die in der Lage ist innere Tiefendiskontinuitäten zu verfolgen. Von der Konturinformation wird ein 2D-Skelett generiert, welches benutzt wird um die Komponente in Teilkomponenten zu zerlegen. Von der 3D-Punktmenge, die mit einer Teilkomponente assoziiert ist, wird eine Principal Curve berechnet. Die Skelettstruktur einer Komponente im Tiefenbild wird als Menge von Polylinien zusammengefasst.
Die objektive Evaluation der Resultate stellt weiterhin ein ungelöstes Problem dar, weil die Aufgabe selbst nicht klar erfassbar ist: Es existiert keine eindeutige Definition davon was das wahre Skelett in Bezug auf eine gegebene Punktmenge sein sollte. Die Korrektheit der Methoden kann daher nicht quantitativ beschrieben werden. Aus diesem Grund, können die Ergebnisse nur visuell beurteiltwerden. Weiterhinwerden die Charakteristiken beider Methoden eingehend diskutiert.
Es werden Experimentresultate beider Methoden vorgestellt. Die erste Methode bestimmt effizient das Skelett eines Baumes, welches die Aststruktur approximiert. Der Detaillierungsgrad wird hauptsächlich durch den Voxelraum bestimmt, weshalb kleinere Äste nicht angemessen reproduziert werden. Die zweite Methode rekonstruiert Teilskelette eines Baums mit hoher Detailtreue. Die Methode reagiert sensibel auf Rauschen in der Kontur, dennoch sind die Ergebnisse vielversprechend. Es gibt eine Vielzahl von Möglichkeiten die Robustheit der Methode zu verbessern. Die Kombination der Stärken von beiden präsentierten Methoden sollte weiter untersucht werden und kann zu einem robusteren Ansatz führen um vollständige Baumskelette automatisch aus TLS-Daten zu generieren.
|
5 |
Untersuchungen zum mobilen 3D-Scannen unter Tage bei K+SFischer, Andreas, Schäfer, Andreas 29 July 2016 (has links) (PDF)
Im Rahmen einer Diplomarbeit an der TU Bergakademie Freiberg wurden in 2014 die Grundlagen für die Auswertung von 3D-Punktwolken zur automatisierten Nachtragung des Risswerks gelegt. Um die dafür notwendigen 3D-Punktwolken möglichst wirtschaftlich zu erstellen, laufen seit 2015 Untersuchungen und Testmessungen zur Machbarkeit des untertägigen Einsatzes von mobil messenden Laserscannern. Im Folgenden werden verschiedene technische Ansätze sowie die Ergebnisse der Testmessungen und die weiteren geplanten Schritte vorgestellt. / As part of a thesis at the Technical University of Freiberg, a basis for the analysis of 3D point clouds was set for refining the mine map automatically. Since 2015 studies and test measurements have been running to create the necessary 3D point clouds as economically as possible, by using an underground mobile scanning system. Below the different technical approaches will be presented as well as the results of the test measurements and the next planned steps.
|
6 |
Untersuchung von additiv gefertigten Prägeformen mit graduellen Eigenschaften hinsichtlich ihres PrägeverhaltensMohrich, Maximilian 16 July 2021 (has links)
Ziel dieser Masterarbeit ist die Untersuchung neuartiger Prägeformkonzepte hinsichtlich ihres Prägeverhaltens. Die Konzepte weisen lokal unterschiedliche Materialeigenschaften auf, die zu einer verbesserten Ausprägung von Karton führen sollen. Die Konzepte sollen anhand der Prägeergebnisse und der Abformgenauigkeit evaluiert werden. Dabei ist ein weiteres Ziel der Arbeit, Methoden zur Quantifizierung der Abformgenauigkeit zu finden. Die Herstellung der Konzepte erfolgt mithilfe eines additiven Fertigungssystems, welches mehrere Materialien in einem Bauvorgang verarbeiten kann. Zur Datengewinnung werden Oberflächenscans der geprägten Kartonproben und Werkzeuge durchgeführt. Auf Grundlage dieser Scans werden drei Methoden zur Ermittlung der Abformgenauigkeit vorgeschlagen. Abschließend werden die Werkzeuge anhand der Prägeergebnisse und der ermittelten Abformgenauigkeit bewertet. Weiterhin werden die vorgeschlagenen Methoden miteinander verglichen und deren Vor- und Nachteile diskutiert. Dies gibt Auskunft darüber, unter welchen Bedingungen der Einsatz welcher Methode sinnvoll erscheint.:1. Einleitung
2. Theoretische Grundlagen
2.1 Umformprozesse
2.1.1 Prägen von Faserwerkstoffen
2.1.2 Einsatz von Niederhaltern beim Umformen von Blechen
2.1.2.1 Tiefenziehen
2.1.2.2 Tiefen
2.1.3 Einsatz von Niederhaltern beim Umformen von Karton
2.1.3.1 Ziehen und Pressformen
2.1.3.2 Hydroformen
2.2 Multi-Material-Verarbeitung in der additiven Fertigung
2.2.1 Materialextrusion
2.2.2 Badbasierte Photopolymerisation
2.2.3 Material Jetting
2.2.4 Pulverbettbasiertes Schmelzen
2.2.5 Workflow und Datenvorbereitung
2.3.6 Geeignete Dateiformate
2.3 Soll-Ist-Vergleich von 2.5D-Oberflächendaten
2.3.1 Berechnung von Flächeninhalten und Volumen
2.3.2 Registrierung und Abstandsberechnung von Punktwolken
3. Versuche und Messungen
3.1 Herstellung der Prägeformkonzepte
3.1.1 Beschreibung der Konzepte
3.1.2 Fertigungstechnologie und Materialwahl
3.1.3 Datenvorbereitung für die Polyjet-Fertigung
3.2 Prägeversuche und Datenverarbeitung
3.2.1 Prägeversuche
3.2.2 Oberflächenscan am Keyence 3D-Makroskop
3.3 Ermittlung der Abformgenauigkeit
3.3.1 Flächen- und Volumenberechnung in MatLab & CloudCompare
3.3.2 Abformgenauigkeit nach ICP-Algorithmus & Abstandsberechnung
4. Ergebnisse und Diskussion
4.1 Betrachtung der Prägewerkzeuge
4.2 Betrachtung der Kartonprägungen
4.2.1 Prägeergebnisse nach Flächeninhalt der Profilschnitte
4.2.2 Einfluss der Faserlaufrichtung auf Kartonprägungen
4.2.3 Prägeergebnisse nach Volumen der Punktwolken
4.3 Betrachtung der Abformgenauigkeit
4.3.1 Abformgenauigkeit nach Flächeninhalt & Volumen
4.3.2 Abformgenauigkeit nach ICP-Algorithmus & Abstandsberechnung
4.4 Bewertung der Methoden zur Ermittlung der Abformgenauigkeit
4.5 Beurteilung des Bedienereinflusses bei der Datenverarbeitung am Keyence
5. Zusammenfassung und Ausblick
Literaturverzeichnis
Eidesstattliche Erklärung / The aim of this master thesis is to investigate novel embossing die concepts with regard to their embossing behavior. The concepts have locally different material properties, which should lead to an improved embossing of cardboard. The concepts are to be evaluated on the basis of the embossing results and the impression accuracy. A further aim of the work is to find methods for quantifying the impression accuracy. The concepts will be manufactured using an additive manufacturing system that can process multiple materials in a single build process. Surface scans of the embossed cardboard samples and tools are performed to obtain data. Based on these scans, three methods are proposed to determine the impression accuracy. Finally, the tools are evaluated based on the embossing results and the determined impression accuracy. Furthermore, the proposed methods are compared with each other and their advantages and disadvantages are discussed. This provides information on the conditions under which the use of which method appears to be sensible.:1. Einleitung
2. Theoretische Grundlagen
2.1 Umformprozesse
2.1.1 Prägen von Faserwerkstoffen
2.1.2 Einsatz von Niederhaltern beim Umformen von Blechen
2.1.2.1 Tiefenziehen
2.1.2.2 Tiefen
2.1.3 Einsatz von Niederhaltern beim Umformen von Karton
2.1.3.1 Ziehen und Pressformen
2.1.3.2 Hydroformen
2.2 Multi-Material-Verarbeitung in der additiven Fertigung
2.2.1 Materialextrusion
2.2.2 Badbasierte Photopolymerisation
2.2.3 Material Jetting
2.2.4 Pulverbettbasiertes Schmelzen
2.2.5 Workflow und Datenvorbereitung
2.3.6 Geeignete Dateiformate
2.3 Soll-Ist-Vergleich von 2.5D-Oberflächendaten
2.3.1 Berechnung von Flächeninhalten und Volumen
2.3.2 Registrierung und Abstandsberechnung von Punktwolken
3. Versuche und Messungen
3.1 Herstellung der Prägeformkonzepte
3.1.1 Beschreibung der Konzepte
3.1.2 Fertigungstechnologie und Materialwahl
3.1.3 Datenvorbereitung für die Polyjet-Fertigung
3.2 Prägeversuche und Datenverarbeitung
3.2.1 Prägeversuche
3.2.2 Oberflächenscan am Keyence 3D-Makroskop
3.3 Ermittlung der Abformgenauigkeit
3.3.1 Flächen- und Volumenberechnung in MatLab & CloudCompare
3.3.2 Abformgenauigkeit nach ICP-Algorithmus & Abstandsberechnung
4. Ergebnisse und Diskussion
4.1 Betrachtung der Prägewerkzeuge
4.2 Betrachtung der Kartonprägungen
4.2.1 Prägeergebnisse nach Flächeninhalt der Profilschnitte
4.2.2 Einfluss der Faserlaufrichtung auf Kartonprägungen
4.2.3 Prägeergebnisse nach Volumen der Punktwolken
4.3 Betrachtung der Abformgenauigkeit
4.3.1 Abformgenauigkeit nach Flächeninhalt & Volumen
4.3.2 Abformgenauigkeit nach ICP-Algorithmus & Abstandsberechnung
4.4 Bewertung der Methoden zur Ermittlung der Abformgenauigkeit
4.5 Beurteilung des Bedienereinflusses bei der Datenverarbeitung am Keyence
5. Zusammenfassung und Ausblick
Literaturverzeichnis
Eidesstattliche Erklärung
|
7 |
Untersuchungen zum mobilen 3D-Scannen unter Tage bei K+SFischer, Andreas, Schäfer, Andreas January 2016 (has links)
Im Rahmen einer Diplomarbeit an der TU Bergakademie Freiberg wurden in 2014 die Grundlagen für die Auswertung von 3D-Punktwolken zur automatisierten Nachtragung des Risswerks gelegt. Um die dafür notwendigen 3D-Punktwolken möglichst wirtschaftlich zu erstellen, laufen seit 2015 Untersuchungen und Testmessungen zur Machbarkeit des untertägigen Einsatzes von mobil messenden Laserscannern. Im Folgenden werden verschiedene technische Ansätze sowie die Ergebnisse der Testmessungen und die weiteren geplanten Schritte vorgestellt. / As part of a thesis at the Technical University of Freiberg, a basis for the analysis of 3D point clouds was set for refining the mine map automatically. Since 2015 studies and test measurements have been running to create the necessary 3D point clouds as economically as possible, by using an underground mobile scanning system. Below the different technical approaches will be presented as well as the results of the test measurements and the next planned steps.
|
8 |
Visual Analysis of High-Dimensional Point Clouds using Topological AbstractionOesterling, Patrick 17 May 2016 (has links) (PDF)
This thesis is about visualizing a kind of data that is trivial to process by computers but difficult to imagine by humans because nature does not allow for intuition with this type of information: high-dimensional data. Such data often result from representing observations of objects under various aspects or with different properties. In many applications, a typical, laborious task is to find related objects or to group those that are similar to each other. One classic solution for this task is to imagine the data as vectors in a Euclidean space with object variables as dimensions. Utilizing Euclidean distance as a measure of similarity, objects with similar properties and values accumulate to groups, so-called clusters, that are exposed by cluster analysis on the high-dimensional point cloud. Because similar vectors can be thought of as objects that are alike in terms of their attributes, the point cloud\'s structure and individual cluster properties, like their size or compactness, summarize data categories and their relative importance. The contribution of this thesis is a novel analysis approach for visual exploration of high-dimensional point clouds without suffering from structural occlusion. The work is based on implementing two key concepts: The first idea is to discard those geometric properties that cannot be preserved and, thus, lead to the typical artifacts. Topological concepts are used instead to shift away the focus from a point-centered view on the data to a more structure-centered perspective. The advantage is that topology-driven clustering information can be extracted in the data\'s original domain and be preserved without loss in low dimensions. The second idea is to split the analysis into a topology-based global overview and a subsequent geometric local refinement. The occlusion-free overview enables the analyst to identify features and to link them to other visualizations that permit analysis of those properties not captured by the topological abstraction, e.g. cluster shape or value distributions in particular dimensions or subspaces. The advantage of separating structure from data point analysis is that restricting local analysis only to data subsets significantly reduces artifacts and the visual complexity of standard techniques. That is, the additional topological layer enables the analyst to identify structure that was hidden before and to focus on particular features by suppressing irrelevant points during local feature analysis. This thesis addresses the topology-based visual analysis of high-dimensional point clouds for both the time-invariant and the time-varying case. Time-invariant means that the points do not change in their number or positions. That is, the analyst explores the clustering of a fixed and constant set of points. The extension to the time-varying case implies the analysis of a varying clustering, where clusters appear as new, merge or split, or vanish. Especially for high-dimensional data, both tracking---which means to relate features over time---but also visualizing changing structure are difficult problems to solve.
|
9 |
Multi-view point cloud fusion for LiDAR based cooperative environment detectionJähn, Benjamin, Lindner, Philipp, Wanielik, Gerd 11 November 2015 (has links) (PDF)
A key component for automated driving is 360◦ environment detection. The recognition capabilities of mod- ern sensors are always limited to their direct field of view. In urban areas a lot of objects occlude important areas of in- terest. The information captured by another sensor from an- other perspective could solve such occluded situations. Fur- thermore, the capabilities to detect and classify various ob- jects in the surrounding can be improved by taking multiple views into account. In order to combine the data of two sensors into one co- ordinate system, a rigid transformation matrix has to be de- rived. The accuracy of modern e.g. satellite based relative pose estimation systems is not sufficient to guarantee a suit- able alignment. Therefore, a registration based approach is used in this work which aligns the captured environment data of two sensors from different positions. Thus their relative pose estimation obtained by traditional methods is improved and the data can be fused. To support this we present an approach which utilizes the uncertainty information of modern tracking systems to de- termine the possible field of view of the other sensor. Fur- thermore, it is estimated which parts of the captured data is directly visible to both, taking occlusion and shadowing ef- fects into account. Afterwards a registration method, based on the iterative closest point (ICP) algorithm, is applied to that data in order to get an accurate alignment. The contribution of the presented approch to the achiev- able accuracy is shown with the help of ground truth data from a LiDAR simulation within a 3-D crossroad model. Re- sults show that a two dimensional position and heading esti- mation is sufficient to initialize a successful 3-D registration process. Furthermore it is shown which initial spatial align- ment is necessary to obtain suitable registration results.
|
10 |
Automatic Retrieval of Skeletal Structures of Trees from Terrestrial Laser Scanner DataSchilling, Anita 10 October 2014 (has links)
Research on forest ecosystems receives high attention, especially nowadays with regard to sustainable management of renewable resources and the climate change. In particular, accurate information on the 3D structure of a tree is important for forest science and bioclimatology, but also in the scope of commercial applications.
Conventional methods to measure geometric plant features are labor- and time-intensive. For detailed analysis, trees have to be cut down, which is often undesirable. Here, Terrestrial Laser Scanning (TLS) provides a particularly attractive tool because of its contactless measurement technique. The object geometry is reproduced as a 3D point cloud. The objective of this thesis is the automatic retrieval of the spatial structure of trees from TLS data. We focus on forest scenes with comparably high stand density and with many occlusions resulting from it. The varying level of detail of TLS data poses a big challenge.
We present two fully automatic methods to obtain skeletal structures from scanned trees that have complementary properties. First, we explain a method that retrieves the entire tree skeleton from 3D data of co-registered scans. The branching structure is obtained from a voxel space representation by searching paths from branch tips to the trunk. The trunk is determined in advance from the 3D points. The skeleton of a tree is generated as a 3D line graph.
Besides 3D coordinates and range, a scan provides 2D indices from the intensity image for each measurement. This is exploited in the second method that processes individual scans. Furthermore, we introduce a novel concept to manage TLS data that facilitated the researchwork. Initially, the range image is segmented into connected components. We describe a procedure to retrieve the boundary of a component that is capable of tracing inner depth discontinuities. A 2D skeleton is generated from the boundary information and used to decompose the component into sub components. A Principal Curve is computed from the 3D point set that is associated with a sub component. The skeletal structure of a connected component is summarized as a set of polylines.
Objective evaluation of the results remains an open problem because the task itself is ill-defined: There exists no clear definition of what the true skeleton should be w.r.t. a given point set. Consequently, we are not able to assess the correctness of the methods quantitatively, but have to rely on visual assessment of results and provide a thorough discussion of the particularities of both methods.
We present experiment results of both methods. The first method efficiently retrieves full skeletons of trees, which approximate the branching structure. The level of detail is mainly governed by the voxel space and therefore, smaller branches are reproduced inadequately. The second method retrieves partial skeletons of a tree with high reproduction accuracy. The method is sensitive to noise in the boundary, but the results are very promising. There are plenty of possibilities to enhance the method’s robustness. The combination of the strengths of both presented methods needs to be investigated further and may lead to a robust way to obtain complete tree skeletons from TLS data automatically. / Die Erforschung des ÖkosystemsWald spielt gerade heutzutage im Hinblick auf den nachhaltigen Umgang mit nachwachsenden Rohstoffen und den Klimawandel eine große Rolle. Insbesondere die exakte Beschreibung der dreidimensionalen Struktur eines Baumes ist wichtig für die Forstwissenschaften und Bioklimatologie, aber auch im Rahmen kommerzieller Anwendungen.
Die konventionellen Methoden um geometrische Pflanzenmerkmale zu messen sind arbeitsintensiv und zeitaufwändig. Für eine genaue Analyse müssen Bäume gefällt werden, was oft unerwünscht ist. Hierbei bietet sich das Terrestrische Laserscanning (TLS) als besonders attraktives Werkzeug aufgrund seines kontaktlosen Messprinzips an. Die Objektgeometrie wird als 3D-Punktwolke wiedergegeben. Basierend darauf ist das Ziel der Arbeit die automatische Bestimmung der räumlichen Baumstruktur aus TLS-Daten. Der Fokus liegt dabei auf Waldszenen mit vergleichsweise hoher Bestandesdichte und mit zahlreichen daraus resultierenden Verdeckungen. Die Auswertung dieser TLS-Daten, die einen unterschiedlichen Grad an Detailreichtum aufweisen, stellt eine große Herausforderung dar.
Zwei vollautomatische Methoden zur Generierung von Skelettstrukturen von gescannten Bäumen, welche komplementäre Eigenschaften besitzen, werden vorgestellt. Bei der ersten Methode wird das Gesamtskelett eines Baumes aus 3D-Daten von registrierten Scans bestimmt. Die Aststruktur wird von einer Voxelraum-Repräsentation abgeleitet indem Pfade von Astspitzen zum Stamm gesucht werden. Der Stamm wird im Voraus aus den 3D-Punkten rekonstruiert. Das Baumskelett wird als 3D-Liniengraph erzeugt.
Für jeden gemessenen Punkt stellt ein Scan neben 3D-Koordinaten und Distanzwerten auch 2D-Indizes zur Verfügung, die sich aus dem Intensitätsbild ergeben. Bei der zweiten Methode, die auf Einzelscans arbeitet, wird dies ausgenutzt. Außerdem wird ein neuartiges Konzept zum Management von TLS-Daten beschrieben, welches die Forschungsarbeit erleichtert hat. Zunächst wird das Tiefenbild in Komponenten aufgeteilt. Es wird eine Prozedur zur Bestimmung von Komponentenkonturen vorgestellt, die in der Lage ist innere Tiefendiskontinuitäten zu verfolgen. Von der Konturinformation wird ein 2D-Skelett generiert, welches benutzt wird um die Komponente in Teilkomponenten zu zerlegen. Von der 3D-Punktmenge, die mit einer Teilkomponente assoziiert ist, wird eine Principal Curve berechnet. Die Skelettstruktur einer Komponente im Tiefenbild wird als Menge von Polylinien zusammengefasst.
Die objektive Evaluation der Resultate stellt weiterhin ein ungelöstes Problem dar, weil die Aufgabe selbst nicht klar erfassbar ist: Es existiert keine eindeutige Definition davon was das wahre Skelett in Bezug auf eine gegebene Punktmenge sein sollte. Die Korrektheit der Methoden kann daher nicht quantitativ beschrieben werden. Aus diesem Grund, können die Ergebnisse nur visuell beurteiltwerden. Weiterhinwerden die Charakteristiken beider Methoden eingehend diskutiert.
Es werden Experimentresultate beider Methoden vorgestellt. Die erste Methode bestimmt effizient das Skelett eines Baumes, welches die Aststruktur approximiert. Der Detaillierungsgrad wird hauptsächlich durch den Voxelraum bestimmt, weshalb kleinere Äste nicht angemessen reproduziert werden. Die zweite Methode rekonstruiert Teilskelette eines Baums mit hoher Detailtreue. Die Methode reagiert sensibel auf Rauschen in der Kontur, dennoch sind die Ergebnisse vielversprechend. Es gibt eine Vielzahl von Möglichkeiten die Robustheit der Methode zu verbessern. Die Kombination der Stärken von beiden präsentierten Methoden sollte weiter untersucht werden und kann zu einem robusteren Ansatz führen um vollständige Baumskelette automatisch aus TLS-Daten zu generieren.
|
Page generated in 0.0393 seconds