• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2460
  • 960
  • 272
  • 265
  • 251
  • 235
  • 78
  • 49
  • 39
  • 33
  • 30
  • 30
  • 30
  • 30
  • 30
  • Tagged with
  • 5596
  • 771
  • 547
  • 411
  • 368
  • 334
  • 321
  • 305
  • 291
  • 285
  • 285
  • 277
  • 264
  • 245
  • 240
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Sensor Fusion for Precise Mapping of Transparent and Specular Reflective Objects / Sensorfusion zur präzisen Kartierung von transparenten und reflektierender Objekten

Koch, Rainer January 2018 (has links) (PDF)
Almost once a week broadcasts about earthquakes, hurricanes, tsunamis, or forest fires are filling the news. While oneself feels it is hard to watch such news, it is even harder for rescue troops to enter such areas. They need some skills to get a quick overview of the devastated area and find victims. Time is ticking, since the chance for survival shrinks the longer it takes till help is available. To coordinate the teams efficiently, all information needs to be collected at the command center. Therefore, teams investigate the destroyed houses and hollow spaces for victims. Doing so, they never can be sure that the building will not fully collapse while they are inside. Here, rescue robots are welcome helpers, as they are replaceable and make work more secure. Unfortunately, rescue robots are not usable off-the-shelf, yet. There is no doubt, that such a robot has to fulfil essential requirements to successfully accomplish a rescue mission. Apart from the mechanical requirements it has to be able to build a 3D map of the environment. This is essential to navigate through rough terrain and fulfil manipulation tasks (e.g. open doors). To build a map and gather environmental information, robots are equipped with multiple sensors. Since laser scanners produce precise measurements and support a wide scanning range, they are common visual sensors utilized for mapping. Unfortunately, they produce erroneous measurements when scanning transparent (e.g. glass, transparent plastic) or specular reflective objects (e.g. mirror, shiny metal). It is understood that such objects can be everywhere and a pre-manipulation to prevent their influences is impossible. Using additional sensors also bear risks. The problem is that these objects are occasionally visible, based on the incident angle of the laser beam, the surface, and the type of object. Hence, for transparent objects, measurements might result from the object surface or objects behind it. For specular reflective objects, measurements might result from the object surface or a mirrored object. These mirrored objects are illustrated behind the surface which is wrong. To obtain a precise map, the surfaces need to be recognised and mapped reliably. Otherwise, the robot navigates into it and crashes. Further, points behind the surface should be identified and treated based on the object type. Points behind a transparent surface should remain as they represent real objects. In contrast, Points behind a specular reflective surface should be erased. To do so, the object type needs to be classified. Unfortunately, none of the current approaches is capable to fulfil these requirements. Therefore, the following thesis addresses this problem to detect transparent and specular reflective objects and to identify their influences. To give the reader a start up, the first chapters describe: the theoretical background concerning propagation of light; sensor systems applied for range measurements; mapping approaches used in this work; and the state-of-the-art concerning detection and identification of transparent and specular reflective objects. Afterwards, the Reflection-Identification-Approach, which is the core of subject thesis is presented. It describes 2D and a 3D implementation to detect and classify such objects. Both are available as ROS-nodes. In the next chapter, various experiments demonstrate the applicability and reliability of these nodes. It proves that transparent and specular reflective objects can be detected and classified. Therefore, a Pre- and Post-Filter module is required in 2D. In 3D, classification is possible solely with the Pre-Filter. This is due to the higher amount of measurements. An example shows that an updatable mapping module allows the robot navigation to rely on refined maps. Otherwise, two individual maps are build which require a fusion afterwards. Finally, the last chapter summarizes the results and proposes suggestions for future work. / Fast schon wöchentlich füllen Meldungen über Erdbeben, Wirbelstürme, Tsunamis oder Wald-brände die Nachrichten. Es ist hart anzusehen, aber noch viel härter trifft es die Rettungskräfte, welche dort zum Einsatz gerufen werden. Diese müssen gut trainiert sein, um sich schnell einen Überblick verschaffen zu können und um den zerstörten Bereich nach Opfern zu durchsuchen. Zeit ist hier ein seltenes Gut, denn die Überlebenschancen sinken, je länger es dauert bis Hilfe eintrifft. Für eine effektive Teamkoordination werden alle Informationen in der Einsatzzentrale gesammelt. In Trupps wird nach Opfern gesucht. Hierfür werden die zerstörten Gebäude durchsucht und alle Hohlräume inspiziert. Dabei können die Helfer oft nicht darauf vertrauen, dass die Gebäude stabil sind und nicht noch vollständig kollabieren. Hier sind Rettungsroboter eine willkommene Hilfe. Sie sind ersetzbar und können für gefährliche Aufgaben verwendet werden. Dies macht die Arbeit der Rettungstrupps sicherer. Allerdings gibt es solche Roboter noch nicht von der Stange. Sie müssten gewisse Anforderungen erfüllen, dass sie in einem solchen Szenarien einsetztbar sind. Neben Ansprüchen an die Mechanik, müsste eine 3D-Karte des Einsatzgebietes erstellen werden. Diese ist Grundlage für eine erfolgreiche Navigation (durch unebenes Terrain), sowie zur Beeinflussung der Umgebung (z.B. Tür öffnen). Die Umgebungserfassung wird über Sen-soren am Roboter durchgeführt. Heutzutage werden bevorzugt Laserscanner dafür verwendet, da sie präzise Messdaten liefern und über einen großen Messbereich verfügen. Unglücklicherweise werden Messdaten durch transparente (z.B. Glas, transparenter Kunststoff) und reflektierende Objekte (z.B. Spiegel, glänzendes Metall) verfälscht. Eine Vorbehandlung der Umgebung (z.B. abdecken der Flächen), um diese Einflüsse zu verhindern, ist verständlicherweise nicht möglich. Zusätzliche Sensoren zu verwenden birgt ebenfalls Nachteile. Das Problem dieser Objekte liegt darin, dass sie nur teilweise sichtbar sind. Dies ist abhängig vom Einfallwinkel des Laserstrahls auf die Oberfläche und vom Typ des Objektes. Dementsprechend könnnen die Messwerte bei transparenten Flächen von der Oberfläche oder vom Objekten dahinter resultieren. Im Gegensatz dazu können die Messwerte bei reflektierenden Oberflächen von der Oberfläche selbst oder von einem gespiegelten Objekt resultieren. Gespiegelte Objekte werden dabei hinter der reflektierenden Objerfläche dargestellt, was falsch ist. Um eine präzise Kartierung zu erlangen, müssen die Oberflächen zuverlässig eingetragen werden. Andernfalls würde der Roboter in diese navigieren und kollidieren. Weiterhin sollten Punkte hinter der Oberfläche abhängig von der Oberfläche behandelt werden. Bei einer trans- parenten Oberfläche müssen die Punkte in die Karte eingetragen werden, weil sie ein reelles Objekt darstellen. Im Gegensatz dazu, müssen bei einer reflektierenden Oberfläche die Messdaten dahinter gelöscht werden. Dafür ist eine Unterscheidung der Objekte zwingend. Diese Anforderungen erfüllen die momentan verfügbaren Algorithmen jedoch nicht. Aus diesem Grund befasst sich folgende Doktorarbeit mit der Problematik der Erkennung und Identifizierung transparenter und spiegelnder Objekte, sowie deren Einflüsse. Um dem Leser einen Einstieg zu geben, beschreiben die ersten Kapitel: den theoretischen Hindergrund bezüglich des Verhaltens von Licht; Sensorsysteme für die Distanzmessung; Kartierungsalgorithmen, welche in dieser Arbeit verwendet wurden; und den Stand der Technik bezüglich der Erkennung von transparenten und spiegelndend Objekten. Danach wird der Reflection-Identification-Algorithmus, welcher Basis dieser Arbeit ist, präsentiert. Hier wird eine 2D und eine 3D Implementierung beschrieben. Beide sind als ROS-Knoten verfügbar. Das anschließende Kapitel diskutiert Experimente, welche die Anwendbarkeit und Zuverlässigkeit des Algorithmus verifizieren. Für den 2D-Fall ist ein Vor- und ein Nachfilter-Modul notwendig. Nur mittels der Nachfilterung ist eine Klassifizierung der Objekte möglich. Im Gegensatz kann im 3D-Fall die Klassifizierung bereits mit der Vorfilterung erlangt werden. Dies beruht auf der höheren Anzahl an Messdaten. Weiterhin zeigt dieses Kapitel beispielhaft eine Adaptierung des TSD-SLAM Algorithmus, so dass der Roboter auf einer aktualisierten Karte navigieren kann. Dies erspart die Erstellung von zwei unabhängigen Karten und eine anschließende Fusionierung. Im letzten Kapitel werden die Ergebnisse der Arbeit zusammengefasst und ein Ausblick mit Anregungen zur Weiterarbeit gegeben.
192

Anwendung von photogrammetrischen Scans im Projection Mapping

Gotthardt, Robert 22 December 2023 (has links)
Diese Arbeit untersucht die Funktionsweise, Herausforderungen und Lösungsansätze des 2D- und 3D Projection Mappings. Insbesondere wird darauf eingegangen, wie dreidimensionale Abbildungen der Realität (3D Scans) genutzt werden und wie sie erstellt werden können, wobei der Fokus auf 3D Scans liegt, die durch photogrammetrische Rekonstruktion mit der Software Meshroom entstanden sind. Ein Ziel dieser Arbeit besteht darin, die beschriebenen Themen so darzustellen, dass sie auch für semiprofessionelle Endanwender verständlich sind. Die Arbeit soll als umfassende und gebündelte Informationssammlung dienen, die als Grundlage für eigene Projekte und vertiefte Forschungen genutzt werden kann.:I. Einleitung II. Begriffe und Definitionen III. Augmented Reality 1. Direct Augmentation 1.1. Projektionsinhalte 1.2. Einrichtung der Projektoren 1.3. Previsualisierung IV. 3D Rekonstruktionen 2. Analog-Digital-Wandlung 3. Rekonstruktionsmethoden 3.1. Aktive Rekonstruktionen 3.2. Passive Rekonstruktionen 3.3. Stereo- und Multiple-Kamera-Setups 3.4. Tiefenberechnung 3.5. Photogrammetrische Pipeline V. Praxisteil 4. Methodik 5. Vorgehensweise Experimentreihe 1 5.1. Referenzmodelle 5.2. Wahl der Referenzobjekte 5.3. Scanning der Referenzobjekte 5.4. Photogrammetrische Rekonstruktion 5.4.1. Aufzeichnung der Fotodatenbanken 5.4.2. Aufbereitung der Aufnahmen 5.4.3. Meshroom-Pipeline 5.4.4. Aufbereitung der Meshes 5.5. Vergleich der Meshes 6. Ergebnisse 7. Auswertung 8. Vorgehensweise Experimentreihe 2 8.1. Aufbau des Experiments 8.2. Aufzeichung der initialen Rekonstruktionsdatenbank 8.3. Rekonstruktion des Gebäudes 8.4. Aufbereitung des Meshes 8.5. Anfertigung von Vorlagen für die Projektionseinrichtung 8.6. Kreation von Projektionsinhalten 8.7. Virtuelle Visualisierung 9. Ergebnisse 10.Auswertung 11.Diskussion 12.Fazit und Ausblick A. Literaturverzeichnis B. Abbildungsverzeichnis C. Messergebnisse D. Datenbanken E. Abbildungen
193

Some Mapping and Homological Properties of g-Functions

Jansen, Arnold Victor 10 1900 (has links)
<p> It is shown that under suitable conditions a g-function determines a continuous function. Relationships between these are examined. In particular, under sufficiently strong conditions, both induce the same homomorphism of Cech homology groups. A realisation theorem giving conditions under which a homomorphism of Cech homology groups is induced by a continuous function is proved.</p> / Thesis / Doctor of Philosophy (PhD)
194

Data Mining: Instruments of Measuring Landscape in Centralia Pennsylvania

Westrate, Michael P. 25 September 2012 (has links)
No description available.
195

Compression of equally spaced digital elevation model (DEM) data /

Roy, Bimal Chandra January 1987 (has links)
No description available.
196

A systematic mapping study of mapping modelling languages

Popovic, Marija, Cizmic, Amila January 2022 (has links)
Context - Various research teams, as well as individual researchers, have investigated mapping modelling languages. However, systematic studies that provide a structured overview of this research on this topic have not been conducted. It is noticeable that this leaves a big gap in the context of a modelling language. Conducting these studies could lead to a better understanding of the characteristics of mapping modelling languages, which would be of great importance for the future development of this area of research. Objective - The aim of the study is to assess the state of knowledge about mapping modelling languages and assist stakeholders in making informed decisions. This is carried out by identifying existing mapping modelling languages, and their characteristics. Another objective of this thesis is to identify potential mapping modelling languages that can support the generation of a blended modelling environment. Method - In order to achieve the goal, we conducted a systematic mapping study of mapping modelling languages. Our search showed that we had 2913 potential studies that were relevant to our topic. After the selection process, the final set of primary papers was 29. The information that was of importance for this study was derived according to the categories of a well-defined classification framework. Results - The analysis of the extracted data showed the following main findings: (i) most of the primary studies research focused on providing solution proposals, (ii) the largest number of publications was in 2010, (iii) most papers mention mapping modelling languages that allow the definition of unidirectional mapping rules, (iv) the most common cardinality was 1:N, (v) graphical syntax has been proposed in many primary studies, (vi) most studies suggest mapping modelling languages that can be used to define relationships between RDF models, (vii) documentation and implementation were available for a very small number of mapping modelling languages. Conclusion - These results can help the research community to identify research gaps on mapping modelling languages as well as identify possible directions for future research.
197

Mapping bedrock terrain with the EM16R-VLF unit

Jones, David, mining engineer. January 1978 (has links)
No description available.
198

Invariants of some mappings.

Lam, Woon-Chung. January 1965 (has links)
No description available.
199

Interpreting the Landscape through Layers of Mapping

Mcmillon, John Bernard 23 June 2017 (has links)
The ways in which landscapes are represented, through maps, paintings, and photographs, influence the interpretation of a particular site. By investigating these different methods of representation, the landscape can be understood on a deeper level. Layering these various maps and images creates a variety of diagrams that can then be used to determine what are the most important qualities and how to utilize these qualities in an architectural intervention. / Master of Architecture
200

Powering Productivity - Mapping Method Report

Boehnert, J., Mair, Simon, Landa-Avila, C. 11 December 2020 (has links)
Yes

Page generated in 0.0785 seconds