Spelling suggestions: "subject:"capping"" "subject:"crapping""
191 |
Sensor Fusion for Precise Mapping of Transparent and Specular Reflective Objects / Sensorfusion zur präzisen Kartierung von transparenten und reflektierender ObjektenKoch, Rainer January 2018 (has links) (PDF)
Almost once a week broadcasts about earthquakes, hurricanes, tsunamis, or forest fires are filling the news. While oneself feels it is hard to watch such news, it is even harder for rescue troops to enter such areas. They need some skills to get a quick overview of the devastated area and find victims. Time is ticking, since the chance for survival shrinks the longer it takes till help is available. To coordinate the teams efficiently, all information needs to be collected at the command center. Therefore, teams investigate the destroyed houses and hollow spaces for victims. Doing so, they never can be sure that the building will not fully collapse while they
are inside. Here, rescue robots are welcome helpers, as they are replaceable and make work more secure. Unfortunately, rescue robots are not usable off-the-shelf, yet.
There is no doubt, that such a robot has to fulfil essential requirements to successfully accomplish a rescue mission. Apart from the mechanical requirements it has to be able to build
a 3D map of the environment. This is essential to navigate through rough terrain and fulfil manipulation tasks (e.g. open doors). To build a map and gather environmental information, robots are equipped with multiple sensors. Since laser scanners produce precise measurements and support a wide scanning range, they are common visual sensors utilized for mapping.
Unfortunately, they produce erroneous measurements when scanning transparent (e.g. glass, transparent plastic) or specular reflective objects (e.g. mirror, shiny metal). It is understood that such objects can be everywhere and a pre-manipulation to prevent their influences is impossible. Using additional sensors also bear risks.
The problem is that these objects are occasionally visible, based on the incident angle of the laser beam, the surface, and the type of object. Hence, for transparent objects, measurements might result from the object surface or objects behind it. For specular reflective objects, measurements might result from the object surface or a mirrored object. These mirrored objects are illustrated behind the surface which is wrong. To obtain a precise map, the surfaces need to
be recognised and mapped reliably. Otherwise, the robot navigates into it and crashes. Further, points behind the surface should be identified and treated based on the object type. Points behind a transparent surface should remain as they represent real objects. In contrast, Points behind a specular reflective surface should be erased. To do so, the object type needs to be classified. Unfortunately, none of the current approaches is capable to fulfil these requirements.
Therefore, the following thesis addresses this problem to detect transparent and specular reflective objects and to identify their influences. To give the reader a start up, the first chapters
describe: the theoretical background concerning propagation of light; sensor systems applied for range measurements; mapping approaches used in this work; and the state-of-the-art concerning detection and identification of transparent and specular reflective objects. Afterwards, the Reflection-Identification-Approach, which is the core of subject thesis is presented. It describes 2D and a 3D implementation to detect and classify such objects. Both are available as ROS-nodes. In the next chapter, various experiments demonstrate the applicability and reliability of these nodes. It proves that transparent and specular reflective objects can be detected and classified. Therefore, a Pre- and Post-Filter module is required in 2D. In 3D, classification is possible solely with the Pre-Filter. This is due to the higher amount of measurements. An
example shows that an updatable mapping module allows the robot navigation to rely on refined maps. Otherwise, two individual maps are build which require a fusion afterwards. Finally, the
last chapter summarizes the results and proposes suggestions for future work. / Fast schon wöchentlich füllen Meldungen über Erdbeben, Wirbelstürme, Tsunamis oder Wald-brände die Nachrichten. Es ist hart anzusehen, aber noch viel härter trifft es die Rettungskräfte, welche dort zum Einsatz gerufen werden. Diese müssen gut trainiert sein, um sich schnell einen Überblick verschaffen zu können und um den zerstörten Bereich nach Opfern zu durchsuchen.
Zeit ist hier ein seltenes Gut, denn die Überlebenschancen sinken, je länger es dauert bis Hilfe eintrifft. Für eine effektive Teamkoordination werden alle Informationen in der Einsatzzentrale
gesammelt. In Trupps wird nach Opfern gesucht. Hierfür werden die zerstörten Gebäude durchsucht und alle Hohlräume inspiziert. Dabei können die Helfer oft nicht darauf vertrauen, dass die Gebäude stabil sind und nicht noch vollständig kollabieren. Hier sind Rettungsroboter
eine willkommene Hilfe. Sie sind ersetzbar und können für gefährliche Aufgaben verwendet werden. Dies macht die Arbeit der Rettungstrupps sicherer. Allerdings gibt es solche Roboter noch nicht von der Stange.
Sie müssten gewisse Anforderungen erfüllen, dass sie in einem solchen Szenarien einsetztbar sind. Neben Ansprüchen an die Mechanik, müsste eine 3D-Karte des Einsatzgebietes erstellen werden. Diese ist Grundlage für eine erfolgreiche Navigation (durch unebenes Terrain), sowie zur Beeinflussung der Umgebung (z.B. Tür öffnen). Die Umgebungserfassung wird über Sen-soren am Roboter durchgeführt. Heutzutage werden bevorzugt Laserscanner dafür verwendet,
da sie präzise Messdaten liefern und über einen großen Messbereich verfügen. Unglücklicherweise werden Messdaten durch transparente (z.B. Glas, transparenter Kunststoff) und reflektierende Objekte (z.B. Spiegel, glänzendes Metall) verfälscht. Eine Vorbehandlung der Umgebung (z.B. abdecken der Flächen), um diese Einflüsse zu verhindern, ist verständlicherweise nicht möglich. Zusätzliche Sensoren zu verwenden birgt ebenfalls Nachteile.
Das Problem dieser Objekte liegt darin, dass sie nur teilweise sichtbar sind.
Dies ist abhängig vom Einfallwinkel des Laserstrahls auf die Oberfläche und vom Typ des Objektes.
Dementsprechend könnnen die Messwerte bei transparenten Flächen von der Oberfläche oder vom Objekten dahinter resultieren. Im Gegensatz dazu können die Messwerte bei reflektierenden Oberflächen von der Oberfläche selbst oder von einem gespiegelten Objekt resultieren.
Gespiegelte Objekte werden dabei hinter der reflektierenden Objerfläche dargestellt, was falsch ist. Um eine präzise Kartierung zu erlangen, müssen die Oberflächen zuverlässig eingetragen
werden. Andernfalls würde der Roboter in diese navigieren und kollidieren. Weiterhin sollten Punkte hinter der Oberfläche abhängig von der Oberfläche behandelt werden. Bei einer trans-
parenten Oberfläche müssen die Punkte in die Karte eingetragen werden, weil sie ein reelles Objekt darstellen. Im Gegensatz dazu, müssen bei einer reflektierenden Oberfläche die Messdaten dahinter gelöscht werden. Dafür ist eine Unterscheidung der Objekte zwingend. Diese Anforderungen erfüllen die momentan verfügbaren Algorithmen jedoch nicht.
Aus diesem Grund befasst sich folgende Doktorarbeit mit der Problematik der Erkennung und Identifizierung transparenter und spiegelnder Objekte, sowie deren Einflüsse. Um dem Leser einen Einstieg zu geben, beschreiben die ersten Kapitel: den theoretischen Hindergrund bezüglich des Verhaltens von Licht; Sensorsysteme für die Distanzmessung; Kartierungsalgorithmen, welche in dieser Arbeit verwendet wurden; und den Stand der Technik bezüglich der Erkennung von transparenten und spiegelndend Objekten. Danach wird der Reflection-Identification-Algorithmus, welcher Basis dieser Arbeit ist, präsentiert. Hier wird eine 2D und eine 3D Implementierung beschrieben. Beide sind als ROS-Knoten verfügbar. Das anschließende Kapitel diskutiert Experimente, welche die Anwendbarkeit und Zuverlässigkeit des Algorithmus verifizieren. Für den 2D-Fall ist ein Vor- und ein Nachfilter-Modul notwendig.
Nur mittels der Nachfilterung ist eine Klassifizierung der Objekte möglich. Im Gegensatz kann im 3D-Fall die Klassifizierung bereits mit der Vorfilterung erlangt werden. Dies beruht auf der höheren Anzahl an Messdaten. Weiterhin zeigt dieses Kapitel beispielhaft eine Adaptierung des TSD-SLAM Algorithmus, so dass der Roboter auf einer aktualisierten Karte navigieren kann.
Dies erspart die Erstellung von zwei unabhängigen Karten und eine anschließende Fusionierung.
Im letzten Kapitel werden die Ergebnisse der Arbeit zusammengefasst und ein Ausblick mit Anregungen zur Weiterarbeit gegeben.
|
192 |
Anwendung von photogrammetrischen Scans im Projection MappingGotthardt, Robert 22 December 2023 (has links)
Diese Arbeit untersucht die Funktionsweise, Herausforderungen und Lösungsansätze des 2D- und 3D Projection Mappings. Insbesondere wird darauf eingegangen, wie dreidimensionale Abbildungen der Realität (3D Scans) genutzt werden und wie sie erstellt werden können, wobei der Fokus auf 3D Scans liegt, die durch photogrammetrische Rekonstruktion mit der Software Meshroom entstanden sind.
Ein Ziel dieser Arbeit besteht darin, die beschriebenen Themen so darzustellen, dass sie auch für semiprofessionelle Endanwender verständlich sind. Die Arbeit soll als umfassende und gebündelte Informationssammlung dienen, die als Grundlage für eigene Projekte und vertiefte Forschungen genutzt werden kann.:I. Einleitung
II. Begriffe und Definitionen
III. Augmented Reality
1. Direct Augmentation
1.1. Projektionsinhalte
1.2. Einrichtung der Projektoren
1.3. Previsualisierung
IV. 3D Rekonstruktionen
2. Analog-Digital-Wandlung
3. Rekonstruktionsmethoden
3.1. Aktive Rekonstruktionen
3.2. Passive Rekonstruktionen
3.3. Stereo- und Multiple-Kamera-Setups
3.4. Tiefenberechnung
3.5. Photogrammetrische Pipeline
V. Praxisteil
4. Methodik
5. Vorgehensweise Experimentreihe 1
5.1. Referenzmodelle
5.2. Wahl der Referenzobjekte
5.3. Scanning der Referenzobjekte
5.4. Photogrammetrische Rekonstruktion
5.4.1. Aufzeichnung der Fotodatenbanken
5.4.2. Aufbereitung der Aufnahmen
5.4.3. Meshroom-Pipeline
5.4.4. Aufbereitung der Meshes
5.5. Vergleich der Meshes
6. Ergebnisse
7. Auswertung
8. Vorgehensweise Experimentreihe 2
8.1. Aufbau des Experiments
8.2. Aufzeichung der initialen Rekonstruktionsdatenbank
8.3. Rekonstruktion des Gebäudes
8.4. Aufbereitung des Meshes
8.5. Anfertigung von Vorlagen für die Projektionseinrichtung
8.6. Kreation von Projektionsinhalten
8.7. Virtuelle Visualisierung
9. Ergebnisse
10.Auswertung
11.Diskussion
12.Fazit und Ausblick
A. Literaturverzeichnis
B. Abbildungsverzeichnis
C. Messergebnisse
D. Datenbanken
E. Abbildungen
|
193 |
Some Mapping and Homological Properties of g-FunctionsJansen, Arnold Victor 10 1900 (has links)
<p> It is shown that under suitable conditions a g-function determines a continuous function.
Relationships between these are examined. In particular, under sufficiently strong conditions, both induce the same homomorphism of Cech homology groups. A realisation theorem giving conditions under which a homomorphism of Cech homology groups is induced by a continuous function is proved.</p> / Thesis / Doctor of Philosophy (PhD)
|
194 |
Data Mining: Instruments of Measuring Landscape in Centralia PennsylvaniaWestrate, Michael P. 25 September 2012 (has links)
No description available.
|
195 |
Compression of equally spaced digital elevation model (DEM) data /Roy, Bimal Chandra January 1987 (has links)
No description available.
|
196 |
A systematic mapping study of mapping modelling languagesPopovic, Marija, Cizmic, Amila January 2022 (has links)
Context - Various research teams, as well as individual researchers, have investigated mapping modelling languages. However, systematic studies that provide a structured overview of this research on this topic have not been conducted. It is noticeable that this leaves a big gap in the context of a modelling language. Conducting these studies could lead to a better understanding of the characteristics of mapping modelling languages, which would be of great importance for the future development of this area of research. Objective - The aim of the study is to assess the state of knowledge about mapping modelling languages and assist stakeholders in making informed decisions. This is carried out by identifying existing mapping modelling languages, and their characteristics. Another objective of this thesis is to identify potential mapping modelling languages that can support the generation of a blended modelling environment. Method - In order to achieve the goal, we conducted a systematic mapping study of mapping modelling languages. Our search showed that we had 2913 potential studies that were relevant to our topic. After the selection process, the final set of primary papers was 29. The information that was of importance for this study was derived according to the categories of a well-defined classification framework. Results - The analysis of the extracted data showed the following main findings: (i) most of the primary studies research focused on providing solution proposals, (ii) the largest number of publications was in 2010, (iii) most papers mention mapping modelling languages that allow the definition of unidirectional mapping rules, (iv) the most common cardinality was 1:N, (v) graphical syntax has been proposed in many primary studies, (vi) most studies suggest mapping modelling languages that can be used to define relationships between RDF models, (vii) documentation and implementation were available for a very small number of mapping modelling languages. Conclusion - These results can help the research community to identify research gaps on mapping modelling languages as well as identify possible directions for future research.
|
197 |
Mapping bedrock terrain with the EM16R-VLF unitJones, David, mining engineer. January 1978 (has links)
No description available.
|
198 |
Invariants of some mappings.Lam, Woon-Chung. January 1965 (has links)
No description available.
|
199 |
MR-tomographische Gewebscharakterisierung der Phänomene des akuten Myokardinfarkts mittels parametrischem MappingHermeling, Thomas Johannes 12 November 2024 (has links)
Hintergrund
Das parametrische Mapping bietet durch die Erhebung absoluter Relaxationszeiten, welche die Gewebseigenschaften jedes Pixels widerspiegeln, das Potential, die nichtinvasive Gewebsdifferenzierung nach einem akuten Myokardinfarkt gegenüber dem heute als Goldstandard anzusehenden Late Gadolinium Enhancement (LGE) und der T2-gewichteten Short tau inversion recovery (T2-STIR) Sequenz weiter zu verbessern. Es galt das diagnostische Potential des parametrischen Mappings zur Differenzierung von Ödem, Nekrose, mikrovaskulärer Obstruktion (MVO), intramyokardialer Hämorrhagie (MH) und Remote Myokard unter Beweis zu stellen, Referenzwerte zu generieren und Schwellenwerte zur Differenzierung von pathologisch verändertem und gesundem Myokard abzuleiten. Die prognostische Relevanz der bestimmten Messwerte sollte durch Korrelation mit prognoserelevanten Faktoren ermittelt werden.
Methoden
In dieser retrospektiven Studie wurden 88 Patienten nach erlittenem ST Hebungsinfarkt (STEMI) oder Nicht-ST-Hebungsinfarkt (NSTEMI) untersucht, bei denen nach perkutaner koronarer Intervention eine Kardio-MRT (1,5 Tesla) durchgeführt wurde. Beim T1-Mapping kam eine modifizierte Look-Locker Inversion Recovery Sequenz nativ (T1 nativ), 1-2 min (EG-T1) und 15-18min (LG-T1) nach Gabe von 0,15mmol/kgKG Gadobutrol Kontrastmittel (KM) zum Einsatz. Beim T2-Mapping wurde eine Multi-Echo-Spin-Echo Sequenz und beim T2*-Mapping eine Gradient-Multiecho T2*-Sequenz verwendet. Das Extrazellularvolumen (EZV) leitete sich aus T1 nativ und LG-T1 ab. T2-STIR und LGE dienten als Referenzverfahren für Ödem und Nekrose. Die linksventrikuläre Pumpfunktion (LVEF) wurde mittels einer Steady-State Free Precession Sequenz bestimmt. Eine Voruntersuchung an N=14 Patienten, bei der Ödem und Nekrose anhand übertragener ROIs aus der T2-STIR und dem LGE definiert wurden, diente in Zusammenschau mit der Literatur zur Definition von visuellen Schwellenwerten für Ödem und Nekrose, an denen sich die visuellen Auswertungen dieser Arbeit orientierten (T1 nativ 1150ms, T2-Mapping 62ms, LG T1 350ms, MH 20ms). Es erfolgte eine visuelle Quantifizierung von Ödem, Nekrose, MVO, MH und Remote Myokard im T1 /T2- und T2*-Mapping bei allen N=88 Patienten. Die Ergebnisse wurden mit prognoserelevanten Parametern wie Infarktgröße, Myocardial Salvage Index (MSI), LVEF und EKG-Phänotyp (STEMI/NSTEMI) korreliert. Es wurden retrospektiv 1Standardabweichungs (SD)- und 2SD-Schwellenwerte vom Remote Myokard auf die erhobenen Messwerte angewendet.
Ergebnisse
Die Fläche des Ödems korrelierte in T1 nativ (r=0,82) und im T2-Mapping (r=0,85) in hohem Maße mit der T2-STIR Sequenz, wobei das Ödem durch das T1 nativ (p<0,01) signifikant und durch das T2-Mapping (p=0,048) grenzwertig signifikant unterschätzt wurde. In T1 nativ und im T2-Mapping konnten Referenzwerte für Ödem und Remote Myokard bestimmt werden (T1 nativ: 1249,0 ± 99,5ms vs. 1049,8 ± 77,7ms, p<0,01; T2-Mapping: 76,1± 8,9ms vs. 56,3 ± 4,2ms, p<0,01). Die T2 Zeit des Ödems korrelierte im Gegensatz zur T1-Zeit mit der LVEF und der Nekrosegröße. Die Fläche der Nekrose im LG-T1 und im LGE korrelierten höchstgradig miteinander (r=0,90). Im LG T1 lag die T1-Zeit der Nekrose bei 329,6 ± 37,9ms, die des Remote Myokards bei 430,1 ± 56,0ms (p<0,01). Das EZV im Infarktareal wurde mit 56,2 ± 8,6% und im Remote Myokard mit 34,6 ± 6,5% bestimmt (p<0,01). Das EG-T1 (N=37) zeigte sich bei der Darstellung der MVO gegenüber dem LG-T1 (N=36) leichtgradig sensitiver. In T1 nativ konnte zudem eine native MVO nachgewiesen werden (N=24). Für die MVO wurde in T1 nativ eine T1-Zeit von 972,6 ± 169,7ms, im EG-T1 von 636,2 ± 179,9ms und im LG-T1 von 456,3 ± 156,8ms bestimmt. Die T1 Zeit und Größe der MVO im EG-T1 und LG-T1 korrelierten mit der Nekrosegröße und der LVEF. Bei Nachweis einer MVO wiesen die Probanden einen geringeren MSI auf. Patienten mit MVO oder STEMI zeigten im T2 Mapping eine signifikant höhere T2 Zeit des Ödems. In T1 nativ und im LG T1 fanden sich hier hingegen keine signifikanten Unterschiede. Bei 21 der Probanden konnte eine MH nachgewiesen werden. Die T2*-Zeit der MH lag bei 17,5 ± 3,5ms. Das Auftreten einer MH stand im Zusammenhang mit einer größeren Nekrose, einem kleineren MSI und einer geringeren LVEF. Bei der retrospektiven Anwendung konnte ein +1SD Schwellenwert von 1127,5ms in T1 nativ und von 60,4ms im T2 Mapping das Ödem am besten differenzieren. Im LG T1 bevorzugten wir einen 1SD Schwellenwert von 374,1ms zur Differenzierung der Nekrose, wodurch diese jedoch im Vergleich zu den anderen Sequenzen häufiger nicht korrekt erkannt wurde. Auffällig war im LG-T1 eine höhere Variabilität der T1-Zeiten.
Schlussfolgerung
Das Ödem konnte mittels des nativen T1- und T2-Mappings dargestellt werden, wobei sich das T2-Mapping als überlegene Sequenz herausstellte. Es zeigte eine stärkere Übereinstimmung der bestimmten Ödemfläche mit dem Referenzverfahren. Die T2-Zeit des Ödems korrelierte im Gegensatz zur T1-Zeit mit prognoserelevanten Parametern wie der LVEF und der Nekrosegröße im LGE. Durch das LG-T1 gelang eine Quantifizierung der Nekrose, was eine höchstgradige Korrelation mit dem LGE belegte. Die MVO konnte nativ und im KM-verstärkten T1-Mapping nachgewiesen werden. Das EG-T1 zeigte sich hierbei dem LG-T1 leichtgradig überlegen. Im T2* Mapping gelang eine Darstellung der MH. Das Auftreten einer MVO oder MH standen im Zusammenhang mit prognoserelevanten Faktoren. Die T1 Zeit und Größe der MVO korrelierten zudem mit der LVEF und der Nekrosegröße. Patienten mit STEMI oder MVO zeigten signifikant höhere T2-Zeiten im Bereich des Ödems. Bei oben genannter Korrelation der T2-Zeit des Ödems mit der LVEF und der Nekrosegröße scheint somit die Höhe der T2-Zeit im Gegensatz zur T1-Zeit eine Aussage über das Ausmaß der Myokardschädigung zuzulassen. Ein +1SD-Schwellenwert stellte sich in T1 nativ und im T2-Mapping als zu favorisierender Schwellenwert zur Differenzierung des Ödems heraus. Eine höhere Variabilität der T1-Zeiten erschwerte im LG T1 eine schwellenwertbasierte Auswertung anhand eines 1SD Schwellenwertes.:1. Abkürzungsverzeichnis 1
2. Einleitung 2
2.1. Einführung 2
2.2. Der Myokardinfarkt 3
2.3. Grundlagen der Magnetresonanztomographie 4
2.4. Gewebscharakterisierung des akuten Myokardinfarkts 9
2.4.1. Das Ödem 9
2.4.2. Die Nekrose 10
2.4.3. Die mikrovaskuläre Obstruktion 12
2.4.4. Die intramyokardiale Hämorrhagie 13
2.5. Parametrisches Mapping 14
2.5.1. Parametrisches Mapping allgemein 14
2.5.2. T1-Mapping 15
2.5.3. Extrazellularvolumen 15
2.5.4. T2-Mapping 16
2.5.5. T2*-Mapping 17
2.6. Zielsetzung 17
3. Material und Methoden 18
3.1. Studienkollektiv 18
3.2. Datenakquisition 19
3.2.1. Datenakquisition des parametrischen Mappings 20
3.2.1.1. T1-Mapping 20
3.2.1.2. T2-Mapping 20
3.2.1.3. T2*-Mapping 20
3.2.2. Referenzverfahren 21
3.2.2.1. Ödemsensitive T2-gewichtete Bildgebung 21
3.2.2.2. Late Gadolinium Enhancement 21
3.2.3. Ergänzende Analysen 21
3.2.3.1. Linksventrikuläre Funktionsanalyse 21
3.3. Datenevaluation 22
3.3.1. Kalibrierende Voruntersuchung 23
3.3.2. Gewebscharakterisierung im parametrischen Mapping 23
3.3.2.1. T1-Mapping 23
3.3.2.2. T2-Mapping 25
3.3.2.3. T2*-Mapping 25
3.3.2.4. Schwellenwertbestimmung 26
3.3.3. Referenzverfahren 26
3.3.4. Ergänzende Analysen 27
3.3.4.1. Bestimmung der linksventrikulären Funktion 27
3.3.5. Abgeleitete Parameter 27
3.3.5.1. Myokardial Salvage Index 27
3.3.5.2. Extrazellularvolumen 27
3.4. Statistische Verfahren 28
4. Ergebnisse 29
4.1. Kalibrierende Voruntersuchung 29
4.2. Gewebscharakterisierung im parametrischen Mapping 32
4.2.1. Ergebnistabellen 32
4.2.2. Planimetrie der Gewebsdifferenzierung im parametrischen Mapping 33
4.2.2.1. Korrelation von parametrischem Mapping und Referenzverfahren 33
4.2.3. Relaxometrie der Gewebsdifferenzierung im parametrischen Mapping 37
4.2.3.1. Das Ödem im nativen T1- und T2-Mapping 37
4.2.3.2. Die Nekrose im kontrastmittelverstärkten T1-Mapping 43
4.2.3.3. Extrazellularvolumen 46
4.2.4. Mikrovaskuläre Obstruktion 46
4.2.5. Intramyokardiale Hämorrhagie 53
4.3. Schwellenwerte 57
4.4. Vergleich der EKG-Phänotypen STEMI vs. NSTEMI 63
5. Diskussion 64
5.1. Kalibrierende Voruntersuchung 64
5.2. Das Ödem im parametrischen Mapping 65
5.3. Die Nekrose im parametrischen Mapping 70
5.4. Extrazellularvolumen 74
5.5. Mikrovaskuläre Obstruktion 75
5.6. Intramyokardiale Hämorrhagie 79
5.7. Schwellenwerte 85
5.8. Schlussfolgerung 93
6. Zusammenfasssung der Arbeit 97
7. Literaturverzeichnis 100
8. Eigenständigkeitserklärung 111
9. Lebenslauf 112
10. Danksagung 113
|
200 |
Interpreting the Landscape through Layers of MappingMcmillon, John Bernard 23 June 2017 (has links)
The ways in which landscapes are represented, through maps, paintings, and photographs, influence the interpretation of a particular site. By investigating these different methods of representation, the landscape can be understood on a deeper level. Layering these various maps and images creates a variety of diagrams that can then be used to determine what are the most important qualities and how to utilize these qualities in an architectural intervention. / Master of Architecture
|
Page generated in 0.0533 seconds