Return to search

Dreidimensionale Skizzen in Erweiterter Realität

Die Technik der Erweiterten Realität (ER) kann dazu eingesetzt werden, künstliche und natürliche Sinneseindrücke zu einer konsistenten Gesamtwahrnehmung zu verschmelzen. Dabei soll der Nutzer den Eindruck haben, dass die physikalische Welt mit virtuellen Objekten zu einer erweiterten Welt ergänzt wurde. In dieser Erweiterten Welt kann der Nutzer sinnvoll mit den wahrgenommenen Objekten interagieren. In dieser Arbeit wird eine Methode vorgeschlagen, mit der durch den Einsatz der ER-Technik virtuelle Skizzen direkt in die physikalische Welt gezeichnet werden können. Hierzu wird in dieser Abhandlung der Begriff ” dreidimensionale Skizze“ verwendet. Die skizzierte Information soll aber nicht nur zweidimensional, sondern auch dreidimensional repräsentiert werden und somit aus verschiedenen Perspektiven darstellbar sein. Damit man das Objekt aus verschiedenen Perspektiven betrachten kann, braucht man eine dreidimensionale Repräsentation des Objektes. Es handelt sich also nicht um eine zweidimensionale räumliche Skizze eines dreidimensionalen Objektes, sondern um eine dreidimensional repräsentierte Skizze eines räumlichen Objektes. Ein Anwendungsbereich für dreidimensionale Skizzen ist die Erfassung von Lageinformation nach Katastrophen. Die dreidimensionale Skizze soll die zweidimensionale Zeichnung als Lagekarte bzw. Lageskizze ergänzen. Mit Hilfe von Kartenmaterial lassen sich eingesetzte Kräfte, Infrastruktur, gefährdete Objekte, Gefahrenentwicklung, Schäden und Sonstiges in Beziehung bringen. Die bisherigen Verfahren zur Generierung von Skizzen in einer ER-Umgebung sind nicht für den Einsatz beim Katastrophenmanagement geeignet. Es wird deshalb eine neue Methode vorgestellt, mit der Geometrien in die physikalische Welt skizziert werden können und damit während des Einsatzes vor Ort Lageskizzen angefertigt werden können. Es wird gezeigt, wie diese dreidimensionalen Daten mit anderen Informationen in ein Gesamtkonzept zum Wissensmanagement bei Katastrophen integriert werden können. Ein ER-System für ausgedehnte Einsatzgebiete benötigt Sensoren, die für den gesamten Einsatzbereich Position und Orientierung liefern. Für diese Arbeit wird die Position durch ein GPS erfasst und die Orientierung mit einem Inertialnavigationssystem (INS) bestimmt. Die Verschmelzung der Bilder von physikalischer und virtueller Welt erfolgt mithilfe einer Durchsichtdatenbrille oder mithilfe von Bildern einer Videokamera, die mit computergenerierten Bildern überlagert werden. Neben dem mathematischen Modell ist es notwendig die stochastischen Eigenschaften der Komponenten zu kennen. Zur Bestimmung der Genauigkeit des INS wurde eine Methode entwickelt, die das Fehlerverhalten des INS abschätzen kann, ohne dass zusätzliche Geräte zur Bestimmung notwendig sind. Zur Abschätzung der Fehler wird ausgenutzt, dass sich der Sensor um eine feste Achse drehen muss, wenn er auf einer ebenen Oberfläche aufgesetzt und gedreht wird.Die Herausforderung der Kalibrierung der verwendeten Konfiguration besteht darin, dass das mathematische Modell durch nicht-lineare Gleichungssysteme beschrieben wird, die nicht in einem Schritt lösbar sind. Das Gleichungssystem des mathematischen Modells ist eine Erweiterung des Gleichungssystems einer Bündelblockausgleichung. Die Bündelblockausgleichung ist für den Fall der perspektiven Abbildung ein nicht-lineares Gleichungssystem. Da die Konvergenz von Lösungsverfahren für dieses Gleichungssystem von verschiedenen Faktoren abhängen, wie z. B. der Zahl der Unbekannten, der Konfiguration der Aufnahmen, der Wahl der Näherungswerte, werden in der Literatur mehrere verschiedene Lösungsstrategien für die Bündelblockausgleichung vorgeschlagen. Die in dieser Arbeit beschriebene Methode nutzt aus, dass die Konvergenz von der Struktur des mathematischen Modells abhängt. Zur Beschreibung von Strukturübergängen von einem mathematischen Modell in ein anderes wird eine neue Notation vorgeschlagen, die geeignet ist den gesamten Kalibriervorgang formal vollständig darzustellen. Es werden für alle Teilschritte und geschätzten Parameter die erreichbaren Genauigkeiten, die empirisch ermittelt wurden, angegeben. Damit das Gezeichnete in der bewegten Anzeige sichtbar gemacht werden kann, müssen die gemessenen Bildpunkte ständig der Bewegung nachgeführt und in neue Anzeigekoordinatensysteme transformiert werden. Gäbe es für die gemessenen Bildpunkte dreidimensionale Objektkoordinaten, dann wäre die Transformation leicht zu berechnen. Doch anfangs verfügt man lediglich über zweidimensionale Bildkoordinaten. In der Literatur findet man für diese Problemstellung keine Lösungen. Für diese Arbeit wurde deshalb eine Näherungsmethode entwickelt, mit der die Bildpunkte des gezeichneten Gesamtbildes der Bewegung des Benutzers nachgeführt werden können, ohne dass dreidimensionale Koordinaten bekannt sind. Zur Berechnung der dreidimensionalen Koordinaten des Gezeichneten muss die Skizze aus mehreren Perspektiven gezeichnet werden. Im Gegensatz zu vorhandenen Ansätzen können mit der Methode dieser Arbeit polygonale Skizzenelemente berührungsfrei aus der Distanz konstruiert werden. Beim Konstruieren von dreidimensionalen Skizzen werden Polygone im Objektraum beobachtet. Die gemessenen Punkte, die die Polygone beschreiben, liegen nicht mehr in einer Bildebene, da sich der Betrachter während des Skizzierens frei im Raum bewegen können soll. Von mindestens zwei verschiedenen Orten aus zeichnet man mit der Maus Polygonpunkte in die Anzeige. Jede im Bildraum abgetastete Kurve beschreibt eine andere räumliche Kurve im Objektraum. Dabei entsteht ein erster Fehler bei der Diskretisierung der Raumkurve durch die Wahl bestimmter Stützpunkte, die diese Kurve repräsentieren. Eine weitere Art von Fehlern entsteht durch fehlerbehaftete Sensormessungen und Fehler in den Bildpunktkoordinaten. Darüber hinaus wird jedoch ein weit größerer Fehler dadurch verursacht, dass der Zeichner sich nicht mehr genau an die Punkte erinnert, entlang derer er die Kurve skizziert hat, da kein Polygon, das in den physikalischen Raum gezeichnet wird, sich auf den gleichen physikalischen Ort bezieht. Es entstehen also mindestens zwei Bündel von Strahlen und jedes Strahlenbündel beschreibt eine Fläche, auf der eine Vielzahl von Polygonen liegen kann. Durch Minimierung von Polygondistanzen wird der Verlauf der beobachteten Polygone im physikalischen Raum festgelegt. Die vorgeschlagenen Verfahren werden an verschiedenen Beispielen geprüft. Die Ergebnisse der Tests werden diskutiert. Abschließend wird der weitere Entwicklungsbedarf aufgezeigt.

Identiferoai:union.ndltd.org:CCSD/oai:tel.archives-ouvertes.fr:tel-00275264
Date23 November 2005
CreatorsLeebmann, Johannes
PublisherUniversité Louis Pasteur - Strasbourg I
Source SetsCCSD theses-EN-ligne, France
LanguageGerman
Detected LanguageGerman
TypePhD thesis

Page generated in 0.0027 seconds