Dreidimensionale Informationsvisualisierungen fördern durch den geringen Grad an Abstraktion die Bildung eines präzisen mentalen Modells und können daher multidimensionale räumliche Beziehungen greifbar kommunizieren. Gleichzeitig eröffnet die aktuelle Generation von Augmented Reality Head-Mounted Displays (AR-HMDs) neuartige Möglichkeiten zur Exploration von 3D-InfoVis und ist befähigt virtuelle Objekte glaubwürdig und immersiv in die physische Umgebung eines Nutzers zu integrieren. Dennoch unterliegt die Interaktion in AR-Umgebungen einer Vielzahl von Herausforderungen, da die signifikante Mehrheit der Applikationen lediglich Blick-, Freihandgesten- oder Sprachsteuerung als Eingabemodalität in Betracht ziehen. Durch Kombination von interaktiven Oberflächen wie Tabletops mit AR-HMDs können diese Nachteile effizient adressiert werden, indem direkte und natürliche Manipulation in Form von Multi-Touch, Tangible- oder Stift-Eingabe ermöglicht wird.
Im Rahmen dieser Thesis wird untersucht, wie die Analyse von 3D-InfoVis bei Kombination interaktiver Oberflächen mit AR-HMDs unterstützt werden kann. Hierfür wird der aktuelle Stand der Forschung in themennahen Domänen erfasst und folgend Konzepte zur Unterstützung analytischer Prozesse in zuvor erläuterter Systemkonstellation entwickelt. Die resultierenden Konzepte adressieren dabei Limitationen, die bei Darstellung und Interaktion von und mit 3D-InfoVis in konventionellen Systemen bestehen und im Rahmen der Kombination interaktiver Oberflächen mit AR-HMDs gelöst oder wesentlich angereichert werden können. Ausgewählte Features wurden in einer prototypischen Implementierung realisiert und getestet. / Three-dimensional information visualizations aid precise mental models and are able to communicate multidimensional-spatial relations due too their low level of abstraction. Simultaneously the current generation of Augmented Reality head-mounted displays (AR-HMDs) are offering novel chances for the exploration of 3D-InfoVis and are capable of immersively integrating virtual object into the physical environment of a user. Nevertheless, interaction in AR-environments is still posing a major challenge due to most applications only considering gaze, freehand gesture or speech as input modalities. By combining AR-HMDs with interactive surfaces these limitations can be addressed and direct and natural interaction in the form of multi-touch-, tangible- or pen-input can be enabled.
In the scope of this thesis it will be examined how the analysis of 3D-InfoVis can be supported in the context of combining interactive surfaces with AR-HMDs. Therefor the current state of research in associated domains is being summarized and based on that concepts for supporting analytical processes in aforementioned system constellation are being developed. The resulting concepts help addressing limitations, that exist in the representation and interaction of and with 3D-InfoVis in conventional systems in the scope of combining interactive surfaces with AR-HMDs in order to overcome them or reduce their effects. Selected features were implemented and tested in a prototype.
Identifer | oai:union.ndltd.org:DRESDEN/oai:qucosa.de:bsz:14-qucosa-236547 |
Date | 06 June 2018 |
Creators | Gräf, Maximilian |
Contributors | TU Dresden, Fakultät Informatik, M. Sc. Patrick Reipschläger, Prof. Dr.-Ing. Raimund Dachselt, Dr.-Ing. Annett Mitschick |
Publisher | Saechsische Landesbibliothek- Staats- und Universitaetsbibliothek Dresden |
Source Sets | Hochschulschriftenserver (HSSS) der SLUB Dresden |
Language | deu |
Detected Language | English |
Type | doc-type:masterThesis |
Format | application/pdf |
Page generated in 0.0026 seconds