291 |
Template-basierte Klassifikation planarer GestenSchmidt, Michael 09 July 2014 (has links) (PDF)
Pervasion of mobile devices led to a growing interest in touch-based interactions. However, multi-touch input is still restricted to direct manipulations. In current applications, gestural commands - if used at all - are only exploiting single-touch. The underlying motive for the work at hand is the conviction that a realization of advanced interaction techniques requires handy tools for supporting their interpretation. Barriers for own implementations of procedures are dismantled by providing proof of concept regarding manifold interactions, therefore, making benefits calculable to developers. Within this thesis, a recognition routine for planar, symbolic gestures is developed that can be trained by specifications of templates and does not imply restrictions to the versatility of input. To provide a flexible tool, the interpretation of a gesture is independent of its natural variances, i.e., translation, scale, rotation, and speed. Additionally, the essential number of specified templates per class is required to be small and classifications are subject to real-time criteria common in the context of typical user interactions. The gesture recognizer is based on the integration of a nearest neighbor approach into a Bayesian classification method.
Gestures are split into meaningful, elementary tokens to retrieve a set of local features that are merged by a sensor fusion process to form a global maximum-likelihood representation. Flexibility and high accuracy of the approach is empirically proven in thorough tests. Retaining all requirements, the method is extended to support the prediction of partially entered gestures. Besides more efficient input, the possible specification of direct manipulation interactions by templates is beneficial. Suitability for practical use of all provided concepts is demonstrated on the basis of two applications developed for this purpose and providing versatile options of multi-finger input. In addition to a trainable recognizer for domain-independent sketches, a multi-touch text input system is created and tested with users. It is established that multi-touch input is utilized in sketching if it is available as an alternative. Furthermore, a constructed multi-touch gesture alphabet allows for more efficient text input in comparison to its single-touch pendant. The concepts presented in this work can be of equal benefit to UI designers, usability experts, and developers of feedforward-mechanisms for dynamic training methods of gestural interactions. Likewise, a decomposition of input into tokens and its interpretation by a maximum-likelihood matching with templates is transferable to other application areas as the offline recognition of symbols. / Obwohl berührungsbasierte Interaktionen mit dem Aufkommen mobiler Geräte zunehmend Verbreitung fanden, beschränken sich Multi-Touch Eingaben größtenteils auf direkte Manipulationen. Im Bereich gestischer Kommandos finden, wenn überhaupt, nur Single-Touch Symbole Anwendung. Der vorliegenden Arbeit liegt der Gedanke zugrunde, dass die Umsetzung von Interaktionstechniken mit der Verfügbarkeit einfach zu handhabender Werkzeuge für deren Interpretation zusammenhängt. Auch kann die Hürde, eigene Techniken zu implementieren, verringert werden, wenn vielfältige Interaktionen erprobt sind und ihr Nutzen für Anwendungsentwickler abschätzbar wird. In der verfassten Dissertation wird ein Erkenner für planare, symbolische Gesten entwickelt, der über die Angabe von Templates trainiert werden kann und keine Beschränkung der Vielfalt von Eingaben auf berührungsempfindlichen Oberflächen voraussetzt. Um eine möglichst flexible Einsetzbarkeit zu gewährleisten, soll die Interpretation einer Geste unabhängig von natürlichen Varianzen - ihrer Translation, Skalierung, Rotation und Geschwindigkeit - und unter wenig spezifizierten Templates pro Klasse möglich sein. Weiterhin sind für Nutzerinteraktionen im Anwendungskontext übliche Echtzeit-Kriterien einzuhalten. Der vorgestellte Gestenerkenner basiert auf der Integration eines Nächste-Nachbar-Verfahrens in einen Ansatz der Bayes\'schen Klassifikation.
Gesten werden in elementare, bedeutungstragende Einheiten zerlegt, aus deren lokalen Merkmalen mittels eines Sensor-Fusion Prozesses eine Maximum-Likelihood-Repräsentation abgeleitet wird. Die Flexibilität und hohe Genauigkeit des statistischen Verfahrens wird in ausführlichen Tests nachgewiesen. Unter gleichbleibenden Anforderungen wird eine Erweiterung vorgestellt, die eine Prädiktion von Gesten bei partiellen Eingaben ermöglicht. Deren Nutzen liegt - neben effizienteren Eingaben - in der nachgewiesenen Möglichkeit, per Templates spezifizierte direkte Manipulationen zu interpretieren. Zur Demonstration der Praxistauglichkeit der präsentierten Konzepte werden exemplarisch zwei Anwendungen entwickelt und mit Nutzern getestet, die eine vielseitige Verwendung von Mehr-Finger-Eingaben vorsehen. Neben einem Erkenner trainierbarer, domänenunabhängiger Skizzen wird ein System für die Texteingabe mit den Fingern bereitgestellt. Anhand von Nutzerstudien wird gezeigt, dass Multi-Touch beim Skizzieren verwendet wird, wenn es als Alternative zur Verfügung steht und die Verwendung eines Multi-Touch Gestenalphabetes im Vergleich zur Texteingabe per Single-Touch effizienteres Schreiben zulässt. Von den vorgestellten Konzepten können UI-Designer, Usability-Experten und Entwickler von Feedforward-Mechanismen zum dynamischen Lehren gestischer Eingaben gleichermaßen profitieren. Die Zerlegung einer Eingabe in Token und ihre Interpretation anhand der Zuordnung zu spezifizierten Templates lässt sich weiterhin auf benachbarte Gebiete, etwa die Offline-Erkennung von Symbolen, übertragen.
|
292 |
Near touch interactions: understanding grab and release actions.Balali Moghaddam, Aras 17 August 2012 (has links)
In this work, I present empirically validated techniques to realize gesture and touch interaction using a novel near touch tracking system. This study focuses on identifying the intended center of action for grab and release gestures close to an interactive surface. Results of this experiment inform a linear model that can approximate the intended location of grab and release actions with an accuracy of R^2 = 0.95 for horizontal position and R^2 = 0.84 for vertical position. I also present an approach for distinguishing which hand was used to perform the interaction. These empirical model data and near touch tracking system contributions provide new opportunities for natural and intuitive hand interactions with computing surfaces. / Graduate
|
293 |
Universell Design - en användbarhetsutvärdering av MyTobii C-series ControlPettersson, Anders January 2008 (has links)
<p>Universal Design is a well established methodology with the fundamental purpose of designing products to be usable for as wide audience as possible, without the need of special adjustment to suit the individual. In this essay, Universal Design has had a clear influence in both the process and the result. The choice to use Universal Design as methodology in this usability evaluation, has essentiallv to do with the target audience.</p><p>As a part of the design process of MyTobii C8 has Tobii Technology ask for a usability evaluation. MyTobii C8 is an 8" touch screen computer with a windows based operating system which will initiate the software MyTobii C-Series Control. MyTobii C-Series Control is the control panel for MyTobii C8, whose interfaces constitute the platform for various modificarion of the unit. The interface of MyTobii C-Series Control is also the interface being evaluated. Because of the target audience being persons with different motoric and cognitive disabilities and theirs assistances, it is of great important that the interface is suitable for as many people as possible. With user tests, designed and analyzed with the help of Universal Design, different usability problems has been identified and solved. Among the usability problems encountered the most vital has been the size and placement of the interactive parts and the physical interaction with the unit.</p> / <p>Universell Design är en genomarbetad metodologi, framtagen i syfte att göra produkter användbara och anpassade för så bred publik som möjligt, utan att produkten måste anpassas för individens egna förmågor. I detta arbete har Universell Design haft en tydlig och grundläggande roll i genomförandet och resultatet. Valet att använda sig av Universell Design i denna användbarhetsutvärdering har framför allt med fallstudiens målgrupp att göra.</p><p>Som en del av utvecklingsprocessen av MyTobii C8 har Tobii Technology efterfrågas en användbarhetsutvärdering. MyTobii C8 är en åtta tums touch screen dator med Windows-baserat operativsystem som vid start kommer att initiera mjukvaran MyTobii C-Series Control. MyTobii C-Series Control är kontrollpanelen för MyTobii C8 vars gränssnitt utgör plattformen för diverse inställningar av enheten det är också detta gränssnitt användbarhetsutvärdetingen har gjorts på. Då målgruppen för MyTobii C-Series Control är personer med motoriska och kognitiva handikapp samt deras assistenter och närstående personer, är det av stor vikt att gränssnittet är anpassat för så bred publik som möjligt. Genom användartester utformade och analyserade med hjälp av Universell Design har användbarhetsproblem samt förslag på lösningar presenterats. Bland de användbarhetsproblemen som påträffats har det framför allt varit storleken, placeringen av de interaktiava delarna samt själv interaktionen med touch screen skärmen som har vant väsentliga.</p>
|
294 |
Analyse von 3D-Visualisierungen durch die Kombination von interaktiven Oberflächen mit Augmented Reality Head-Mounted Displays / Analysis of 3D-Visualizations by combining interactive surfaces with Augmented Reality Head-Mounted DisplaysGräf, Maximilian 06 June 2018 (has links) (PDF)
Dreidimensionale Informationsvisualisierungen fördern durch den geringen Grad an Abstraktion die Bildung eines präzisen mentalen Modells und können daher multidimensionale räumliche Beziehungen greifbar kommunizieren. Gleichzeitig eröffnet die aktuelle Generation von Augmented Reality Head-Mounted Displays (AR-HMDs) neuartige Möglichkeiten zur Exploration von 3D-InfoVis und ist befähigt virtuelle Objekte glaubwürdig und immersiv in die physische Umgebung eines Nutzers zu integrieren. Dennoch unterliegt die Interaktion in AR-Umgebungen einer Vielzahl von Herausforderungen, da die signifikante Mehrheit der Applikationen lediglich Blick-, Freihandgesten- oder Sprachsteuerung als Eingabemodalität in Betracht ziehen. Durch Kombination von interaktiven Oberflächen wie Tabletops mit AR-HMDs können diese Nachteile effizient adressiert werden, indem direkte und natürliche Manipulation in Form von Multi-Touch, Tangible- oder Stift-Eingabe ermöglicht wird.
Im Rahmen dieser Thesis wird untersucht, wie die Analyse von 3D-InfoVis bei Kombination interaktiver Oberflächen mit AR-HMDs unterstützt werden kann. Hierfür wird der aktuelle Stand der Forschung in themennahen Domänen erfasst und folgend Konzepte zur Unterstützung analytischer Prozesse in zuvor erläuterter Systemkonstellation entwickelt. Die resultierenden Konzepte adressieren dabei Limitationen, die bei Darstellung und Interaktion von und mit 3D-InfoVis in konventionellen Systemen bestehen und im Rahmen der Kombination interaktiver Oberflächen mit AR-HMDs gelöst oder wesentlich angereichert werden können. Ausgewählte Features wurden in einer prototypischen Implementierung realisiert und getestet. / Three-dimensional information visualizations aid precise mental models and are able to communicate multidimensional-spatial relations due too their low level of abstraction. Simultaneously the current generation of Augmented Reality head-mounted displays (AR-HMDs) are offering novel chances for the exploration of 3D-InfoVis and are capable of immersively integrating virtual object into the physical environment of a user. Nevertheless, interaction in AR-environments is still posing a major challenge due to most applications only considering gaze, freehand gesture or speech as input modalities. By combining AR-HMDs with interactive surfaces these limitations can be addressed and direct and natural interaction in the form of multi-touch-, tangible- or pen-input can be enabled.
In the scope of this thesis it will be examined how the analysis of 3D-InfoVis can be supported in the context of combining interactive surfaces with AR-HMDs. Therefor the current state of research in associated domains is being summarized and based on that concepts for supporting analytical processes in aforementioned system constellation are being developed. The resulting concepts help addressing limitations, that exist in the representation and interaction of and with 3D-InfoVis in conventional systems in the scope of combining interactive surfaces with AR-HMDs in order to overcome them or reduce their effects. Selected features were implemented and tested in a prototype.
|
295 |
Kollaborative Erstellung von Mind-Maps mit persönlichen Linsen an interaktiven Display Walls / Collaborative Creation of Mind-Maps on interactive Display Walls using personal LensesGräf, Maximilian 06 June 2018 (has links) (PDF)
Mind-Mapping ist eine effiziente und universelle Kreativitätstechnik, die es ermöglicht, in einer Gruppe ein komplexes Thema aufzuschlüsseln. Dabei wird eine Assoziation verschiedener Schlüsselwörter, Notizen und Grafiken zu einem zentralen Begriff vorgenommen und dadurch eine Möglichkeit zur schrittweisen kompakten Visualisierung eines Themengebietes geschaffen. Große interaktive Display Walls erlauben durch ihre Fläche und ihre interaktiven Möglichkeiten das kollaborative Erstellen von Mind-Maps, so dass jeder Nutzer individuell Teile kreieren und der gemeinsamen Mind-Map beifügen kann. In dieser Ausarbeitung werden geeignete Interaktionskonzepte zur Erstellung von Mind-Maps an interaktiven Display Walls vorgestellt. Dabei liegt der Fokus auf den Möglichkeiten der Erkennung der Nutzerposition vor der Display Wall, um jedem Benutzer eine persönliche Linse und damit Zugriff auf persönliche Werkzeuge zu ermöglichen, sowie der Interaktion mittels Stift und Touch zum Zwecke der Erstellung und Platzierung von Mind-Map Elementen. Dafür werden zunächst verwandte Arbeiten aus den Bereichen: Mind-Maps, Kollaboration und Interaktion mit interaktiven Display Walls und Magische Linsen analysiert. Basierend auf einem Grundverständnis dieser drei Domänen wurden Konzepte zur kollaborativen Erstellung von Mind-Maps an interaktiven Display Walls mit persönlichen Linsen präsentiert. Ausgewählte Konzepte wurden dabei in einer prototypischen Implementierung umgesetzt und boten erste aussichtsreiche Einblicke, wie das Mind-Mapping der Zukunft erfolgen könnte. Dabei wurde insbesondere der Nutzen einer persönlichen Linse, als individuelle Visualisierungs- und Interaktions-Schnittstelle erkannt. / Mind-mapping is an effective and universal creativity technique, which allows to break down complex topics in a group activity. Therefore keywords, notes or images are being associated to a superordinate topic, in order to gradually create a compact visualization of a topic. Large interactive display walls allow the collaborative creation of mind-maps due to their size and options for interaction so that the users can individually create parts and integrate them into the collective mind-map. As part of this thesis, suitable concepts for the creation of mind-maps on interactive display walls are being presented. In this context, the emphasis is lying on the possibilities of using the position of the user in front the display wall, in order to offer every user a personal lens and thus access to personal tools, as well as the interaction with pen and touch in order to create and move mind-map-elements. Therefore related work of the topic areas: mind-maps, collaboration and interaction at interactive display walls and Magic Lenses will be analysed at first. Based on a fundamental understanding of these three domains, concepts for the collaborative creation of mind-maps on interactive display walls using personal lenses are being presented. Selected concepts were prototypically implemented and offered first promising insights on how the mind-mapping of the future could be done. In the process the particular benefit of a personal lens as an individual visualization- and interaction-interface has been recognized.
|
296 |
Universell Design - en användbarhetsutvärdering av MyTobii C-series ControlPettersson, Anders January 2008 (has links)
Universal Design is a well established methodology with the fundamental purpose of designing products to be usable for as wide audience as possible, without the need of special adjustment to suit the individual. In this essay, Universal Design has had a clear influence in both the process and the result. The choice to use Universal Design as methodology in this usability evaluation, has essentiallv to do with the target audience. As a part of the design process of MyTobii C8 has Tobii Technology ask for a usability evaluation. MyTobii C8 is an 8" touch screen computer with a windows based operating system which will initiate the software MyTobii C-Series Control. MyTobii C-Series Control is the control panel for MyTobii C8, whose interfaces constitute the platform for various modificarion of the unit. The interface of MyTobii C-Series Control is also the interface being evaluated. Because of the target audience being persons with different motoric and cognitive disabilities and theirs assistances, it is of great important that the interface is suitable for as many people as possible. With user tests, designed and analyzed with the help of Universal Design, different usability problems has been identified and solved. Among the usability problems encountered the most vital has been the size and placement of the interactive parts and the physical interaction with the unit. / Universell Design är en genomarbetad metodologi, framtagen i syfte att göra produkter användbara och anpassade för så bred publik som möjligt, utan att produkten måste anpassas för individens egna förmågor. I detta arbete har Universell Design haft en tydlig och grundläggande roll i genomförandet och resultatet. Valet att använda sig av Universell Design i denna användbarhetsutvärdering har framför allt med fallstudiens målgrupp att göra. Som en del av utvecklingsprocessen av MyTobii C8 har Tobii Technology efterfrågas en användbarhetsutvärdering. MyTobii C8 är en åtta tums touch screen dator med Windows-baserat operativsystem som vid start kommer att initiera mjukvaran MyTobii C-Series Control. MyTobii C-Series Control är kontrollpanelen för MyTobii C8 vars gränssnitt utgör plattformen för diverse inställningar av enheten det är också detta gränssnitt användbarhetsutvärdetingen har gjorts på. Då målgruppen för MyTobii C-Series Control är personer med motoriska och kognitiva handikapp samt deras assistenter och närstående personer, är det av stor vikt att gränssnittet är anpassat för så bred publik som möjligt. Genom användartester utformade och analyserade med hjälp av Universell Design har användbarhetsproblem samt förslag på lösningar presenterats. Bland de användbarhetsproblemen som påträffats har det framför allt varit storleken, placeringen av de interaktiava delarna samt själv interaktionen med touch screen skärmen som har vant väsentliga.
|
297 |
Měřicí stanice v automatické obráběcí lince / Measuring stations in an automatic machining lineFúsek, Jakub January 2018 (has links)
This master thesis deals with the use of measuring stations in an automatic machining lines. An overview of the methods of measuring engineering products in engineering practice with a focus on automation of measurement is described. The basic principles of function of these machines, their construction and materials are described. The largest part describes coordinate measuring machines, which continue to evolve and offer more and more possibilities for automatic measurement. The practical part is aimed at documenting the sample situation of measurements on this type of equipment and evaluating the possibility of its integration into the automatic machining line.
|
298 |
Template-basierte Klassifikation planarer GestenSchmidt, Michael 25 April 2014 (has links)
Pervasion of mobile devices led to a growing interest in touch-based interactions. However, multi-touch input is still restricted to direct manipulations. In current applications, gestural commands - if used at all - are only exploiting single-touch. The underlying motive for the work at hand is the conviction that a realization of advanced interaction techniques requires handy tools for supporting their interpretation. Barriers for own implementations of procedures are dismantled by providing proof of concept regarding manifold interactions, therefore, making benefits calculable to developers. Within this thesis, a recognition routine for planar, symbolic gestures is developed that can be trained by specifications of templates and does not imply restrictions to the versatility of input. To provide a flexible tool, the interpretation of a gesture is independent of its natural variances, i.e., translation, scale, rotation, and speed. Additionally, the essential number of specified templates per class is required to be small and classifications are subject to real-time criteria common in the context of typical user interactions. The gesture recognizer is based on the integration of a nearest neighbor approach into a Bayesian classification method.
Gestures are split into meaningful, elementary tokens to retrieve a set of local features that are merged by a sensor fusion process to form a global maximum-likelihood representation. Flexibility and high accuracy of the approach is empirically proven in thorough tests. Retaining all requirements, the method is extended to support the prediction of partially entered gestures. Besides more efficient input, the possible specification of direct manipulation interactions by templates is beneficial. Suitability for practical use of all provided concepts is demonstrated on the basis of two applications developed for this purpose and providing versatile options of multi-finger input. In addition to a trainable recognizer for domain-independent sketches, a multi-touch text input system is created and tested with users. It is established that multi-touch input is utilized in sketching if it is available as an alternative. Furthermore, a constructed multi-touch gesture alphabet allows for more efficient text input in comparison to its single-touch pendant. The concepts presented in this work can be of equal benefit to UI designers, usability experts, and developers of feedforward-mechanisms for dynamic training methods of gestural interactions. Likewise, a decomposition of input into tokens and its interpretation by a maximum-likelihood matching with templates is transferable to other application areas as the offline recognition of symbols. / Obwohl berührungsbasierte Interaktionen mit dem Aufkommen mobiler Geräte zunehmend Verbreitung fanden, beschränken sich Multi-Touch Eingaben größtenteils auf direkte Manipulationen. Im Bereich gestischer Kommandos finden, wenn überhaupt, nur Single-Touch Symbole Anwendung. Der vorliegenden Arbeit liegt der Gedanke zugrunde, dass die Umsetzung von Interaktionstechniken mit der Verfügbarkeit einfach zu handhabender Werkzeuge für deren Interpretation zusammenhängt. Auch kann die Hürde, eigene Techniken zu implementieren, verringert werden, wenn vielfältige Interaktionen erprobt sind und ihr Nutzen für Anwendungsentwickler abschätzbar wird. In der verfassten Dissertation wird ein Erkenner für planare, symbolische Gesten entwickelt, der über die Angabe von Templates trainiert werden kann und keine Beschränkung der Vielfalt von Eingaben auf berührungsempfindlichen Oberflächen voraussetzt. Um eine möglichst flexible Einsetzbarkeit zu gewährleisten, soll die Interpretation einer Geste unabhängig von natürlichen Varianzen - ihrer Translation, Skalierung, Rotation und Geschwindigkeit - und unter wenig spezifizierten Templates pro Klasse möglich sein. Weiterhin sind für Nutzerinteraktionen im Anwendungskontext übliche Echtzeit-Kriterien einzuhalten. Der vorgestellte Gestenerkenner basiert auf der Integration eines Nächste-Nachbar-Verfahrens in einen Ansatz der Bayes\'schen Klassifikation.
Gesten werden in elementare, bedeutungstragende Einheiten zerlegt, aus deren lokalen Merkmalen mittels eines Sensor-Fusion Prozesses eine Maximum-Likelihood-Repräsentation abgeleitet wird. Die Flexibilität und hohe Genauigkeit des statistischen Verfahrens wird in ausführlichen Tests nachgewiesen. Unter gleichbleibenden Anforderungen wird eine Erweiterung vorgestellt, die eine Prädiktion von Gesten bei partiellen Eingaben ermöglicht. Deren Nutzen liegt - neben effizienteren Eingaben - in der nachgewiesenen Möglichkeit, per Templates spezifizierte direkte Manipulationen zu interpretieren. Zur Demonstration der Praxistauglichkeit der präsentierten Konzepte werden exemplarisch zwei Anwendungen entwickelt und mit Nutzern getestet, die eine vielseitige Verwendung von Mehr-Finger-Eingaben vorsehen. Neben einem Erkenner trainierbarer, domänenunabhängiger Skizzen wird ein System für die Texteingabe mit den Fingern bereitgestellt. Anhand von Nutzerstudien wird gezeigt, dass Multi-Touch beim Skizzieren verwendet wird, wenn es als Alternative zur Verfügung steht und die Verwendung eines Multi-Touch Gestenalphabetes im Vergleich zur Texteingabe per Single-Touch effizienteres Schreiben zulässt. Von den vorgestellten Konzepten können UI-Designer, Usability-Experten und Entwickler von Feedforward-Mechanismen zum dynamischen Lehren gestischer Eingaben gleichermaßen profitieren. Die Zerlegung einer Eingabe in Token und ihre Interpretation anhand der Zuordnung zu spezifizierten Templates lässt sich weiterhin auf benachbarte Gebiete, etwa die Offline-Erkennung von Symbolen, übertragen.
|
299 |
Stopp! Min kropp! : en idéanalys av lärares yrkesetik kring intergenerationell beröring vid undervisning av kontaktimprovisation i gymnasieskolanLindberg, Ariana January 2021 (has links)
The aim of this study is to contribute to the understanding of intergenerational touch within dance education in upper secondary schools in Sweden, focusing on contact improvisation. In this study, interviews with dance teachers in four upper secondary schools have been used to examine teachers' ideas and choices regarding intergenerational touch in contact improvisation through idea analysis. This study explores how teachers relate to the no-touch discourse and the domain-specific ideology within the contact improvisation movement. It also examines what an ethical approach to intergenerational touch in contact improvisation within upper secondary education could be. The study shows that some strategies teachers use in relation to intergenerational touch could function to downplay or adapt to the no-touch discourse, but no causality can be proven. There is also a proximity between some strategies and the domain-specific ideology within the contact improvisation movement. An ethical approach to intergenerational touch requires teachers to be aware of influences from different idea systems and to be reflexive regarding their own history and basic assumptions. It also requires teachers to get to know their students well and be sensitive to them in every moment.
|
300 |
Analyse von 3D-Visualisierungen durch die Kombination von interaktiven Oberflächen mit Augmented Reality Head-Mounted DisplaysGräf, Maximilian 30 May 2018 (has links)
Dreidimensionale Informationsvisualisierungen fördern durch den geringen Grad an Abstraktion die Bildung eines präzisen mentalen Modells und können daher multidimensionale räumliche Beziehungen greifbar kommunizieren. Gleichzeitig eröffnet die aktuelle Generation von Augmented Reality Head-Mounted Displays (AR-HMDs) neuartige Möglichkeiten zur Exploration von 3D-InfoVis und ist befähigt virtuelle Objekte glaubwürdig und immersiv in die physische Umgebung eines Nutzers zu integrieren. Dennoch unterliegt die Interaktion in AR-Umgebungen einer Vielzahl von Herausforderungen, da die signifikante Mehrheit der Applikationen lediglich Blick-, Freihandgesten- oder Sprachsteuerung als Eingabemodalität in Betracht ziehen. Durch Kombination von interaktiven Oberflächen wie Tabletops mit AR-HMDs können diese Nachteile effizient adressiert werden, indem direkte und natürliche Manipulation in Form von Multi-Touch, Tangible- oder Stift-Eingabe ermöglicht wird.
Im Rahmen dieser Thesis wird untersucht, wie die Analyse von 3D-InfoVis bei Kombination interaktiver Oberflächen mit AR-HMDs unterstützt werden kann. Hierfür wird der aktuelle Stand der Forschung in themennahen Domänen erfasst und folgend Konzepte zur Unterstützung analytischer Prozesse in zuvor erläuterter Systemkonstellation entwickelt. Die resultierenden Konzepte adressieren dabei Limitationen, die bei Darstellung und Interaktion von und mit 3D-InfoVis in konventionellen Systemen bestehen und im Rahmen der Kombination interaktiver Oberflächen mit AR-HMDs gelöst oder wesentlich angereichert werden können. Ausgewählte Features wurden in einer prototypischen Implementierung realisiert und getestet.:Einleitung
Verwandte Arbeiten
Konzept der Augmented Displays
Konzepte zur Unterstützung analytischer Prozesse im Umgang mit 3D-InfoVis bei Kombination interaktiver Oberflächen mit AR-HMDs
Implementierung
Diskussion
Zusammenfassung / Three-dimensional information visualizations aid precise mental models and are able to communicate multidimensional-spatial relations due too their low level of abstraction. Simultaneously the current generation of Augmented Reality head-mounted displays (AR-HMDs) are offering novel chances for the exploration of 3D-InfoVis and are capable of immersively integrating virtual object into the physical environment of a user. Nevertheless, interaction in AR-environments is still posing a major challenge due to most applications only considering gaze, freehand gesture or speech as input modalities. By combining AR-HMDs with interactive surfaces these limitations can be addressed and direct and natural interaction in the form of multi-touch-, tangible- or pen-input can be enabled.
In the scope of this thesis it will be examined how the analysis of 3D-InfoVis can be supported in the context of combining interactive surfaces with AR-HMDs. Therefor the current state of research in associated domains is being summarized and based on that concepts for supporting analytical processes in aforementioned system constellation are being developed. The resulting concepts help addressing limitations, that exist in the representation and interaction of and with 3D-InfoVis in conventional systems in the scope of combining interactive surfaces with AR-HMDs in order to overcome them or reduce their effects. Selected features were implemented and tested in a prototype.:Einleitung
Verwandte Arbeiten
Konzept der Augmented Displays
Konzepte zur Unterstützung analytischer Prozesse im Umgang mit 3D-InfoVis bei Kombination interaktiver Oberflächen mit AR-HMDs
Implementierung
Diskussion
Zusammenfassung
|
Page generated in 0.0604 seconds