• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 24
  • 8
  • 3
  • Tagged with
  • 33
  • 33
  • 33
  • 32
  • 30
  • 28
  • 21
  • 21
  • 21
  • 14
  • 14
  • 13
  • 11
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Proceedings of the 22th Bilateral Student Workshop CTU Prague: Dresden (Germany) 2018

Böhme, Hans Joachim, Wacker, Markus, Slavík, Pavel, Míkovec, Zdeněk 13 November 2019 (has links)
This technical report publishes the proceedings of the 22th Prague Workshop, which was held from 30th November to 1st December 2018. The workshop offers a possibility for young scientists to present their current research work in the fields of computer graphics, human-computer-interaction, robotics and usability. The works is meant as a platform to bring together researchers from both the Czech Technical University in Prague (CTU) and the University of Applied Sciences Dresden (HTW). The German Academic Exchange Service offers its financial support to allow student participants the bilateral exchange between Prague and Dresden.:1) An approach to a self-organizing production in com- parison to a centrally planned production 4 2) Tactile symbols for visually impaired older adults 9 3) Design of Olfactory Cues for Approximate Spatial Self- Localization 11 4) Shape To Muscle: A Model for estimating Muscle Activation from Skin Deformation 13 5) Model of a Conversational System for Controlling Sec- ondary Tasks while Driving 19 6) Tools for Art and Architectural Research with His- toric Media Repositories 22 7) Direct Labels: Real-time External Labeling Without Leader Lines 25 8) Seamless Cloning with Poisson Image Editing 29 9) Multimodal user interaction for human behavior mod- eling in adaptation and personalization 32 10) Objective Feature Selection using GMLVQ with Di- rectly Incorporated L1-Regularization 35 11) How to Call a Robot in an Emergency Situation 37 12) Development of a Collaborative Computer Game for Elderly with Dementia 39
12

Proceedings of the 25th Bilateral Student Workshop CTU Prague and HTW Dresden - User Interfaces & Visualization

Böhme, Hans-Joachim, Macík, Miroslav, Slavík, Pavel, Kammer, Dietrich, Brose, Jan 04 May 2023 (has links)
This technical report publishes the proceedings of the 25th Bilateral Student Workshop CTU Prague and HTW Dresden - User Interfaces & Visualization -, which was held on the 25th and 26th November 2021. The workshop offers a possibility for young scientists to present their current research work in the fields of computer graphics, human-computer-interaction, robotics and usability. The works is meant as a platform to bring together researchers from both the Czech Technical University in Prague (CTU) and the University of Applied Sciences Dresden (HTW). The German Academic Exchange Service offers its financial support to allow student participants the bilateral exchange between Prague and Dresden.:1) Multiprojection of Langweil´s model, p.4 2) Design of an assistant for persons interested in study at CTU FEE, p.8 3) Sonification of a juggling performance, p.12 4) Investigating the Role of Usability User Experience and Aesthetics for Industrial Human–Machine Interfaces, p.16 5) Using optically illusive architecture to navigate users in Virtual Reality, p.23 6) Speed and Required Precision of Grabbing Physical Spheres in VR, p.27 7) ReFlex - A Framework for Research on Elastic Displays, p.32 8) Digital Reading Stand (DRS), p.38 9) IDOVIR – Infrastructure for Documentation of Virtual Reconstructions, p.45 10) Tracking multiple VR users in a shared physical space, p.50 11) Towards Aesthetics of Subjectivity in InfoVis, p.53 12) VentConnect: live to life and the octopus in the hospital server room, p.60 13) Nice noise: background noise enhancement with generated musical content, p.66 14) Parametric Curve Labeling, p.70
13

Personalized Interaction with High-Resolution Wall Displays

von Zadow, Ulrich 05 June 2018 (has links) (PDF)
Fallende Hardwarepreise sowie eine zunehmende Offenheit gegenüber neuartigen Interaktionsmodalitäten haben in den vergangen Jahren den Einsatz von wandgroßen interaktiven Displays möglich gemacht, und in der Folge ist ihre Anwendung, unter anderem in den Bereichen Visualisierung, Bildung, und der Unterstützung von Meetings, erfolgreich demonstriert worden. Aufgrund ihrer Größe sind Wanddisplays für die Interaktion mit mehreren Benutzern prädestiniert. Gleichzeitig kann angenommen werden, dass Zugang zu persönlichen Daten und Einstellungen — mithin personalisierte Interaktion — weiterhin essentieller Bestandteil der meisten Anwendungsfälle sein wird. Aktuelle Benutzerschnittstellen im Desktop- und Mobilbereich steuern Zugriffe über ein initiales Login. Die Annahme, dass es nur einen Benutzer pro Bildschirm gibt, zieht sich durch das gesamte System, und ermöglicht unter anderem den Zugriff auf persönliche Daten und Kommunikation sowie persönliche Einstellungen. Gibt es hingegen mehrere Benutzer an einem großen Bildschirm, müssen hierfür Alternativen gefunden werden. Die daraus folgende Forschungsfrage dieser Dissertation lautet: Wie können wir im Kontext von Mehrbenutzerinteraktion mit wandgroßen Displays personalisierte Schnittstellen zur Verfügung stellen? Die Dissertation befasst sich sowohl mit personalisierter Interaktion in der Nähe (mit Touch als Eingabemodalität) als auch in etwas weiterer Entfernung (unter Nutzung zusätzlicher mobiler Geräte). Grundlage für personalisierte Mehrbenutzerinteraktion sind technische Lösungen für die Zuordnung von Benutzern zu einzelnen Interaktionen. Hierzu werden zwei Alternativen untersucht: In der ersten werden Nutzer via Kamera verfolgt, und in der zweiten werden Mobilgeräte anhand von Ultraschallsignalen geortet. Darauf aufbauend werden Interaktionstechniken vorgestellt, die personalisierte Interaktion unterstützen. Diese nutzen zusätzliche Mobilgeräte, die den Zugriff auf persönliche Daten sowie Interaktion in einigem Abstand von der Displaywand ermöglichen. Einen weiteren Teil der Arbeit bildet die Untersuchung der praktischen Auswirkungen der Ausgabe- und Interaktionsmodalitäten für personalisierte Interaktion. Hierzu wird eine qualitative Studie vorgestellt, die Nutzerverhalten anhand des kooperativen Mehrbenutzerspiels Miners analysiert. Der abschließende Beitrag beschäftigt sich mit dem Analyseprozess selber: Es wird das Analysetoolkit für Wandinteraktionen GIAnT vorgestellt, das Nutzerbewegungen, Interaktionen, und Blickrichtungen visualisiert und dadurch die Untersuchung der Interaktionen stark vereinfacht. / An increasing openness for more diverse interaction modalities as well as falling hardware prices have made very large interactive vertical displays more feasible, and consequently, applications in settings such as visualization, education, and meeting support have been demonstrated successfully. Their size makes wall displays inherently usable for multi-user interaction. At the same time, we can assume that access to personal data and settings, and thus personalized interaction, will still be essential in most use-cases. In most current desktop and mobile user interfaces, access is regulated via an initial login and the complete user interface is then personalized to this user: Access to personal data, configurations and communications all assume a single user per screen. In the case of multiple people using one screen, this is not a feasible solution and we must find alternatives. Therefore, this thesis addresses the research question: How can we provide personalized interfaces in the context of multi-user interaction with wall displays? The scope spans personalized interaction both close to the wall (using touch as input modality) and further away (using mobile devices). Technical solutions that identify users at each interaction can replace logins and enable personalized interaction for multiple users at once. This thesis explores two alternative means of user identification: Tracking using RGB+depth-based cameras and leveraging ultrasound positioning of the users' mobile devices. Building on this, techniques that support personalized interaction using personal mobile devices are proposed. In the first contribution on interaction, HyDAP, we examine pointing from the perspective of moving users, and in the second, SleeD, we propose using an arm-worn device to facilitate access to private data and personalized interface elements. Additionally, the work contributes insights on practical implications of personalized interaction at wall displays: We present a qualitative study that analyses interaction using a multi-user cooperative game as application case, finding awareness and occlusion issues. The final contribution is a corresponding analysis toolkit that visualizes users' movements, touch interactions and gaze points when interacting with wall displays and thus allows fine-grained investigation of the interactions.
14

Effects of Different Display Form Factors on InfoVis Applications: Exploring Selection Management and Brushing and Linking for Mobile Cross-Device Interaction

Flemisch, Tamara 16 June 2020 (has links)
Diese Arbeit untersucht wie man mit mehreren, miteinander koordinierten Mobilgeräten Selektionen verwalten und Brushing und Linking unterstützen kann. Im Rahmen der Arbeit wird ein konzeptionelles Framework zur Selektionsverwaltung für mehrere Geräte angedacht und ein Konzept zur Selektionsverwaltung vorstellt, das Brushing und Linking für Mobilgeräte unterstützt. Des Weiteren werden Ziele für den Prototypen erörtert, die zur Umsetzung das Konzept beitragen. Mobile Geräte werden immer häufiger für Informationsvisualisierungen verwendet. Jedoch wurde bisher noch nicht untersucht, wie gängige Interaktionstechniken, wie Brushing und Linking, für diese Geräte anpassen werden müssen. Während des Brushings, werden zusätzlich Selektionen erstellt, für die es bislang keine Art der Verwaltung für Mobilgeräte gibt. In dieser Arbeit wird untersucht wie man Brushing und Linking mit mehreren Mobilgeräten unterstützen kann und Selektionen gleichzeitig verwalten kann.:1 Introduction 1.1 Contributions 1.2 Motivation and Background 1.3 Goals 1.4 Research Questions 1.5 Thesis Overview 2. Related Work 2.1 Mobile Devices for InfoVis and Their Screen Real Estate Issues 2.2 Interacting with CMVs 2.3 Brushing and Linking 2.4 Summary 3 Selection Management and Brushing and Linking for Mobile Cross- Device Interaction 3.1 The Selection Management Framework 3.2 Fundamental Information About VisTiles 3.3 Design Considerations 3.4 Creating Selections Within a Visualization 3.5 Interacting with Selections Within a Visualization 3.6 Managing Multiple Selections 3.7 Managing a Single Selection 3.8 Linking Selections to Other Devices 3.9 Incorporating Join Operations 3.10 Overview over Side-by-side Interactions 3.11 Summary: Reviewing the Selection Management Framework 4 Prototype 4.1 Technical Setup 4.2 Techniques 5 Conclusion and Discussion 5.1 Discussion 5.2 Future Work 5.3 Conclusion / This thesis examines how to manage selections and use brushing and linking with multiple coordinated mobile devices. We discuss thoughts for a conceptual framework for selection management in multi-device environments. We then present a concept for managing selections and supporting brushing and linking for co-located mobile devices. Finally, we are providing an overview of and the goals for our proof-of-concept prototype. More and more mobile devices are used for visualization. However, it is still an open question how to adjust common interaction techniques, such as brushing and linking, for mobile devices. Furthermore, it has not been addressed how to manage the selections that are created through brushing. We explore how brushing and linking can be used in a setting with multiple, co-located mobile devices and how to manage its selections.:1 Introduction 1.1 Contributions 1.2 Motivation and Background 1.3 Goals 1.4 Research Questions 1.5 Thesis Overview 2. Related Work 2.1 Mobile Devices for InfoVis and Their Screen Real Estate Issues 2.2 Interacting with CMVs 2.3 Brushing and Linking 2.4 Summary 3 Selection Management and Brushing and Linking for Mobile Cross- Device Interaction 3.1 The Selection Management Framework 3.2 Fundamental Information About VisTiles 3.3 Design Considerations 3.4 Creating Selections Within a Visualization 3.5 Interacting with Selections Within a Visualization 3.6 Managing Multiple Selections 3.7 Managing a Single Selection 3.8 Linking Selections to Other Devices 3.9 Incorporating Join Operations 3.10 Overview over Side-by-side Interactions 3.11 Summary: Reviewing the Selection Management Framework 4 Prototype 4.1 Technical Setup 4.2 Techniques 5 Conclusion and Discussion 5.1 Discussion 5.2 Future Work 5.3 Conclusion
15

Personalized Interaction with High-Resolution Wall Displays

von Zadow, Ulrich 14 May 2018 (has links)
Fallende Hardwarepreise sowie eine zunehmende Offenheit gegenüber neuartigen Interaktionsmodalitäten haben in den vergangen Jahren den Einsatz von wandgroßen interaktiven Displays möglich gemacht, und in der Folge ist ihre Anwendung, unter anderem in den Bereichen Visualisierung, Bildung, und der Unterstützung von Meetings, erfolgreich demonstriert worden. Aufgrund ihrer Größe sind Wanddisplays für die Interaktion mit mehreren Benutzern prädestiniert. Gleichzeitig kann angenommen werden, dass Zugang zu persönlichen Daten und Einstellungen — mithin personalisierte Interaktion — weiterhin essentieller Bestandteil der meisten Anwendungsfälle sein wird. Aktuelle Benutzerschnittstellen im Desktop- und Mobilbereich steuern Zugriffe über ein initiales Login. Die Annahme, dass es nur einen Benutzer pro Bildschirm gibt, zieht sich durch das gesamte System, und ermöglicht unter anderem den Zugriff auf persönliche Daten und Kommunikation sowie persönliche Einstellungen. Gibt es hingegen mehrere Benutzer an einem großen Bildschirm, müssen hierfür Alternativen gefunden werden. Die daraus folgende Forschungsfrage dieser Dissertation lautet: Wie können wir im Kontext von Mehrbenutzerinteraktion mit wandgroßen Displays personalisierte Schnittstellen zur Verfügung stellen? Die Dissertation befasst sich sowohl mit personalisierter Interaktion in der Nähe (mit Touch als Eingabemodalität) als auch in etwas weiterer Entfernung (unter Nutzung zusätzlicher mobiler Geräte). Grundlage für personalisierte Mehrbenutzerinteraktion sind technische Lösungen für die Zuordnung von Benutzern zu einzelnen Interaktionen. Hierzu werden zwei Alternativen untersucht: In der ersten werden Nutzer via Kamera verfolgt, und in der zweiten werden Mobilgeräte anhand von Ultraschallsignalen geortet. Darauf aufbauend werden Interaktionstechniken vorgestellt, die personalisierte Interaktion unterstützen. Diese nutzen zusätzliche Mobilgeräte, die den Zugriff auf persönliche Daten sowie Interaktion in einigem Abstand von der Displaywand ermöglichen. Einen weiteren Teil der Arbeit bildet die Untersuchung der praktischen Auswirkungen der Ausgabe- und Interaktionsmodalitäten für personalisierte Interaktion. Hierzu wird eine qualitative Studie vorgestellt, die Nutzerverhalten anhand des kooperativen Mehrbenutzerspiels Miners analysiert. Der abschließende Beitrag beschäftigt sich mit dem Analyseprozess selber: Es wird das Analysetoolkit für Wandinteraktionen GIAnT vorgestellt, das Nutzerbewegungen, Interaktionen, und Blickrichtungen visualisiert und dadurch die Untersuchung der Interaktionen stark vereinfacht. / An increasing openness for more diverse interaction modalities as well as falling hardware prices have made very large interactive vertical displays more feasible, and consequently, applications in settings such as visualization, education, and meeting support have been demonstrated successfully. Their size makes wall displays inherently usable for multi-user interaction. At the same time, we can assume that access to personal data and settings, and thus personalized interaction, will still be essential in most use-cases. In most current desktop and mobile user interfaces, access is regulated via an initial login and the complete user interface is then personalized to this user: Access to personal data, configurations and communications all assume a single user per screen. In the case of multiple people using one screen, this is not a feasible solution and we must find alternatives. Therefore, this thesis addresses the research question: How can we provide personalized interfaces in the context of multi-user interaction with wall displays? The scope spans personalized interaction both close to the wall (using touch as input modality) and further away (using mobile devices). Technical solutions that identify users at each interaction can replace logins and enable personalized interaction for multiple users at once. This thesis explores two alternative means of user identification: Tracking using RGB+depth-based cameras and leveraging ultrasound positioning of the users' mobile devices. Building on this, techniques that support personalized interaction using personal mobile devices are proposed. In the first contribution on interaction, HyDAP, we examine pointing from the perspective of moving users, and in the second, SleeD, we propose using an arm-worn device to facilitate access to private data and personalized interface elements. Additionally, the work contributes insights on practical implications of personalized interaction at wall displays: We present a qualitative study that analyses interaction using a multi-user cooperative game as application case, finding awareness and occlusion issues. The final contribution is a corresponding analysis toolkit that visualizes users' movements, touch interactions and gaze points when interacting with wall displays and thus allows fine-grained investigation of the interactions.
16

Spatial Interaction for Immersive Mixed-Reality Visualizations

Büschel, Wolfgang 02 June 2023 (has links)
Growing amounts of data, both in personal and professional settings, have caused an increased interest in data visualization and visual analytics. Especially for inherently three-dimensional data, immersive technologies such as virtual and augmented reality and advanced, natural interaction techniques have been shown to facilitate data analysis. Furthermore, in such use cases, the physical environment often plays an important role, both by directly influencing the data and by serving as context for the analysis. Therefore, there has been a trend to bring data visualization into new, immersive environments and to make use of the physical surroundings, leading to a surge in mixed-reality visualization research. One of the resulting challenges, however, is the design of user interaction for these often complex systems. In my thesis, I address this challenge by investigating interaction for immersive mixed-reality visualizations regarding three core research questions: 1) What are promising types of immersive mixed-reality visualizations, and how can advanced interaction concepts be applied to them? 2) How does spatial interaction benefit these visualizations and how should such interactions be designed? 3) How can spatial interaction in these immersive environments be analyzed and evaluated? To address the first question, I examine how various visualizations such as 3D node-link diagrams and volume visualizations can be adapted for immersive mixed-reality settings and how they stand to benefit from advanced interaction concepts. For the second question, I study how spatial interaction in particular can help to explore data in mixed reality. There, I look into spatial device interaction in comparison to touch input, the use of additional mobile devices as input controllers, and the potential of transparent interaction panels. Finally, to address the third question, I present my research on how user interaction in immersive mixed-reality environments can be analyzed directly in the original, real-world locations, and how this can provide new insights. Overall, with my research, I contribute interaction and visualization concepts, software prototypes, and findings from several user studies on how spatial interaction techniques can support the exploration of immersive mixed-reality visualizations. / Zunehmende Datenmengen, sowohl im privaten als auch im beruflichen Umfeld, führen zu einem zunehmenden Interesse an Datenvisualisierung und visueller Analyse. Insbesondere bei inhärent dreidimensionalen Daten haben sich immersive Technologien wie Virtual und Augmented Reality sowie moderne, natürliche Interaktionstechniken als hilfreich für die Datenanalyse erwiesen. Darüber hinaus spielt in solchen Anwendungsfällen die physische Umgebung oft eine wichtige Rolle, da sie sowohl die Daten direkt beeinflusst als auch als Kontext für die Analyse dient. Daher gibt es einen Trend, die Datenvisualisierung in neue, immersive Umgebungen zu bringen und die physische Umgebung zu nutzen, was zu einem Anstieg der Forschung im Bereich Mixed-Reality-Visualisierung geführt hat. Eine der daraus resultierenden Herausforderungen ist jedoch die Gestaltung der Benutzerinteraktion für diese oft komplexen Systeme. In meiner Dissertation beschäftige ich mich mit dieser Herausforderung, indem ich die Interaktion für immersive Mixed-Reality-Visualisierungen im Hinblick auf drei zentrale Forschungsfragen untersuche: 1) Was sind vielversprechende Arten von immersiven Mixed-Reality-Visualisierungen, und wie können fortschrittliche Interaktionskonzepte auf sie angewendet werden? 2) Wie profitieren diese Visualisierungen von räumlicher Interaktion und wie sollten solche Interaktionen gestaltet werden? 3) Wie kann räumliche Interaktion in diesen immersiven Umgebungen analysiert und ausgewertet werden? Um die erste Frage zu beantworten, untersuche ich, wie verschiedene Visualisierungen wie 3D-Node-Link-Diagramme oder Volumenvisualisierungen für immersive Mixed-Reality-Umgebungen angepasst werden können und wie sie von fortgeschrittenen Interaktionskonzepten profitieren. Für die zweite Frage untersuche ich, wie insbesondere die räumliche Interaktion bei der Exploration von Daten in Mixed Reality helfen kann. Dabei betrachte ich die Interaktion mit räumlichen Geräten im Vergleich zur Touch-Eingabe, die Verwendung zusätzlicher mobiler Geräte als Controller und das Potenzial transparenter Interaktionspanels. Um die dritte Frage zu beantworten, stelle ich schließlich meine Forschung darüber vor, wie Benutzerinteraktion in immersiver Mixed-Reality direkt in der realen Umgebung analysiert werden kann und wie dies neue Erkenntnisse liefern kann. Insgesamt trage ich mit meiner Forschung durch Interaktions- und Visualisierungskonzepte, Software-Prototypen und Ergebnisse aus mehreren Nutzerstudien zu der Frage bei, wie räumliche Interaktionstechniken die Erkundung von immersiven Mixed-Reality-Visualisierungen unterstützen können.
17

Die Verbildlichung von Klangstrukturen im Kontext der Entwicklung von Werkzeugen für die Medienproduktion

Engeln, Lars 26 September 2023 (has links)
Audio ist einer der wichtigsten Aspekte bei mediengestützten Produktionen. Allerdings sind die Oberflächen zur Suche, Erstellung und Manipulation von Audio häufig getrieben durch die zugrundeliegenden technischen Parameter. Diese Parameter beschreiben in der Regel weder deren Bedeutung für den Sound noch welche Qualitäten im Sound zum Ausdruck kommen. Dadurch bieten solche Oberflächen selten eine intuitive, noch expressive Handhabe, da zuerst ein Übersetzungsprozess von der künstlerischen Idee hin zu den technischen Parametern erfolgen muss. Um die Oberflächen nahbarer und nachvollziehbar zu gestalten, wird daher die Verbildlichung der Strukturen von Sound auf verschiedenen Ebenen betrachtet. Insbesondere wie visuelle Momente zur Interaktion mit Audio genutzt werden können, wird herausgestellt. Auf diese Weise wird die grafische Erweiterung von technischer spektraler Editierung als Beispiel für die direkte Signalverarbeitung diskutiert. Auch werden metaphorische Visualisierungen für Audioeffekte thematisiert. Zudem wird das mentale Modell von Audio analysiert, welches hier assoziativ durch Skizzen als abstrakte visuelle Repräsentationen erhoben wird. Daher wurden Studien zur Erhebung und Bewertung von Skizzen durchgeführt, die je einen Sound abbilden. Aus den resultierenden Skizzenassoziationen ist ein Vorgehen zur Ableitung einer Klassifikation des skizzenbasierten mentalen Modells entstanden. Diese Klassifikation ist ein möglicher Ausgangspunkt für die Entwicklung von Werkzeugen und bietet ein Bewusstsein der Ausdrucksmöglichkeiten beim Einsatz grafischer Assoziationen bis hin zu Affordanzen im Design von Datensätzen für maschinelles Lernen. Denn es wurden auch statistische Zusammenhänge der Kenntnisse der zeichnenden Personen und den verwendeten Skizzenklassen untersucht. Dadurch kann die Art der Abbildung in Bezug zur gewünschten Zielgruppe gewählt werden. / Audio is one of the most important aspects of media-based productions. However, the interfaces for searching, creating, and manipulating audio are often driven by the underlying technical parameters. These parameters usually do not describe their meanings for the sound, nor what qualities are expressed in the sound. As a result, such surfaces rarely offer an intuitive, nor expressive way of interacting, since a translation process from the artistic idea to the technical parameters must take place first. In order to make the interfaces more approachable and comprehensible, the visualization of the structures of sound is therefore considered on different levels. In particular, how visualizations can be used to interact with audio will be highlighted. In this way, the graphical extension of technical spectral editing is discussed as an example of direct signal processing. Also, metaphorical visualizations for audio effects are addressed. In addition, the mental model of audio is analyzed, which is here elicited associatively through sketches as abstract visual representations. Therefore, studies were conducted to collect and evaluate sketches, each depicting one sound. From the resulting sketch associations, a procedure for deriving a classification of the sketch-based mental model has been developed. This classification is a possible starting point for tool development and provides an awareness of the expressive possibilities when using graphical associations up to affordances in the design of datasets for machine learning. In fact, statistical correlations of the knowledge of the people drawing and the classes of sketches used were also investigated. This allows to choose the type of illustration in relation to the desired target group.
18

Proceedings of the 26th Bilateral Student Workshop CTU Prague and HTW Dresden - User Interfaces & Visualization

Kammer, Dietrich, Wacker, Markus, Slavík, Pavel, Míkovec, Zdeněk 19 April 2024 (has links)
This technical report publishes the proceedings of the 26th Bilateral Student Workshop CTU Prague and HTW Dresden - User Interfaces & Visualization -, which was held on the 1st and 2nd December 2023. The workshop offers a possibility for young scientists to present their current research work in the fields of computer graphics, human-computer-interaction, robotics and usability. The workshop is intended to be a platform to bring together researchers from both the Czech Technical University in Prague (CTU) and the University of Applied Sciences Dresden (HTW). The German Academic Exchange Service offers its financial support to allow student participants the bilateral exchange between Prague and Dresden.:1) Václav Pavlovec: Multi-Boundary Labeling, pp. 2–5 2) Philipp Ballin: Influence of Speed, Direction, and Intensity of Vibrotactile Animations onto Emotional Level, pp. 6–14 3) Niklas Maximilian Kothe, Leon Kolosov: Errors In Pictures, pp. 15–21 4) Jan Trávníček: Automatic Sports Equipment Rental Service, pp. 22–26 5) Jimmy Orawetz, Felix Mühlberg: Capturing and Reproducing Atmospheres, pp. 27–32 6) Vojtěch Leischner: Time Based Audio-movement Graph, pp. 33–37 7) Markéta Machová: Balancing Exercises for Seniors in VR with Interactive Elements, pp. 38–41 8) Radka Olyšarová: MediaPipe Based Leg Tracking Method for Sensorimotor Walking Exercise for Elderly in VR, pp. 42–46 9) Vojtěch Radakulan: Application of Diegetic and Non-Diegetic Navigation in Virtual Reality, pp. 47–51 / Dieser Tagungsband enthält die Beiträge des 26. Bilateralen Studentenworkshops der CTU Prag und der HTW Dresden zu User Interfaces & Visualization, der am 1. und 2. Dezember 2023 stattfand. Der Workshop bietet jungen Wissenschaftlerinnen und Wissenschaftlern die Möglichkeit, ihre aktuellen Forschungsarbeiten in den Bereichen Computergrafik, Mensch-Computer-Interaktion, Robotik und Usability zu präsentieren. Der Workshop soll eine Plattform sein, um Forschende der Tschechischen Technischen Universität Prag (CTU) und der Hochschule für Technik und Wirtschaft Dresden (HTW) zusammenzubringen. Der Deutsche Akademische Austauschdienst stellt die finanzielle Unterstützung bereit, um den studentischen Teilnehmenden den bilateralen Austausch zwischen Prag und Dresden zu ermöglichen.:1) Václav Pavlovec: Multi-Boundary Labeling, pp. 2–5 2) Philipp Ballin: Influence of Speed, Direction, and Intensity of Vibrotactile Animations onto Emotional Level, pp. 6–14 3) Niklas Maximilian Kothe, Leon Kolosov: Errors In Pictures, pp. 15–21 4) Jan Trávníček: Automatic Sports Equipment Rental Service, pp. 22–26 5) Jimmy Orawetz, Felix Mühlberg: Capturing and Reproducing Atmospheres, pp. 27–32 6) Vojtěch Leischner: Time Based Audio-movement Graph, pp. 33–37 7) Markéta Machová: Balancing Exercises for Seniors in VR with Interactive Elements, pp. 38–41 8) Radka Olyšarová: MediaPipe Based Leg Tracking Method for Sensorimotor Walking Exercise for Elderly in VR, pp. 42–46 9) Vojtěch Radakulan: Application of Diegetic and Non-Diegetic Navigation in Virtual Reality, pp. 47–51
19

Visualisierungsmethoden für das interaktive Erfassen und Strukturieren von Informationen im Kontext der Freiform-Wissensmodellierung / Visualization Methods for Interactive Gathering and Structuring of Information in the Context of Knowledge Modeling

Brade, Marius 22 May 2015 (has links) (PDF)
In der vorliegenden Arbeit werden Visualisierungsmethoden für das interaktive Erfassen und Strukturieren von Informationen im Kontext der Wissensmodellierung konzipiert und untersucht. Motiviert ist das Vorhaben durch das Interesse von Wissensarbeitern an unterstützenden Werkzeugen sowie von Unternehmen und Institutionen, unstrukturiertes Prozesswissen zu erfassen, zu strukturieren und intern für Optimierungszwecke verfügbar zu machen. Diese Problematik tritt domänenunabhängig auf. Die Herausforderung dabei ist, diese branchenübergreifend zu lösen. Die zwei wesentlichen Nachteile des Wissensmodellierungsprozesses sind zum einen die aufwendige Dateneingabe durch Benutzer und zum anderen der komplizierte Prozess der Wissensformalisierung. In den frühen Phasen bisheriger Arbeitsprozesse der Wissensmodellierung verwenden Wissensarbeiter hauptsächlich Papier und Stift sowie Whiteboards, da digitale Systeme für diesen Zweck häufig zu inflexibel sind. Ziel der vorliegenden Arbeit ist es, einen digitalen Lösungsansatz zu präsentieren, welcher diese nachteiligen Aspekte verbessert. Das Thema wird dabei methodisch in drei Schritten bearbeitet. Zuerst werden aktuelle Arbeitsprozesse der Wissensmodellierung sowie dabei verwendete Hilfsmittel analysiert. Basierend auf diesen Untersuchungen wird als theoretische Lösung die Methode der Freiform-Wissensmodellierung vorgestellt, welche eine Alternative zur Papierform und zu bisherigen digitalen Systemen darstellt. Das erarbeitete Konzept umfasst eine digitale, stiftbasierte Tablet-Computer-Anwendung, welche die Art und Weise der Darstellungen mittels Papier und Stift mit den Vorteilen der Veränderbarkeit und Datenspeicherung digitaler Systeme kombiniert. Um die theoretischen Überlegungen zu untermauern, werden zwei aufeinander aufbauende, prototypische Softwareanwendungen in der vorliegenden Arbeit entwickelt und vorgestellt (Auf Implementierungsarbeiten betreuter Studenten wird an den entsprechenden Stellen im Text verwiesen). Im Rahmen einer Laborstudie wird die entwickelte Methode der Freiform-Wissensmodellierung, welche den Softwareanwendungen zugrunde liegt, mit der Verwendung von Stift und Papier verglichen. Da bis dato keine derartige Vergleichsstudie zwischen Papier und Tablet-Computer gefunden werden konnte, wird anforderungsgeleitet ein spezieller Studienaufbau entwickelt. Dieser kann zukünftig für andere Forschungsvorhaben verwendet werden. Die Ergebnisse belegen, dass die digitale Anwendung zur Freiform-Wissensmodellierung in ihren Möglichkeiten eine hohe Ähnlichkeit zur Verwendung von Papier und Stift aufweist. Sie eignet sich daher in besonderem Maße zur Unterstützung der frühen Phasen der Wissensmodellierung. Basierend auf den Erkenntnissen der Studie werden darüber hinaus Weiterentwicklungsmöglichkeiten aufgezeigt. Für die wichtigsten Kritikpunkte wird ein weiterentwickeltes Konzept vorgestellt. Das Ergebnis der vorliegenden Arbeit ist ein in der Praxis auf Tablet-Computern anwendbares Konzept zur Wissensmodellierung. Dieses steht als prototypische Umsetzung zur Verfügung. Das entwickelte Konzept der Freiform-Wissensmodellierung ermöglicht jedem Benutzer (egal ob Laie oder Experte in grafischer Gestaltung oder in technischer Repräsentation) Gedanken visuell zu strukturieren und diese synchron in einem passenden Datenmodell abzulegen. Durch die Visualisierungsmethode der Freiformen wird die Struktur der Daten und der Aufbau der Informationen bereits durch die visuelle Oberfläche für den Benutzer und das System gleichermaßen „ersichtlich”. Das System erkennt die hierarchische Verschachtelung und Gruppierung von Informationen. Der darunterliegende Aufbau sowie die Struktur der Daten werden vom System grafisch explizit gezeigt, sodass ein Anwender zu jederzeit sieht, welche Struktur das System „verstanden” hat. So kann diese „entindividualisierte” Struktur der Inhalte auch von anderen Benutzern nachvollzogen werden. Dies erlaubt ein grundlegendes kooperatives Arbeiten. Das Konzept der Freiform-Wissensmodellierung ist dabei (ähnlich wie Whiteboards oder Papier und Stift) vom Anwendungsfall unabhängig einsetzbar. Die vorliegende Arbeit bietet einen neuartigen Ansatz, temporäre Informationen bereits im Verlauf der Wissensmodellierung digital festzuhalten und schrittweise weiterzuentwickeln. In der durchgeführten Studie wurden sämtliche von Probanden erstellte Typen grafischer Objekte ermittelt. Zukünftige Forschungsarbeiten können darauf aufbauend die softwareseitige Erkennung und Verarbeitung von handgezeichneten Inhalten verbessern. Somit bietet die vorliegende Arbeit die Grundlage für eine neue Generation unterstützender digitaler Werkzeuge für Wissensarbeiter.
20

Formalisierung gestischer Eingabe für Multitouch-Systeme

Kammer, Dietrich 03 July 2014 (has links) (PDF)
Die Mensch-Computer-Interaktion wird dank neuer Eingabemöglichkeiten jenseits von Tastatur und Maus reicher, vielseitiger und intuitiver. Durch den Verzicht auf zusätzliche Geräte beim Umgang mit Computern geht seitens der Eingabeverarbeitung jedoch eine erhöhte Komplexität einher: Die Programmierung gestischer Eingabe für Multitouch-Systeme ist in derzeitigen Frameworks abgesehen von den verfügbaren Standard-Gesten mit hohem Aufwand verbunden. Die entwickelte Gestenformalisierung für Multitouch (GeForMT) definiert eine domänenspezifische Sprache zur Beschreibung von Multitouch-Gesten. Statt wie verwandte Formalisierungsansätze detaillierte Filter für die Rohdaten zu definieren, bedient sich GeForMT eines bildhaften Ansatzes, um Gesten zu beschreiben. Die Konzeption von Gesten wird unterstützt, indem beispielsweise in einem frühen Stadium der Entwicklung Konflikte zwischen ähnlichen Gesten aufgedeckt werden. Die formalisierten Gesten lassen sich direkt in den Code einbetten und vereinfachen damit die Programmierung. Das zugrundeliegende Framework sorgt für die Verbindung zu den Algorithmen der Gestenerkennung. Die Übertragung des semiotischen Ansatzes zur Formalisierung auf andere Formen gestischer Eingabe wird abschließend diskutiert.

Page generated in 0.2793 seconds