Return to search

Entwurf und Implementierung eines parametrisierten Whole-Body-Gestensets für humanoide Roboter zur dynamischen Feedback-Gestaltung

Diese Arbeit untersucht auf Basis der aktuellen Forschung Möglichkeiten, die Interaktion mit humanoiden Robotern variabler und somit attraktiver zu gestalten. Hierzu werden Möglichkeiten betrachtet, Emotionen und Absichten dynamisch mittels parametrisierter Gesten auszudrücken. Zunächst werden Gesten und mögliche Parameter analysiert, die zur Generierung eines Whole-Body-Gestensets notwendig sind, um anschließend diese auf Grund ihrer Auswirkungen auf die Gestenphasen in Intra- und Interphasenparameter zu unterteilen. Dadurch werden die innere und äußere Expressivität einer Geste definiert, die zur Bildung der Single Gesture Expression und der Multi Gesture Expression führen. Diese stellen das Steigerungspotential von Gesten beziehungsweise Absichten dar. Gesten werden anschließend nach Feedback-Arten untergliedert und in Abhängigkeit der Expressivität miteinander in Beziehung gesetzt. Somit entsteht ein Gestenset, das durch die Parameter „Feedback-Art“ und „Expressivität“ bestimmt wird.
Besagtes Gestenset wurde daraufhin zur Verwendung durch den humanoiden Roboter Nao innerhalb der Entwicklungsumgebung Choregraphe umgesetzt. Zudem wurde eine Verhaltensbibliothek entwickelt, die sämtliche, implementierte Gesten zur Wiederverwendung enthält. Als Ergebnis entstand ein parametrisiertes Gestenset in Theorie und Praxis, das für die ausdrucksstarke Verwendung durch einen humanoiden Roboter geeignet ist und die Kommunikation und Interaktion zwischen Mensch und Roboter erweitert, verfeinert und verbessert.:1 Einleitung 9
2 Theoretische Hintergründe 11
2.1 Überblick über Gesten 11
2.2 Verwendung von Gesten in der Mensch-Roboter-Interaktion 13
2.2.1 Erkennung von Gesten einer Person durch einen Roboter 13
2.2.2 Verwendung von Gesten durch einen Roboter 15
2.3 Generierung und Parametrisierung von Gesten 17
2.4 Anwendungen von Gesten unter Verwendung des Nao 19
3 Entwurf eines parametrisierten Gestensets 23
3.1 Gestenanalyse 23
3.1.1 Entstehung und Entwicklung von Gesten 23
3.1.2 Analyse alltäglicher Gesten 26
3.1.3 Analyse von Gesten zur Feedback-Gestaltung 29
3.2 Parametrisierung von Gesten 33
3.2.1 Analyse und Bewertung möglicher Parameter 33
3.2.2 Auswahl und Kategorisierung der Parameter 35
3.2.3 Zuordnung der Parametern zu den Gesten 40
3.3 Kategorisierung und Auswahl relevanter Feedback-Gesten 41
3.3.1 Arten des expressiven Ausdrucks 41
3.3.2 Kategorisierung der Gesten anhand von Expressivitätsspannen 43
4 Implementierung des Gestensets für einen humanoiden Roboter 51
4.1 Technische Grundlagen 51
4.2 Grundüberlegungen zur Umsetzung 53
4.2.1 Umsetzung der Gestenerzeugung 53
4.2.2 Umsetzung der Multi Gesture Expression 54
4.3 Implementierung in Choregraphe 56
5 Abschließende Bem 61
5.1 Zusammenfassung 61
5.2 Fazit 62
5.3 Ausblick 63
Literaturverzeichnis 65
Abbildungsverzeichnis 69
Tabellenverzeichnis 71
Anhang 73
A Auswirkungen der Steigerung der Parameter auf die Gesten 73
B Anpassung der Expressivitätsspannen an den Nao und Unterteilung der Gesten in Stufen 79
C Aufbau der implementierten Gestenerzeugung in der Entwicklungsumgebung Choregraphe 83 / This work investigates the possibilities of developing a more variable, and thus attractive, interaction with humanoid robots based on current research. For this purpose possibilities of dynamically expressing emotions and intentions associated with parametrised gestures are contemplated. First, gestures and possible parameters, which are necessary for the generation of a whole-body gesture set, are analysed. Afterwards, these are classified into intraphaseparameters and interphase-parameters depending on their impact on gesture phases. A gesture’s inner and outer expressivity are thereby defined which leads to the establishment of the single gesture expression and the multi gesture expression. These constitute the gesture’s and the intention’s potential for increase. Gestures are subsequently classified by feedback types and are related depending on their expressivity. Hence, a gesture set which is defined by the parameters “feedback type” and “expressivity” is developed. As a result, the aforementioned gesture set has been implemented with the development environment Choregraphe to be used by humanoid robots. Additionally a behaviour library is generated for reusability which contains every implemented gesture. The result reveals a parametrised gesture set in theory and practice which is suitable to be expressively used by a humanoid robot and enhances, refines and improves the human-robot-interaction.:1 Einleitung 9
2 Theoretische Hintergründe 11
2.1 Überblick über Gesten 11
2.2 Verwendung von Gesten in der Mensch-Roboter-Interaktion 13
2.2.1 Erkennung von Gesten einer Person durch einen Roboter 13
2.2.2 Verwendung von Gesten durch einen Roboter 15
2.3 Generierung und Parametrisierung von Gesten 17
2.4 Anwendungen von Gesten unter Verwendung des Nao 19
3 Entwurf eines parametrisierten Gestensets 23
3.1 Gestenanalyse 23
3.1.1 Entstehung und Entwicklung von Gesten 23
3.1.2 Analyse alltäglicher Gesten 26
3.1.3 Analyse von Gesten zur Feedback-Gestaltung 29
3.2 Parametrisierung von Gesten 33
3.2.1 Analyse und Bewertung möglicher Parameter 33
3.2.2 Auswahl und Kategorisierung der Parameter 35
3.2.3 Zuordnung der Parametern zu den Gesten 40
3.3 Kategorisierung und Auswahl relevanter Feedback-Gesten 41
3.3.1 Arten des expressiven Ausdrucks 41
3.3.2 Kategorisierung der Gesten anhand von Expressivitätsspannen 43
4 Implementierung des Gestensets für einen humanoiden Roboter 51
4.1 Technische Grundlagen 51
4.2 Grundüberlegungen zur Umsetzung 53
4.2.1 Umsetzung der Gestenerzeugung 53
4.2.2 Umsetzung der Multi Gesture Expression 54
4.3 Implementierung in Choregraphe 56
5 Abschließende Bem 61
5.1 Zusammenfassung 61
5.2 Fazit 62
5.3 Ausblick 63
Literaturverzeichnis 65
Abbildungsverzeichnis 69
Tabellenverzeichnis 71
Anhang 73
A Auswirkungen der Steigerung der Parameter auf die Gesten 73
B Anpassung der Expressivitätsspannen an den Nao und Unterteilung der Gesten in Stufen 79
C Aufbau der implementierten Gestenerzeugung in der Entwicklungsumgebung Choregraphe 83

Identiferoai:union.ndltd.org:DRESDEN/oai:qucosa:de:qucosa:71045
Date18 June 2020
CreatorsTamara, Flemisch
ContributorsViergutz, André, Dachselt, Raimund, Technische Universität Dresden
Source SetsHochschulschriftenserver (HSSS) der SLUB Dresden
LanguageGerman
Detected LanguageGerman
Typeinfo:eu-repo/semantics/publishedVersion, doc-type:bachelorThesis, info:eu-repo/semantics/bachelorThesis, doc-type:Text
Rightsinfo:eu-repo/semantics/openAccess

Page generated in 0.0053 seconds