Spelling suggestions: "subject:"[een] HUMAN-MACHINE INTERACTION"" "subject:"[enn] HUMAN-MACHINE INTERACTION""
51 |
Modèle de comportement communicatif conventionnel pour un agent en interaction avec des humains : Approche par jeux de dialogue / A conventional communicative behaviour model for an agent interacting with humansDubuisson Duplessis, Guillaume 23 May 2014 (has links)
Cette thèse a pour objectif l’amélioration des capacités communicatives des agents logiciels en interaction avec des humains. Dans ce but, nous proposons une méthodologie basée sur l’étude d’un corpus d’interactions Homme-Homme orientées vers la réalisation d’une tâche. Nous proposons un cadre qui s’appuie sur les jeux de dialogue afin de modéliser des motifs dialogiques observés. Nous illustrons la spécification de tels jeux depuis des motifs extraits en appliquant l'ensemble des étapes de noter méthodologie à un corpus. Les jeux spécifiés sont validés en montrant qu’ils décrivent de façon appropriée les motifs apparaissant dans le corpus de référence. Enfin, nous montrons l’intérêt interprétatif et génératif de notre modèle pour le fondement du comportement communicatif conventionnel d’un agent interagissant avec un humain. Nous implémentons ce modèle dans le module Dogma, exploitable par un agent dans un dialogue impliquant deux interlocuteurs. / This research work aims at improving the communicative behaviour of software agents interacting with humans. To this purpose, we present a data-driven methodology based on the study of a task oriented corpus consisting of Human-Human interactions. We present a framework to specify dialogue games from observed interaction patterns based on the notion of social commitments and conversational gameboard. We exemplify the specification of dialogue games by implementing all the steps of our methodology ona task-oriented corpus. The produced games are validated by showing that they appropriately describe the patterns appearing in a reference corpus. Eventually, we show that an agent can take advantage of our model to regulate its conventional communicative behaviour on both interpretative and generative levels. We implement this model into Dogma, a module that can be used by an agent to manage its communicative behaviour in a two-interlocutor dialogue.
|
52 |
Akzeptanz kooperativer Roboter im industriellen KontextBrauer, Robert R. 07 July 2017 (has links)
In der industriellen Fertigung wird fortlaufend neuartige Technik implementiert. In der Automobilindustrie stellen kooperative Roboter eine Form neuartiger Technik dar. Für die Einstellung gegenüber kooperativen Robotern und deren Nutzung spielt die Akzeptanz vor allem beim Erstkontakt eine entscheidende Rolle. Der Grund ist die quasi-soziale Interaktion mit menschlichen Interaktionspartnern.
Damit es nicht zur grundlosen Ablehnung kooperativer Roboter als Form neuartiger Technik kommt, verfolgt diese Arbeit als Ziele die Erklärung und anschließende Beeinflussung der Akzeptanz gegenüber kooperativen Robotern auf Grundlage der „unified theory of acceptance and use of technology“ (Venkatesh, Morris, Davis, & Davis, 2003).
Dafür wurden Einflussvariablen auf die Akzeptanz kooperativer Roboter identifiziert. Anschließend wurde die Beeinflussbarkeit der Akzeptanz untersucht und es wurden verschiedene Wege der Einführung eines kooperativen Roboters im Anwendungsfeld der Automobilindustrie miteinander verglichen. Die Akzeptanzsteigerung vor der eigentlichen Nutzung eines kooperativen Roboters konnte realisiert werden. Zudem ließen sich die Ergebnisse auch auf eine weitere Form neuartiger Technik im Untersuchungskontext übertragen. / New technologies are constantly implemented in the industrial context. Cooperative robots are a new technology in the automobile industry. The acceptance of these is important for the user’s attitude towards and their usage of them before and during the first contact. The reason for that is the quasi-social interaction with human interaction partners.
To counteract the possibility of an unsubstantiated rejection of the use of this new technology, this paper has the aims of explaining and subsequently influencing the acceptance of cooperative robots based on the „unified theory of acceptance and use of technology“ (Venkatesh, Morris, Davis, & Davis, 2003).
Therefore variables affecting the acceptance of cooperative robots were identified. Afterwards the influenceability of the acceptance was tested and different ways of introducing a cooperative robot to new interaction partners in the new context of the automobile industry have been compared. As a result an increase of the user’s acceptance could be achieved before the actual use of the cooperative robot. Furthermore the results could also be transferred to another new technology in the same context of research.
|
53 |
Gesten - gestern, heute, übermorgen. Vom Forschungsprojekt zur AusstellungFricke, Ellen, Bressem, Jana 17 December 2020 (has links)
Das Buch „Gesten -gestern, heute, übermorgen: Vom Forschungsprojekt zur Ausstellung', herausgegeben von Ellen Fricke und Jana Bressem, ist eine Publikation zwischen Katalog, Kunst und Wissenschaft. Aus unterschiedlichen Perspektiven wird ein Rundgang durch die Ausstellung „Gesten - gestern, heute, übermorgen' präsentiert, die im Industriemuseum Chemnitz sowie den Museen für Kommunikation in Berlin und Frankfurt zu sehen war und noch zu sehen ist. Artikel, Interviews und Fotodokumentationen stellen die Exponate in den Kontext von Forschung und ästhetischer Reflexion und möchten einen gesellschaftlichen Diskurs zur Welt von morgen und übermorgen anstoßen.:I Gesten – gestern, heute, übermorgen
II Hände und Objekte in Sprache, Kultur und Technik
III Wie Gesten und Hände sich wandeln: Evolution, Anthropologie, Technologie
IV Hände, Dinge und Gesten ästhetisch reflektiert: Interviews und Texte
V Industriekultur im Wandel: Vom Handgriff zur Gestensteuerung
VI Dokumentation / The book „Gestures - past, present, future: From a research project to an exhibition', edited by Ellen Fricke and Jana Bressem, is a publication between catalogue, art, and science. From different disciplines, it presents a tour through the exhibition „gestures - past, present, future' that was and is shown in the Saxon Museum of Industry in Chemnitz and the Museums for Communication in Berlin and Frankfurt Main. Articles, interviews, and photo documentations put exhibits into the context of science as well as aesthetic reflection and hope to initiate a societal discourse about the world of tomorrow and the day after tomorrow.:I Gesten – gestern, heute, übermorgen
II Hände und Objekte in Sprache, Kultur und Technik
III Wie Gesten und Hände sich wandeln: Evolution, Anthropologie, Technologie
IV Hände, Dinge und Gesten ästhetisch reflektiert: Interviews und Texte
V Industriekultur im Wandel: Vom Handgriff zur Gestensteuerung
VI Dokumentation
|
54 |
Human Interaction with Autonomous machines: Visual Communication to Encourage TrustNorstedt, Emil, Sahlberg, Timmy January 2020 (has links)
En pågående utveckling sker inom konstruktionsbranschen där maskiner går från att styras manuellt av en mänsklig förare till styras autonomt, d.v.s. utan mänsklig förare. Detta arbete har varit i samarbete med Volvo CE och deras nya autonoma hjullastare. Då maskinen kommer operera i en miljö kring människor, så krävs en hög säkerhet för att eliminera olyckor. Syftet med arbetet har varit att utveckla ett system för öka säkerheten och förtroendet för människorna i närheten av den autonoma maskinen. Systemet byggs på visuell kommunikation för att uppnå en tillit mellan parterna. Arbetet har baserats på en iterativ process där prototypande, testande och analysering har varit i focus för att uppnå ett lyckat resultat. Genom skapande av modeller med olika funktioner så har en större förståelse kring hur visuell kommunikation mellan människa och maskin kan skapas för att bygga upp en tillit sinsemellan. Detta resulterade i ett koncept som bygger på en kommunikation via ögon från maskinen. Ögonkontakt har visats sig vara en viktig faktor för människor för att skapa ett förtroende för någon eller något i obekväma och utsatta situationer. Maskinen förmedlar olika uttryck genom att ändra färg och form på ögonen för att uppmärksamma och informera människor som rör sig i närheten av maskinen. Genom att anpassa färg och form på ögon kan information uppfattas på olika sätt. Med denna typ av kommunikation kan ett förtroende för maskinen skapas och på så sätt höjs säkerhet och tillit. / Ongoing development is happening within the construction industry. Machines are transformed from being operated by humans to being autonomous. This project has been a collaboration with Volvo Construction Equipment (Volvo CE), and their new autonomous wheel loader. The autonomous machine is supposed to operate in the same environment as people. Therefore, a developed safety system is required to eliminate accidents. The purpose has been developing a system to increase the safety for the workers and to encourage trust for the autonomous machine. The system is based on visual communication to achieve trust between the machine and the people around it. An iterative process, with a focus on testing, prototyping, and analysing, has been used to accomplish a successful result. Better understanding has been developed on how to design a human-machine-interface to encourage trust by creating models with a variety of functions. The iterative process resulted in a concept that communicates through eyes. Eye-contact is an essential factor for creating trust in unfamiliar and exposed situations. The solution mediating different expressions by changing the colour and shape of the eyes to create awareness and to inform people moving around in the same environment. Specific information can be mediated in various situations by adopting the colour and shape of the eyes. Trust can be encouraged for the autonomous machine using this way of communicating.
|
55 |
Une approche autonome pour la gestion logicielle des espaces intelligents / An autonomic approach for the software management of smart spacesGouin-Vallerand, Charles 23 June 2011 (has links)
Depuis une vingtaine d'années, les développements dans les technologies de l'information ont fait évoluer les paradigmes de l'informatique. L'arrivée d'approches telles que l'informatique diffuse ont fait émerger de nouvelles technologies permettant d'améliorer la qualité des interactions avec les systèmes informatisés. Toutefois, la démocratisation de l'informatique diffuse et la mise en place des espaces intelligents rencontrent un bon nombre de problèmes. Le nombre important de composantes matérielles et logicielles et leurs natures hétérogènes contribuent à la complexité de déploiement et de gestion de ces milieux, entraînant des coûts élevés. Cette thèse vise à contribuer à la gestion logicielle des espaces intelligents par la réduction de la complexité des tâches de gestion. Notre proposition consiste en une approche autonome de la gestion logicielle, fondée sur l'approche de l'informatique diffuse autonome. Dans le cadre de ce travail, nous proposons une solution utilisant les informations contextuelles des milieux, afin de déterminer quelle répartition des logiciels parmi les appareils des milieux correspond le mieux au besoin des applications, des caractéristiques propres des environnements et, non le moindre, des modalités et préférences d’interaction des utilisateurs de ces milieux. La solution proposée a été implémentée et évaluée à l’aide d’une série de tests et de mises en situation d’organisation logicielle / Since two decades, the developments in the information technologies have changed the computer science paradigms. The arrival of new approaches such as the pervasive computing create new technologies, which improved the quality of the interactions with the I.T. systems, However, the broad utilization of the pervasive computing and the development of smart spaces are facing several challenges. The large number of hardware and software components and their heterogeneous natures, contributes to the complexity of deploying and managing these environments, resulting in high costs. This thesis contributes to the software management of the smart spaces by reducing the complexity of the management tasks. Our proposal consists of an autonomic approach to software management based on the autonomic pervasive computing. As part of this work, we propose a solution using the environment’s contextual information to determine the software distribution among the environment’s devices, which best fits the needs of the software, environments and the interaction modalities and preferences of the environment’s users. The proposed solution was implemented and evaluated using a series of tests and software organization scenarios
|
56 |
Impact of sensory preferences in individuals with autism spectrum disorderon their social interaction with a robot / Impact des préférences sensorielles chez les individus souffrant de troubles du spectre autistique sur leur interaction sociale avec un robotChevalier, Pauline 08 December 2016 (has links)
L'objectif de ce travail de thèse est de permettre sur le long terme de proposer des interactions sociales personnalisées exploitant l’attirance que les personnes souffrant de Troubles du Spectre Autistique (TSA) ont envers les robots humanoïdes, tels que Nao (Softbank Robotics), afin d’améliorer leurs capacités d’interaction sociale. Trois institutions spécialisées pour personnes atteintes de TSA participent à notre étude : l'IME Notre Ecole et l'IME MAIA, Institut médico-éducatif pour enfants et adolescents atteints de TSA et la Lendemaine, Foyer d’Aide Médicalisée pour adultes atteints de TSA.Les différences inter-individuelles sont très présentes dans les TSA et elles impactent différemment le comportement de chaque individu avec TSA dans sa vie (par exemples la communication, l'attention jointe, ou encore les troubles moteurs, à des degrés différents pour chaque individu), et dans cette étude, durant leur interaction sociale avec un robot.Afin d’envisager à long terme une interaction personnalisée pour chaque participant, une première étape a consisté à définir leur profil sensorimoteur. L'hypothèse qui guide notre étude est que l'intégration des informations visuelles et proprioceptives (perception, consciente ou non, de la position et des changements des différentes parties du corps) d'une personne joue un rôle sur ses capacités sociales. Une personne qui réagit peu aux informations visuelles et qui utilise les informations proprioceptives relatives à ses mouvements ou à la position de son corps de manière exacerbée, aurait plus de difficultés à s’engager et à maintenir une interaction sociale.Les profils sensoriels des participants ont été évalués à l’aide du test du Profil Sensoriel de Dunn et du test sensorimoteur impliquant une scène mobile virtuelle afin d’évaluer leur dépendance visuelle et proprioceptive. L'analyse des données a permis de classer nos participants en trois groupes montrant des comportements différents face aux informations proprioceptives et visuelles, et à leur intégration.Nous avons ensuite étudié les liens entre les profils sensoriels des participants et leurs différents comportements sociaux à travers plusieurs tâches impliquées dans les interactions sociales : (1) reconnaissance d'émotions exprimées par deux robots, un avatar et une personne ; (2) interaction sociale avec le robot Nao sur la salutation ; (3) attention conjointe avec le robot Nao, et (4) imitation avec le robot Nao. Cette dernière tâche a fait l’objet de sessions répétées sur huit semaines (modèle de thérapie sur l'apprentissage et de renforcement de l'imitation pour enfants avec TSA).A travers ces études, nous avons pu observer que les participants ayant une plus forte dépendance à la proprioception et une indépendance au champ visuel ont eu plus de difficultés à interagir avec le robot (moins de regards vers le robot, moins de réponses à l'attention conjointe, plus de difficultés à reconnaitre les émotions, et à imiter un partenaire) que les autres participants.Nous avons pu observer que les sessions avec le robot Nao ont eu un effet bénéfique chez les participants avec TSA. A la suite des sessions répétées avec le robot Nao, les participants ont montré une amélioration de leurs capacités sociales (regard vers le partenaire, imitations) vers un partenaire d'imitation humain.Ces résultats confortent l'idée d'utiliser les profils sensoriels des personnes avec TSA pour leur proposer, dans des recherches futures, des interactions personnalisées avec les robots. / The goal of this thesis is to provide contributions that will help in the long term to enable personalized robot-based social interaction for individuals with Autism Spectrum Disorders (ASD). This work was done in collaboration with three care facilities for people suffering from ASD: IME MAIA (France) and IME Notre Ecole, medical and educative schools for children and teenagers with ASD, and FAM La Lendemaine (France), a medical house for adults with ASD.Inter-individual differences are present in ASD, and impact the behaviors of each individual in their lives, and in this study, during their interactions with a robot.The first step of our work was to propose an appropriate method to define the proprioceptive and visual profiles of each of our participants. We based our work on the hypothesis that the proprioceptive (the ability of an individual to determine body segment positions (i.e., joint position sense and to detect limb movements in space) and visual integration of cues of an individual with ASD is an indicator of their social and communication skills. We posit that a mitigated behavioral response (i.e., hyporeactivity) to visual motion and an overreliance on proprioceptive information are linked in individuals with ASD to their difficulties in integrating social cues and engaging in successful social interactions.We used two methods to define the proprioceptive and visual profile of our participant: a well-known questionnaire on sensory preferences and an experimental setup. With the setup, we were able to observe three different groups of postural behaviors in our participants. Thanks to these individual profiles, we could make assumptions on the behaviors that one can expect from each of our participants during interactions with the robot.We aimed to assess various social skills of our participants in regards to their profiles. We designed three single case studies: (1) emotion recognition with different embodiments (two robots, a virtual agent and a human); (2) a short greeting social task with the robot Nao; and (3) a game evaluating joint attention response to the robot Nao. We also conducted eight weeks-long sessions with an imitation task with Nao.Through these studies, we were able to observe that the participants that display an overreliance on proprioceptive cues and a hyporeactivity to visual cues had more difficulties to interact with the robot (less gaze towards the robot, less answers to joint attention initiation behaviors, more difficulties to recognize emotions and to imitate a partner) than the other participants.We were able to observe that the repeated sessions with the robot Nao were benefic for participants with ASD: after the sessions with the robot Nao, the participants showed an improvement in their social skills (gaze to the partner, imitations).Defining such individual profiles could provide promising strategies for designing successful and adapted Human-Robot Interaction for individuals with ASD.
|
57 |
An Autonomous Intelligent Robotic Wheelchair to Assist People in Need: Standing-up, Turning-around and Sitting-downPapadakis Ktistakis, Iosif January 2018 (has links)
No description available.
|
58 |
The major organisation leap from ancient to futuristic : An explorative case study investigating a company in the shift towards smart ferriesÅgren, Isabella January 2022 (has links)
Many industries stand in front of a significant shift as we have entered the 4th industrial revolution,and society is becoming digitalised to a higher degree. Autonomous and smart ships may be emergingin the coming future within the maritime industry. Previous research has tried understanding thecompetencies needed to work with the autonomous ship. This case study aims to understand a shoreand ship organisation as their company stands on the verge of smart ships arriving. To understandthis, the a) present work has been explored, b) potential changes to the work tasks because of theautomation and c) how the organisation and crew members can meet the changes have been explored.The methods used are interviews, observations, thematic analysis, and hierarchical task analysis. Thestudy’s major findings were the importance of clear communication and a good relationship betweenthe ship and shore organisation. / Drift och operation av smarta fartyg
|
59 |
<b>Collaborative Human and Computer Controls of Smart Machines</b>Hussein Bilal (17565258) 07 December 2023 (has links)
<p dir="ltr">A Human-Machine Interaction (HMI) refers to a mechanism to support the direct interactions of humans and machines with the objective for the synthesis of machine intelligence and autonomy. The demand to advance in this field of study for intelligence controls is continuously growing. Brain-Computer Interface (BCI) is one type of HMIs that utilizes a human brain to enable direct communication of the human subject with a machine. This technology is widely explored in different fields to control external devices using brain signals.</p><p dir="ltr">This thesis is driven by two key observations. The first one is the limited number of Degrees of Freedom (DoF) that existing BCI controls can control in an external device; it becomes necessary to assess the controllability when choosing a control instrument. The second one is the differences of decision spaces of human and machine when both of them try to control an external device. To fill the gaps in these two aspects, there is a need to design an additional functional module that is able to translate the commands issued by human into high-frequency control commands that can be understood by machines. These two aspects has not been investigated thoroughly in literatures.</p><p dir="ltr">This study focuses on training, detecting, and using humans’ intents to control intelligent machines. It uses brain signals which will be trained and detected in form of Electroencephalography (EEG), brain signals will be used to extract and classify human intents. A selected instrument, Emotiv Epoc X, is used for pattern training and recognition based on its controllability and features among other instruments. A functional module is then developed to bridge the gap of frequency differences between human intents and motion commands of machine. A selected robot, TinkerKit Braccio, is then used to illustrate the feasibility of the developed module through fully controlling the robotic arm using human’s intents solely.</p><p dir="ltr">Multiple experiments were done on the prototyped system to prove the feasibility of the proposed model. The accuracy to send each command, and hence the accuracy of the system to extract each intent, exceeded 75%. Then, the feasibility of the proposed model was also tested through controlling the robot to follow pre-defined paths, which was obtained through designing a Graphical-User Interface (GUI). The accuracy of each experiment exceeded 90%, which validated the feasibility of the proposed control model.</p>
|
60 |
Within Reach: The Contribution of Dynamic Viewpoint to the Perception of Remote EnvironmentsMurphy, Taylor B. 12 December 2017 (has links)
No description available.
|
Page generated in 0.0373 seconds