601 |
Implementering av Human Robot Collaboration i line feedingen i fordonsindustrins monteringprocess : En fallstudie på Scania CV AB Oskarshamn / Implementation of Human Robot Collaboration in line feeding in automotive industry assembly process : A case study at Scania CV AB OskarshamnAnderfors, Tilly, Bjuringer, Maja January 2022 (has links)
Background: For several decades companies have had their focus on automation and to make the processes more effective. Today's companies are thinking about how to streamline and automate processes with upcoming new technology. A new way to automate processes is to use automation in combination with employees, this can be done with the help of HRC. At the moment HRC is something that Scania CV AB would like to have in order to be able to automate and improve its working methods. Scania CV AB want to investigate how HRC can be used most effectively as a step in their automation and digitization roadmap. Research questions: 1. What are the advantages, limitations and requirements for human robot collaboration to be able to be implemented in line feeding in the automotive industry's assembly process? 2. In which activity at Scania CV AB Oskarshamn truck cab assembly factory in line feeding could human robot collaboration be implemented and why? 3. What can an implementation process look like for human robot collaboration in the selected activity at Scania Oskarshamn's truck cab assembly factory? Purpose: The purpose of the work has been to discuss the advantages limitations and requirements of implementing human robot collaboration in line feeding in the automotive industry. Furthermore, a decision basis has been produced in the work to implement human robot collaboration as a step in that Scania CV AB wants to automate and improve its working methods. With the help of the decision basis, a suitable activity has emerged. An implementation model has been created for the selected activity at Scania CV AB Oskarshamn. Implementation: This work is a case study at Scania CV AB in Oskarshamn. The authors have used goal-directed selection and snowball selection where semi-structured and unstructured interviews have been conducted. The work has used the deductive approach and used the qualitative research as method Conclusion: In this case study, three research questions have been analyzed. The first research question is aimed at the entire automotive industry, while the other two are aimed at Scania CV AB, however, all three research questions can provide value to stakeholders both internally at Scania CV AB and externally. The first research question has discussed the advantages, limitations and requirements for implementing HRC. Furthermore, in connection with the work’s second research question, a decision basis has been produced for the classification of suitable articles to be handled by HRC. Finally, the third research question has led to the development of an implementation model for activity for the selected article. Contributions/value: This work has contributed to both theoretical and contributions in the form of the authors having developed an implementation model that can be used by both Scania CV AB and other companies in the automotive industry. It also contributes by giving stakeholders a broader perspective, including benefits, limitations and requirements that should be borne in mind when implementing HRC.
|
602 |
Tactile Modality during Socio-Emotional Interactions : from Humans to Robots / Modalité Tactile lors d’Interactions Socio-Émotionnelles : de l’Humain au RobotOrefice, Pierre-Henri 10 October 2018 (has links)
Aujourd'hui, les robots sont de plus en plus présents dans la vie quotidienne. L’étude et le développement de stratégies d'interaction sociale et émotionnelle constitue un point clé de leur insertion dans notre espace social. Ces derniers années, beaucoup de recherches se sont intéressées à la communication homme-robot en exploitant les expressions faciales, posturales ou encore vocales, mais très peu de recherches se sont intéressées à l’interaction physique via le toucher. Cependant, des recherches récentes dans le domaine de la psychologie et des interfaces homme-machine (IHM) ont montré le rôle de la modalité haptique et plus particulièrement tactile dans la perception des émotions et de leurs différentes dimensions (par exemple valence, activation, dominance). L’objectif de ce projet est d’exploiter cette modalité sensorielle dans l'interaction affective homme-robot. Sur la base du robot humanoïde MEKA, un ensemble de capteurs tactiles et physiologiques seront étudiés et développés afin de sensibiliser certaines régions de son corps (ex. bras, épaule, main) et détecter l’état émotionnel de l’utilisateur. Par la suite, une série d’études seront menées afin d'analyser le comportement des utilisateurs dans des situations d’interaction affective avec le robot. Les résultats de ces études nous permettront d’identifier des comportements affectifs haptiques types qui seront utilisés pour modéliser le comportement du robot dans des contextes d’interactions sociales. / Today, robots are more and more present in everyday life. The study and the development of strategies of social and emotional interaction constitutes a key point of their insertion in our social space. The latter years, many researches were carried out in the man-robot communication by exploiting the facial expressions, posturals or still vocal, but very few focused on the physical interaction via the touch. However, recent researches in the field of the psychology and the human-machine interfaces (HMI) showed the role of the haptic modality and more particularly tactile in the perception of the feelings and their various dimensions (for example valence, activation, dominance). The objective of this project is to exploit this sensory modality in the emotional man-robot interaction. On the basis of the robot humanoid MEKA, a set of tactile and physiological sensors will be studied and developed to make sensitive certain regions of its body (eg arm, shoulder, hand) and to detect the emotional state of the user. Afterward, a series of studies will be led to analyze the behavior of the users in situations of emotional interaction with the robot. The results of these studies will allow us to identify typical haptic emotional behavior which will be used to model the behavior of the robot in contexts of social interactions.
|
603 |
Stratégies d'acquisition d'information pour la navigation autonome coopérative en environnement inconnu / Information acquisition strategy for autonomous cooperative navigation in unknown environmentBoumghar, Redouane 18 June 2013 (has links)
La principale difficulté pour la navigation autonome d'un robot dans un environnement partiellement ou totalement inconnu vient naturellement du manque d'informations sur l'environnement : on ne peut assurer que le chemin calculé soit aussi court et aussi sûr que le chemin calculé avec une connaissance parfaite de l'environnement. Les informations sur l'environnement sont obtenues au fur et à mesure de la navigation avec un degré variable de certitude qui dépend de l'environnement lui-même, des capacités de perception et la localisation du véhicule, et c'est l'acquisition des informations pertinentes pour la tâche de navigation qui conditionne sa bonne réalisation. Les travaux proposés sont réalisés dans ce contexte : ils définissent une stratégie de navigation qui est basée sur la détermination des zones où l'information est nécessaire au robot pour atteindre le but. / The main difficulty of autonomous navigation of a mobile robot in a partially comes from the lack of information about the environment. One can not assure the calculated navigation path is as short and as safe as the path calculated if we had all the necessary information on the environment. Information is gathered along the moves of the mobile robot with a varying degree of certainty. This uncertainty come from the environment itself, the perception abilities and the localisation abilities of the robot. Only relevant information acquisitions can help a good execution of the navigation task.The proposed approach is realised in this context : it consists of a navigation strategy based on the determination of zones where information is necessary for the robot to rally its objective.
|
604 |
Contributions to the use of 3D lidars for autonomous navigation : calibration and qualitative localization / Contributions à l'exploitation de lidar 3D pour la navigation autonome : calibrage et localisation qualitativeMuhammad, Naveed 01 February 2012 (has links)
Afin de permettre une navigation autonome d'un robot dans un environnement, le robot doit être capable de percevoir son environnement. Dans la littérature, d'une manière générale, les robots perçoivent leur environnement en utilisant des capteurs de type sonars, cameras et lidar 2D. L'introduction de nouveaux capteurs, nommés lidar 3D, tels que le Velodyne HDL-64E S2, a permis aux robots d'acquérir plus rapidement des données 3D à partir de leur environnement. La première partie de cette thèse présente une technique pour la calibrage des capteurs lidar 3D. La technique est basée sur la comparaison des données lidar à un modèle de vérité de terrain afin d'estimer les valeurs optimales des paramètres de calibrage. La deuxième partie de la thèse présente une technique pour la localisation et la détection de fermeture de boucles pour les robots autonomes. La technique est basée sur l'extraction et l'indexation des signatures de petite-taille à partir de données lidar 3D. Les signatures sont basées sur les histogrammes de l'information de normales de surfaces locale extraite à partir des données lidar en exploitant la disposition des faisceaux laser dans le dispositif lidar / In order to autonomously navigate in an environment, a robot has to perceive its environment correctly. Rich perception information from the environment enables the robot to perform tasks like avoiding obstacles, building terrain maps, and localizing itself. Classically, outdoor robots have perceived their environment using vision or 2D lidar sensors. The introduction of novel 3D lidar sensors such as the Velodyne device has enabled the robots to rapidly acquire rich 3D data about their surroundings. These novel sensors call for the development of techniques that efficiently exploit their capabilities for autonomous navigation.The first part of this thesis presents a technique for the calibration of 3D lidar devices. The calibration technique is based on the comparison of acquired 3D lidar data to a ground truth model in order to estimate the optimal values of the calibration parameters. The second part of the thesis presents a technique for qualitative localization and loop closure detection for autonomous mobile robots, by extracting and indexing small-sized signatures from 3D lidar data. The signatures are based on histograms of local surface normal information that is efficiently extracted from the lidar data. Experimental results illustrate the developments throughout the manuscript
|
605 |
Planification de mouvement pour la manipulation d'objets sous contraintes d'interaction homme-robot / Motion planning for object manipulation under human-robot interaction constraintsMainprice, Jim 17 December 2012 (has links)
Un robot agit sur son environnement par le mouvement, sa capacité à planifier ses mouvements est donc une composante essentielle de son autonomie. L'objectif de cette thèse est concevoir des méthodes algorithmiques performantes permettant le calcul automatique de trajectoires pour des systèmes robotiques complexes dans le cadre de la robotique d'assistance. Les systèmes considérés qui ont pour vocation de servir l'homme et de l'accompagner dans des tâches du quotidien doivent tenir compte de la sécurité et du bien-être de l'homme. Pour cela, les mouvements du robot doivent être générés en considérant explicitement le partenaire humain raisonant sur un modèle du comportement social de l'homme, de ses capacités et de ses limites afin de produire un comportement synergique optimal.Dans cette thèse nous étendons les travaux pionniers menés au LAAS dans ce domaine afin de produire des mouvements considérant l’homme de manière explicite dans des environnements encombrés. Des algorithmes d’exploration de l’espace des configurations par échantillonnage aléatoire sont combinés à des algorithmes d’optimisation de trajectoire afin de produire des mouvements sûrs et agréables. Nous proposons dans un deuxième temps un planificateur de tâche d’échange d’objet prenant en compte la mobilité du receveur humain permettant ainsi de partager l’effort lors du transfert. La pertinence de cette approche a été étudiée dans une étude utilisateur. Finalement, nous présentons une architecture logicielle qui permet de prendre en compte l’homme de manière dynamique lors de la réalisation de tâches de manipulation interactive / A robot act upon its environment through motion, the ability to plan its movements is therefore an essential component of its autonomy. The objective of this thesis is to design algorithmic methods to perform automatic trajectory computation for complex robotic systems in the context of assistive robotics. This emerging field of autonomous robotics applications brings new constraints and new challenges. Such systems that are designed to serve humans and to help in daily tasks must consider the safety and well-being of the surrounding humans. To do this, the robot's motions must be generated by considering the human partner explicitly. For comfort and efficiency, the robot must take into account a model of human social behavior, capabilities and limitations to produce an optimal synergistic behavior.In this thesis we extend to cluttered environments the pioneering work that has been conducted at LAAS in this field. Algorithms that explore the configuration space by random sampling are combined with trajectory optimization algorithms to produce safe and human aware motions. Secondly we propose a planner for object handover taking into account the mobility of the human recipient allowing to share the effort during the transfer. The relevance of this approach has been studied in a user study. Finally, we present a software architecture developed in collaboration with a partner of the European project Dexmart that allows to take dynamically into account humans during the execution of interactive manipulation tasks
|
606 |
Decisional issues during human-robot joint action / Processus décisionnels lors d'action conjointe homme-robotDevin, Sandra 03 November 2017 (has links)
Les robots sont les futurs compagnons et équipiers de demain. Que ce soit pour aider les personnes âgées ou handicapées dans leurs vies de tous les jours ou pour réaliser des tâches répétitives ou dangereuses, les robots apparaîtront petit à petit dans notre environnement. Cependant, nous sommes encore loin d'un vrai robot autonome, qui agirait de manière naturelle, efficace et sécurisée avec l'homme. Afin de doter le robot de la capacité d'agir naturellement avec l'homme, il est important d'étudier dans un premier temps comment les hommes agissent entre eux. Cette thèse commence donc par un état de l'art sur l'action conjointe en psychologie et philosophie avant d'aborder la mise en application des principes tirés de cette étude à l'action conjointe homme-robot. Nous décrirons ensuite le module de supervision pour l'interaction homme-robot développé durant la thèse. Une partie des travaux présentés dans cette thèse porte sur la gestion de ce que l'on appelle un plan partagé. Ici un plan partagé est une séquence d'actions partiellement ordonnées à effectuer par l'homme et/ou le robot afin d'atteindre un but donné. Dans un premier temps, nous présenterons comment le robot estime l'état des connaissances des hommes avec qui il collabore concernant le plan partagé (appelées états mentaux) et les prend en compte pendant l'exécution du plan. Cela permet au robot de communiquer de manière pertinente sur les potentielles divergences entre ses croyances et celles des hommes. Puis, dans un second temps, nous présenterons l'abstraction de ces plan partagés et le report de certaines décisions. En effet, dans les précédents travaux, le robot prenait en avance toutes les décisions concernant le plan partagé (qui va effectuer quelle action, quels objets utiliser...) ce qui pouvait être contraignant et perçu comme non naturel par l'homme lors de l'exécution car cela pouvait lui imposer une solution par rapport à une autre. Ces travaux vise à permettre au robot d'identifier quelles décisions peuvent être reportées à l'exécution et de gérer leur résolutions suivant le comportement de l'homme afin d'obtenir un comportement du robot plus fluide et naturel. Le système complet de gestions des plan partagés à été évalué en simulation et en situation réelle lors d'une étude utilisateur. Par la suite, nous présenterons nos travaux portant sur la communication non-verbale nécessaire lors de de l'action conjointe homme-robot. Ces travaux sont ici focalisés sur l'usage de la tête du robot, cette dernière permettant de transmettre des informations concernant ce que fait le robot et ce qu'il comprend de ce que fait l'homme, ainsi que des signaux de coordination. Finalement, il sera présenté comment coupler planification et apprentissage afin de permettre au robot d'être plus efficace lors de sa prise de décision. L'idée, inspirée par des études de neurosciences, est de limiter l'utilisation de la planification (adaptée au contexte de l'interaction homme-robot mais coûteuse) en laissant la main au module d'apprentissage lorsque le robot se trouve en situation "connue". Les premiers résultats obtenus démontrent sur le principe l'efficacité de la solution proposée. / In the future, robots will become our companions and co-workers. They will gradually appear in our environment, to help elderly or disabled people or to perform repetitive or unsafe tasks. However, we are still far from a real autonomous robot, which would be able to act in a natural, efficient and secure manner with humans. To endow robots with the capacity to act naturally with human, it is important to study, first, how humans act together. Consequently, this manuscript starts with a state of the art on joint action in psychology and philosophy before presenting the implementation of the principles gained from this study to human-robot joint action. We will then describe the supervision module for human-robot interaction developed during the thesis. Part of the work presented in this manuscript concerns the management of what we call a shared plan. Here, a shared plan is a a partially ordered set of actions to be performed by humans and/or the robot for the purpose of achieving a given goal. First, we present how the robot estimates the beliefs of its humans partners concerning the shared plan (called mental states) and how it takes these mental states into account during shared plan execution. It allows it to be able to communicate in a clever way about the potential divergent beliefs between the robot and the humans knowledge. Second, we present the abstraction of the shared plans and the postponing of some decisions. Indeed, in previous works, the robot took all decisions at planning time (who should perform which action, which object to use…) which could be perceived as unnatural by the human during execution as it imposes a solution preferentially to any other. This work allows us to endow the robot with the capacity to identify which decisions can be postponed to execution time and to take the right decision according to the human behavior in order to get a fluent and natural robot behavior. The complete system of shared plans management has been evaluated in simulation and with real robots in the context of a user study. Thereafter, we present our work concerning the non-verbal communication needed for human-robot joint action. This work is here focused on how to manage the robot head, which allows to transmit information concerning what the robot's activity and what it understands of the human actions, as well as coordination signals. Finally, we present how to mix planning and learning in order to allow the robot to be more efficient during its decision process. The idea, inspired from neuroscience studies, is to limit the use of planning (which is adapted to the human-aware context but costly) by letting the learning module made the choices when the robot is in a "known" situation. The first obtained results demonstrate the potential interest of the proposed solution.
|
607 |
Využití opakovaně posilovaného učení pro řízení čtyřnohého robotu / Using of Reinforcement Learning for Four Legged Robot ControlOndroušek, Vít January 2011 (has links)
The Ph.D. thesis is focused on using the reinforcement learning for four legged robot control. The main aim is to create an adaptive control system of the walking robot, which will be able to plan the walking gait through Q-learning algorithm. This aim is achieved using the design of the complex three layered architecture, which is based on the DEDS paradigm. The small set of elementary reactive behaviors forms the basis of proposed solution. The set of composite control laws is designed using simultaneous activations of these behaviors. Both types of controllers are able to operate on the plain terrain as well as on the rugged one. The model of all possible behaviors, that can be achieved using activations of mentioned controllers, is designed using an appropriate discretization of the continuous state space. This model is used by the Q-learning algorithm for finding the optimal strategies of robot control. The capabilities of the control unit are shown on solving three complex tasks: rotation of the robot, walking of the robot in the straight line and the walking on the inclined plane. These tasks are solved using the spatial dynamic simulations of the four legged robot with three degrees of freedom on each leg. Resulting walking gaits are evaluated using the quantitative standardized indicators. The video files, which show acting of elementary and composite controllers as well as the resulting walking gaits of the robot, are integral part of this thesis.
|
608 |
Improvement of Sound Source Localization for a Binaural Robot of Spherical Head with Pinnae / 耳介付球状頭部を持つ両耳聴ロボットのための音源定位の高性能化Kim, Ui-Hyun 24 September 2013 (has links)
京都大学 / 0048 / 新制・課程博士 / 博士(情報学) / 甲第17928号 / 情博第510号 / 新制||情||90(附属図書館) / 30748 / 京都大学大学院情報学研究科知能情報学専攻 / (主査)教授 奥乃 博, 教授 河原 達也, 教授 山本 章博 / 学位規則第4条第1項該当 / Doctor of Informatics / Kyoto University / DFAM
|
609 |
Studies on underlying mechanism of interlimb coordination of legged robots using nonlinear oscillators / 非線形振動子を用いた脚ロボットの肢間協調メカニズムに関する研究Fujiki, Soichirou 23 March 2015 (has links)
京都大学 / 0048 / 新制・課程博士 / 博士(工学) / 甲第18946号 / 工博第3988号 / 新制||工||1614(附属図書館) / 31897 / 京都大学大学院工学研究科航空宇宙工学専攻 / (主査)教授 泉田 啓, 教授 藤本 健治, 教授 松野 文俊 / 学位規則第4条第1項該当 / Doctor of Philosophy (Engineering) / Kyoto University / DFAM
|
610 |
Distance-Scaled Human-Robot Interaction with Hybrid CamerasPai, Abhishek 24 October 2019 (has links)
No description available.
|
Page generated in 0.046 seconds