601 |
Stratégies d'acquisition d'information pour la navigation autonome coopérative en environnement inconnu / Information acquisition strategy for autonomous cooperative navigation in unknown environmentBoumghar, Redouane 18 June 2013 (has links)
La principale difficulté pour la navigation autonome d'un robot dans un environnement partiellement ou totalement inconnu vient naturellement du manque d'informations sur l'environnement : on ne peut assurer que le chemin calculé soit aussi court et aussi sûr que le chemin calculé avec une connaissance parfaite de l'environnement. Les informations sur l'environnement sont obtenues au fur et à mesure de la navigation avec un degré variable de certitude qui dépend de l'environnement lui-même, des capacités de perception et la localisation du véhicule, et c'est l'acquisition des informations pertinentes pour la tâche de navigation qui conditionne sa bonne réalisation. Les travaux proposés sont réalisés dans ce contexte : ils définissent une stratégie de navigation qui est basée sur la détermination des zones où l'information est nécessaire au robot pour atteindre le but. / The main difficulty of autonomous navigation of a mobile robot in a partially comes from the lack of information about the environment. One can not assure the calculated navigation path is as short and as safe as the path calculated if we had all the necessary information on the environment. Information is gathered along the moves of the mobile robot with a varying degree of certainty. This uncertainty come from the environment itself, the perception abilities and the localisation abilities of the robot. Only relevant information acquisitions can help a good execution of the navigation task.The proposed approach is realised in this context : it consists of a navigation strategy based on the determination of zones where information is necessary for the robot to rally its objective.
|
602 |
Contributions to the use of 3D lidars for autonomous navigation : calibration and qualitative localization / Contributions à l'exploitation de lidar 3D pour la navigation autonome : calibrage et localisation qualitativeMuhammad, Naveed 01 February 2012 (has links)
Afin de permettre une navigation autonome d'un robot dans un environnement, le robot doit être capable de percevoir son environnement. Dans la littérature, d'une manière générale, les robots perçoivent leur environnement en utilisant des capteurs de type sonars, cameras et lidar 2D. L'introduction de nouveaux capteurs, nommés lidar 3D, tels que le Velodyne HDL-64E S2, a permis aux robots d'acquérir plus rapidement des données 3D à partir de leur environnement. La première partie de cette thèse présente une technique pour la calibrage des capteurs lidar 3D. La technique est basée sur la comparaison des données lidar à un modèle de vérité de terrain afin d'estimer les valeurs optimales des paramètres de calibrage. La deuxième partie de la thèse présente une technique pour la localisation et la détection de fermeture de boucles pour les robots autonomes. La technique est basée sur l'extraction et l'indexation des signatures de petite-taille à partir de données lidar 3D. Les signatures sont basées sur les histogrammes de l'information de normales de surfaces locale extraite à partir des données lidar en exploitant la disposition des faisceaux laser dans le dispositif lidar / In order to autonomously navigate in an environment, a robot has to perceive its environment correctly. Rich perception information from the environment enables the robot to perform tasks like avoiding obstacles, building terrain maps, and localizing itself. Classically, outdoor robots have perceived their environment using vision or 2D lidar sensors. The introduction of novel 3D lidar sensors such as the Velodyne device has enabled the robots to rapidly acquire rich 3D data about their surroundings. These novel sensors call for the development of techniques that efficiently exploit their capabilities for autonomous navigation.The first part of this thesis presents a technique for the calibration of 3D lidar devices. The calibration technique is based on the comparison of acquired 3D lidar data to a ground truth model in order to estimate the optimal values of the calibration parameters. The second part of the thesis presents a technique for qualitative localization and loop closure detection for autonomous mobile robots, by extracting and indexing small-sized signatures from 3D lidar data. The signatures are based on histograms of local surface normal information that is efficiently extracted from the lidar data. Experimental results illustrate the developments throughout the manuscript
|
603 |
Planification de mouvement pour la manipulation d'objets sous contraintes d'interaction homme-robot / Motion planning for object manipulation under human-robot interaction constraintsMainprice, Jim 17 December 2012 (has links)
Un robot agit sur son environnement par le mouvement, sa capacité à planifier ses mouvements est donc une composante essentielle de son autonomie. L'objectif de cette thèse est concevoir des méthodes algorithmiques performantes permettant le calcul automatique de trajectoires pour des systèmes robotiques complexes dans le cadre de la robotique d'assistance. Les systèmes considérés qui ont pour vocation de servir l'homme et de l'accompagner dans des tâches du quotidien doivent tenir compte de la sécurité et du bien-être de l'homme. Pour cela, les mouvements du robot doivent être générés en considérant explicitement le partenaire humain raisonant sur un modèle du comportement social de l'homme, de ses capacités et de ses limites afin de produire un comportement synergique optimal.Dans cette thèse nous étendons les travaux pionniers menés au LAAS dans ce domaine afin de produire des mouvements considérant l’homme de manière explicite dans des environnements encombrés. Des algorithmes d’exploration de l’espace des configurations par échantillonnage aléatoire sont combinés à des algorithmes d’optimisation de trajectoire afin de produire des mouvements sûrs et agréables. Nous proposons dans un deuxième temps un planificateur de tâche d’échange d’objet prenant en compte la mobilité du receveur humain permettant ainsi de partager l’effort lors du transfert. La pertinence de cette approche a été étudiée dans une étude utilisateur. Finalement, nous présentons une architecture logicielle qui permet de prendre en compte l’homme de manière dynamique lors de la réalisation de tâches de manipulation interactive / A robot act upon its environment through motion, the ability to plan its movements is therefore an essential component of its autonomy. The objective of this thesis is to design algorithmic methods to perform automatic trajectory computation for complex robotic systems in the context of assistive robotics. This emerging field of autonomous robotics applications brings new constraints and new challenges. Such systems that are designed to serve humans and to help in daily tasks must consider the safety and well-being of the surrounding humans. To do this, the robot's motions must be generated by considering the human partner explicitly. For comfort and efficiency, the robot must take into account a model of human social behavior, capabilities and limitations to produce an optimal synergistic behavior.In this thesis we extend to cluttered environments the pioneering work that has been conducted at LAAS in this field. Algorithms that explore the configuration space by random sampling are combined with trajectory optimization algorithms to produce safe and human aware motions. Secondly we propose a planner for object handover taking into account the mobility of the human recipient allowing to share the effort during the transfer. The relevance of this approach has been studied in a user study. Finally, we present a software architecture developed in collaboration with a partner of the European project Dexmart that allows to take dynamically into account humans during the execution of interactive manipulation tasks
|
604 |
Decisional issues during human-robot joint action / Processus décisionnels lors d'action conjointe homme-robotDevin, Sandra 03 November 2017 (has links)
Les robots sont les futurs compagnons et équipiers de demain. Que ce soit pour aider les personnes âgées ou handicapées dans leurs vies de tous les jours ou pour réaliser des tâches répétitives ou dangereuses, les robots apparaîtront petit à petit dans notre environnement. Cependant, nous sommes encore loin d'un vrai robot autonome, qui agirait de manière naturelle, efficace et sécurisée avec l'homme. Afin de doter le robot de la capacité d'agir naturellement avec l'homme, il est important d'étudier dans un premier temps comment les hommes agissent entre eux. Cette thèse commence donc par un état de l'art sur l'action conjointe en psychologie et philosophie avant d'aborder la mise en application des principes tirés de cette étude à l'action conjointe homme-robot. Nous décrirons ensuite le module de supervision pour l'interaction homme-robot développé durant la thèse. Une partie des travaux présentés dans cette thèse porte sur la gestion de ce que l'on appelle un plan partagé. Ici un plan partagé est une séquence d'actions partiellement ordonnées à effectuer par l'homme et/ou le robot afin d'atteindre un but donné. Dans un premier temps, nous présenterons comment le robot estime l'état des connaissances des hommes avec qui il collabore concernant le plan partagé (appelées états mentaux) et les prend en compte pendant l'exécution du plan. Cela permet au robot de communiquer de manière pertinente sur les potentielles divergences entre ses croyances et celles des hommes. Puis, dans un second temps, nous présenterons l'abstraction de ces plan partagés et le report de certaines décisions. En effet, dans les précédents travaux, le robot prenait en avance toutes les décisions concernant le plan partagé (qui va effectuer quelle action, quels objets utiliser...) ce qui pouvait être contraignant et perçu comme non naturel par l'homme lors de l'exécution car cela pouvait lui imposer une solution par rapport à une autre. Ces travaux vise à permettre au robot d'identifier quelles décisions peuvent être reportées à l'exécution et de gérer leur résolutions suivant le comportement de l'homme afin d'obtenir un comportement du robot plus fluide et naturel. Le système complet de gestions des plan partagés à été évalué en simulation et en situation réelle lors d'une étude utilisateur. Par la suite, nous présenterons nos travaux portant sur la communication non-verbale nécessaire lors de de l'action conjointe homme-robot. Ces travaux sont ici focalisés sur l'usage de la tête du robot, cette dernière permettant de transmettre des informations concernant ce que fait le robot et ce qu'il comprend de ce que fait l'homme, ainsi que des signaux de coordination. Finalement, il sera présenté comment coupler planification et apprentissage afin de permettre au robot d'être plus efficace lors de sa prise de décision. L'idée, inspirée par des études de neurosciences, est de limiter l'utilisation de la planification (adaptée au contexte de l'interaction homme-robot mais coûteuse) en laissant la main au module d'apprentissage lorsque le robot se trouve en situation "connue". Les premiers résultats obtenus démontrent sur le principe l'efficacité de la solution proposée. / In the future, robots will become our companions and co-workers. They will gradually appear in our environment, to help elderly or disabled people or to perform repetitive or unsafe tasks. However, we are still far from a real autonomous robot, which would be able to act in a natural, efficient and secure manner with humans. To endow robots with the capacity to act naturally with human, it is important to study, first, how humans act together. Consequently, this manuscript starts with a state of the art on joint action in psychology and philosophy before presenting the implementation of the principles gained from this study to human-robot joint action. We will then describe the supervision module for human-robot interaction developed during the thesis. Part of the work presented in this manuscript concerns the management of what we call a shared plan. Here, a shared plan is a a partially ordered set of actions to be performed by humans and/or the robot for the purpose of achieving a given goal. First, we present how the robot estimates the beliefs of its humans partners concerning the shared plan (called mental states) and how it takes these mental states into account during shared plan execution. It allows it to be able to communicate in a clever way about the potential divergent beliefs between the robot and the humans knowledge. Second, we present the abstraction of the shared plans and the postponing of some decisions. Indeed, in previous works, the robot took all decisions at planning time (who should perform which action, which object to use…) which could be perceived as unnatural by the human during execution as it imposes a solution preferentially to any other. This work allows us to endow the robot with the capacity to identify which decisions can be postponed to execution time and to take the right decision according to the human behavior in order to get a fluent and natural robot behavior. The complete system of shared plans management has been evaluated in simulation and with real robots in the context of a user study. Thereafter, we present our work concerning the non-verbal communication needed for human-robot joint action. This work is here focused on how to manage the robot head, which allows to transmit information concerning what the robot's activity and what it understands of the human actions, as well as coordination signals. Finally, we present how to mix planning and learning in order to allow the robot to be more efficient during its decision process. The idea, inspired from neuroscience studies, is to limit the use of planning (which is adapted to the human-aware context but costly) by letting the learning module made the choices when the robot is in a "known" situation. The first obtained results demonstrate the potential interest of the proposed solution.
|
605 |
Využití opakovaně posilovaného učení pro řízení čtyřnohého robotu / Using of Reinforcement Learning for Four Legged Robot ControlOndroušek, Vít January 2011 (has links)
The Ph.D. thesis is focused on using the reinforcement learning for four legged robot control. The main aim is to create an adaptive control system of the walking robot, which will be able to plan the walking gait through Q-learning algorithm. This aim is achieved using the design of the complex three layered architecture, which is based on the DEDS paradigm. The small set of elementary reactive behaviors forms the basis of proposed solution. The set of composite control laws is designed using simultaneous activations of these behaviors. Both types of controllers are able to operate on the plain terrain as well as on the rugged one. The model of all possible behaviors, that can be achieved using activations of mentioned controllers, is designed using an appropriate discretization of the continuous state space. This model is used by the Q-learning algorithm for finding the optimal strategies of robot control. The capabilities of the control unit are shown on solving three complex tasks: rotation of the robot, walking of the robot in the straight line and the walking on the inclined plane. These tasks are solved using the spatial dynamic simulations of the four legged robot with three degrees of freedom on each leg. Resulting walking gaits are evaluated using the quantitative standardized indicators. The video files, which show acting of elementary and composite controllers as well as the resulting walking gaits of the robot, are integral part of this thesis.
|
606 |
Improvement of Sound Source Localization for a Binaural Robot of Spherical Head with Pinnae / 耳介付球状頭部を持つ両耳聴ロボットのための音源定位の高性能化Kim, Ui-Hyun 24 September 2013 (has links)
京都大学 / 0048 / 新制・課程博士 / 博士(情報学) / 甲第17928号 / 情博第510号 / 新制||情||90(附属図書館) / 30748 / 京都大学大学院情報学研究科知能情報学専攻 / (主査)教授 奥乃 博, 教授 河原 達也, 教授 山本 章博 / 学位規則第4条第1項該当 / Doctor of Informatics / Kyoto University / DFAM
|
607 |
Studies on underlying mechanism of interlimb coordination of legged robots using nonlinear oscillators / 非線形振動子を用いた脚ロボットの肢間協調メカニズムに関する研究Fujiki, Soichirou 23 March 2015 (has links)
京都大学 / 0048 / 新制・課程博士 / 博士(工学) / 甲第18946号 / 工博第3988号 / 新制||工||1614(附属図書館) / 31897 / 京都大学大学院工学研究科航空宇宙工学専攻 / (主査)教授 泉田 啓, 教授 藤本 健治, 教授 松野 文俊 / 学位規則第4条第1項該当 / Doctor of Philosophy (Engineering) / Kyoto University / DFAM
|
608 |
Distance-Scaled Human-Robot Interaction with Hybrid CamerasPai, Abhishek 24 October 2019 (has links)
No description available.
|
609 |
Adaptation of a group to various environments through local interactions between individuals based on estimated global information / 個体の大域的情報推定に基づいた局所相互作用による集団の環境適応Hayakawa, Tomohiro 23 September 2020 (has links)
付記する学位プログラム名: グローバル生存学大学院連携プログラム / 京都大学 / 0048 / 新制・課程博士 / 博士(工学) / 甲第22771号 / 工博第4770号 / 新制||工||1746(附属図書館) / 京都大学大学院工学研究科機械理工学専攻 / (主査)教授 松野 文俊, 教授 椹木 哲夫, 教授 泉田 啓 / 学位規則第4条第1項該当 / Doctor of Philosophy (Engineering) / Kyoto University / DFAM
|
610 |
Safety system design in human-robot collaboration : Implementation for a demonstrator case in compliance with ISO/TS 15066Schaffert, Carolin January 2019 (has links)
A close collaboration between humans and robots is one approach to achieve flexible production flows and a high degree of automation at the same time. In human-robot collaboration, both entities work alongside each other in a fenceless, shared environment. These workstations combine human flexibility, tactile sense and intelligence with robotic speed, endurance, and accuracy. This leads to improved ergonomic working conditions for the operator, better quality and higher efficiency. However, the widespread adoption of human-robot collaboration is limited by the current safety legislation. Robots are powerful machines and without spatial separation to the operator the risks drastically increase. The technical specification ISO/TS 15066 serves as a guideline for collaborative operations and supplements the international standard ISO 10218 for industrial robots. Because ISO/TS 15066 represents the first draft for a coming standard, companies have to gain knowledge in applying ISO/TS 15066. Currently, the guideline prohibits a collision with the head in transient contact. In this thesis work, a safety system is designed which is in compliance with ISO/TS 15066 and where certified safety technologies are used. Four theoretical safety system designs with a laser scanner as a presence sensing device and a collaborative robot, the KUKA lbr iiwa, are proposed. The system either stops the robot motion, reduces the robot’s speed and then triggers a stop or only activates a stop after a collision between the robot and the human occurred. In system 3 the size of the stop zone is decreased by combining the speed and separation monitoring principle with the power- and force-limiting safeguarding mode. The safety zones are static and are calculated according to the protective separation distance in ISO/TS 15066. A risk assessment is performed to reduce all risks to an acceptable level and lead to the final safety system design after three iterations. As a proof of concept the final safety system design is implemented for a demonstrator in a laboratory environment at Scania. With a feasibility study, the implementation differences between theory and praxis for the four proposed designs are identified and a feasible safety system behavior is developed. The robot reaction is realized through the safety configuration of the robot. There three ESM states are defined to use the internal safety functions of the robot and to integrate the laser scanner signal. The laser scanner is connected as a digital input to the discrete safety interface of the robot controller. To sum up, this thesis work describes the safety system design with all implementation details. / Ett nära samarbete mellan människor och robotar är ett sätt att uppnå flexibla produktionsflöden och en hög grad av automatisering samtidigt. I människa-robotsamarbeten arbetar båda enheterna tillsammans med varandra i en gemensam miljö utan skyddsstaket. Dessa arbetsstationer kombinerar mänsklig flexibilitet, taktil känsla och intelligens med robothastighet, uthållighet och noggrannhet. Detta leder till förbättrade ergonomiska arbetsförhållanden för operatören, bättre kvalitet och högre effektivitet. Det breda antagandet av människarobotsamarbeten är emellertid begränsat av den nuvarande säkerhetslagstiftningen. Robotar är kraftfulla maskiner och utan rymdseparation till operatören riskerna drastiskt ökar. Den tekniska specifikationen ISO / TS 15066 fungerar som riktlinje för samverkan och kompletterar den internationella standarden ISO 10218 för industrirobotar. Eftersom ISO / TS 15066 representerar det första utkastet för en kommande standard, måste företagen få kunskap om att tillämpa ISO / TS 15066. För närvarande förbjuder riktlinjen en kollision med huvudet i övergående kontakt. I detta avhandlingar är ett säkerhetssystem utformat som överensstämmer med ISO / TS 15066 och där certifierad säkerhetsteknik används. Fyra teoretiska säkerhetssystemdesigner med en laserskanner som närvarosensor och en samarbetsrobot, KUKA lbr iiwa, föreslås. Systemet stoppar antingen robotrörelsen, reducerar robotens hastighet och triggar sedan ett stopp eller aktiverar bara ett stopp efter en kollision mellan roboten och människan inträffade. I system 3 minskas storleken på stoppzonen genom att kombinera hastighets- och separationsövervakningsprincipen med det kraft- och kraftbegränsande skyddsläget. Säkerhetszoner är statiska och beräknas enligt skyddsavståndet i ISO / TS 15066. En riskbedömning görs för att minska alla risker till en acceptabel nivå och leda till den slutliga säkerhetssystemdesignen efter tre iterationer. Som ett bevis på konceptet är den slutliga säkerhetssystemdesignen implementerad för en demonstrant i en laboratoriemiljö hos Scania. Genom en genomförbarhetsstudie identifieras implementeringsskillnaderna mellan teori och praxis för de fyra föreslagna mönster och ett genomförbart säkerhetssystem beteende utvecklas. Robotreaktionen realiseras genom robotens säkerhetskonfiguration. Där definieras tre ESM-tillstånd för att använda robotens interna säkerhetsfunktioner och för att integrera laserscannersignalen. Laserskannern är ansluten som en digital ingång till robotkontrollens diskreta säkerhetsgränssnitt. Sammanfattningsvis beskriver detta avhandlingar säkerhetssystemdesignen med alla implementeringsdetaljer.
|
Page generated in 0.0543 seconds