Spelling suggestions: "subject:"humanoidrobot"" "subject:"humanrobot""
1 |
Diseño e implementación de memoria de largo plazo para robots de servicioPavez Bahamondes, Matías Fernando January 2018 (has links)
Memoria para optar al título de Ingeniero Civil Eléctrico / Memoria para optar al título de Ingeniero Civil en Computación / El objetivo de este trabajo de título es el diseño e implementación de un sistema de
memoria episódica de largo plazo para robots de servicio domésticos. Además, el sistema
debe considerar componentes emocionales y ser integrado en el software del robot Bender,
perteneciente al Laboratorio de Robótica del Departamento de Ingeniería Eléctrica de la
Universidad de Chile.
Un sistema de estas características es esencial para mejorar el desempeño de un robot
doméstico, especialmente en el ámbito de la interacción humano-robot. Sin embargo, tras la
revisión del estado del arte, se encuentran pocos trabajos relacionados y que aún no existe
un consenso en el tema.
El sistema es diseñado para cumplir con un conjunto de requerimientos episódicos mínimos
para este tipo de memorias. Además, el diseño es agnóstico del robot objetivo, permitiendo
la definición de estructuras de datos genéricas para la representación episódica, las que son
manejadas por un sistema de plugins. De esta forma, el sistema puede ser integrado en otras
plataformas robóticas basadas en Robot Operating System (ROS).
El sistema implementado es capaz de recolectar episodios automáticamente desde las má-
quinas de estado que definen el comportamiento del robot. Utiliza la base de datos MongoDB
para el almacenamiento de episodios y está programado en C ++ y Python, solo utilizando
paquetes estándar en ROS. Además, el sistema provee una API ROS capaz de responder
consultas sobre estos episodios, las que permiten realizar búsquedas mediante combinaciones
de condiciones lógicas.
La implementación es evaluada de manera cuantitativa, mediante experimentos de escala-
bilidad y eficiencia. Los resultados indican que el sistema se adapta al caso de uso esperado
para el robot Bender. Sin embargo, la formulación de consultas al sistema tiene un alto im-
pacto en su desempeño. Por esto, es importante seleccionar adecuadamente las operaciones,
para que el uso de recursos no comprometa la interacción humano-robot. Desde otro enfoque,
la integración del sistema LTM en Bender es validada mediante sesiones de demostración,
donde el robot genera memorias sobre los humanos con quien interactúa.
Se concluye que el sistema cumple con la mayoría de los requerimientos establecidos,
teniendo que acotar el proyecto para dejar algunos aspectos como trabajo futuro. Particular-
mente, queda propuesta la implementación de un sistema emocional para el robot.
|
2 |
Human-help in automated planning under uncertainty / Ajuda humana em planejamento automatizado sob incertezaFranch, Ignasi Andrés 21 September 2018 (has links)
Planning is the sub-area of artificial intelligence that studies the process of selecting actions to lead an agent, e.g. a robot or a softbot, to a goal state. In many realistic scenarios, any choice of actions can lead the robot into a dead-end state, that is, a state from which the goal cannot be reached. In such cases, the robot can, pro-actively, resort to human help in order to reach the goal, an approach called symbiotic autonomy. In this work, we propose two different approaches to tackle this problem: (I) contingent planning, where the initial state is partially observable, configuring a belief state, and the outcomes of the robot actions are non-deterministic; and (II) probabilistic planning, where the initial state may be partially or totally observable and the actions have probabilistic outcomes. In both approaches, the human help is considered a scarce resource that should be used only when necessary. In contingent planning, the problem is to find a policy (a function mapping belief states into actions) that: (i) guarantees the agent will always reach the goal (strong policy); (ii) guarantees that the agent will eventually reach the goal (strong cyclic policy), or (iii) does not guarantee achieving the goal (weak policy). In this scenario, we propose a contingent planning system that considers human help to transform weak policies into strong (cyclic) policies. To do so, two types of human help are included: (i) human actions that modify states and/or belief states; and (ii) human observations that modify belief states. In probabilistic planning, the problem is to find a policy (a function mapping between world states and actions) that can be one of these two types: a proper policy, where the agent has probability 1 of reaching the goal; or an improper policy, in the case of unavoidable dead-ends. In general, the goal of the agent is to find a policy that minimizes the expected accumulated cost of the actions while maximizes the probability of reaching the goal. In this scenario, this work proposes probabilistic planners that consider human help to transform improper policies into proper policies however, considering two new (alternative) criteria: either to minimize the probability of using human actions or to minimize the expected number of human actions. Furthermore, we show that optimal policies under these criteria can be efficiently computed either by increasing human action costs or given a penalty when a human help is used. Solutions proposed in both scenarios, contingent planning and probabilistic planning with human help, were evaluated over a collection of planning problems with dead-ends. The results show that: (i) all generated policies (strong (cyclic) or proper) include human help only when necessary; and (ii) we were able to find policies for contingent planning problems with up to 10^15000 belief states and for probabilistic planning problems with more than 3*10^18 physical states. / Planejamento é a subárea de Inteligência Artificial que estuda o processo de selecionar ações que levam um agente, por exemplo um robô, de um estado inicial a um estado meta. Em muitos cenários realistas, qualquer escolha de ações pode levar o robô para um estado que é um beco-sem-saída, isto é, um estado a partir do qual a meta não pode ser alcançada. Nestes casos, o robô pode, pró-ativamente, pedir ajuda humana para alcançar a meta, uma abordagem chamada autonomia simbiótica. Neste trabalho, propomos duas abordagens diferentes para tratar este problema: (I) planejamento contingente, em que o estado inicial é parcialmente observável, configurando um estado de crença, e existe não-determinismo nos resultados das ações; e (II) planejamento probabilístico, em que o estado inicial é totalmente observável e as ações tem efeitos probabilísticos. Em ambas abordagens a ajuda humana é considerada um recurso escasso e deve ser usada somente quando estritamente necessária. No planejamento contingente, o problema é encontrar uma política (mapeamento entre estados de crença e ações) com: (i) garantia de alcançar a meta (política forte); (ii) garantia de eventualmente alcançar a meta (política forte-cíclica), ou (iii) sem garantia de alcançar a meta (política fraca). Neste cenário, uma das contribuições deste trabalho é propor sistemas de planejamento contingente que considerem ajuda humana para transformar políticas fracas em políticas fortes (cíclicas). Para isso, incluímos ajuda humana de dois tipos: (i) ações que modificam estados do mundo e/ou estados de crença; e (ii) observações que modificam estados de crenças. Em planejamento probabilístico, o problema é encontrar uma política (mapeamento entre estados do mundo e ações) que pode ser de dois tipos: política própria, na qual o agente tem probabilidade 1 de alcançar a meta; ou política imprópria, caso exista um beco-sem-saída inevitável. O objetivo do agente é, em geral, encontrar uma política que minimize o custo esperado acumulado das ações enquanto maximize a probabilidade de alcançar a meta. Neste cenário, este trabalho propõe sistemas de planejamento probabilístico que considerem ajuda humana para transformar políticas impróprias em políticas próprias, porém considerando dois novos critérios: minimizar a probabilidade de usar ações do humano e minimizar o número esperado de ações do humano. Mostramos ainda que políticas ótimas sob esses novos critérios podem ser computadas de maneira eficiente considerando que ações humanas possuem um custo alto ou penalizando o agente ao pedir ajuda humana. Soluções propostas em ambos cenários, planejamento contingente e planejamento probabilístico com ajuda humana, foram empiricamente avaliadas sobre um conjunto de problemas de planejamento com becos-sem-saida. Os resultados mostram que: (i) todas as políticas geradas (fortes (cíclicas) ou próprias) incluem ajuda humana somente quando necessária; e (ii) foram encontradas políticas para problemas de planejamento contingente com até 10^15000 estados de crença e para problemas de planejamento probabilístico com até 3*10^18 estados do mundo.
|
3 |
Understanding the Link Between Robots Perspective Taking, and Humans Formulating a Mental Model and Exhibiting Prosocial Behaviour / Förstå Kopplingen Mellan Robotar som Tar Perspektiv och Människor som Formulerar en Mental Modell och Uppvisar ett Prosocialt Beteende : FörstudieTiago Matias Marques De Almeida, João January 2022 (has links)
For effective Human-Robot Interactions, robots have to achieve the same level of understanding as humans in every aspect. Humans are highly versatile, able to switch between frames of reference and consider multiple perspectives efficiently. Additionally, humans help and care for each other in the hope of contributing to a better society. When we talk about interacting with robots, the uncertainty around how to collaborate with them has become an emerging topic in the past few years. To bring social robots into humans’ lives, researchers need to understand the conditions and implications of robots’ actions on human responses and perceptions of robots. This project aims at understanding the link between a robot taking a human’s perspective and the human’s exhibition of prosocial behaviour toward the robot. To test our hypotheses, we have designed an activity where the participant picks an object from an array of objects in front of them, after listening to the robot’s descriptions of that object. Divided into three between-subject conditions, the robot took different perspectives to address the objects in each condition. After completing the tasks, participants could either help the robot collect speech data or move on with filling the final questionnaire and finishing the experiment. Our findings show that the participants were significantly more likely to help the robot when the robot took their perspective (human-centred) compared to both the control condition (object-centred) and when the robot did not take their perspective (robot-centred). Additionally, the results show that when the robot’s descriptions of an object were ambiguous, in the first instruction, 96% of the participants perceived the robot’s first instruction using an egocentric perspective. However, when the robot made such ambiguous instructions again later, participants perceived the instructions based on the mental model developed about the robot for that condition. / Robotar måste, i alla avseenden, uppnå samma nivå av förståelse som människor, i syfte till att skapa ett effektivt samspel. Människor är versatila, kan växla mellan olika referensramar och beakta flera perspektiv på ett effektivt sätt. Dessutom hjälper dem och även tar hand om varandra i hopp om att bidra till ett bättre samhälle. När man talar om att interagera med robotar har osäkerheten kring samarbetet blivit ett framväxande ämne under de senaste åren. För att få in sociala robotar i människors liv måste forskarna förstå förutsättningar för och konsekvenser av robotars handlingar gentemot människors reaktioner och uppfattningar om dem. Detta projekt syftar därför till att förstå kopplingen mellan en robot som intar en människas perspektiv samt människans uppvisande av prosocialt beteende gentemot roboten. För att testa hypotesen har en aktivitet designats där en robot ger instruktioner till en deltagare att välja ett visst föremål som den beskriver, utifrån en rad med olika objekt. Med tanke på att deltagarna endast tilldelas ett villkor av tre möjliga, tog roboten olika perspektiv för att adressera objektet i varje betingelse. Efter den slutförda uppgiften kunde deltagarna antingen hjälpa roboten att samla in tal-data eller gå vidare med att fylla i ett sista frågeformulär och avsluta experimentet. Resultatet visar på att deltagarna var mer benägna att hjälpa roboten när den tog deras perspektiv (människokoncentrerad) i jämförelse med både kontrollvillkoren (objektcentrerad) och när roboten inte tog deras perspektiv (robotcentrerad). Dessutom visar även resultatet att robotens beskrivning av ett objekt var tvetydliga. I den första instruktionen upplevde 96% av deltagarna att robotens instruktion hade ett egocentriskt perspektiv. När roboten gjorde ytterligare sådana tvetydliga instruktioner, När roboten gjorde ytterligare sådana tvetydliga instruktioner, uppfattades instruktionerna däremot utifrån den mentala modellen som utvecklades om roboten för just det villkoret.
|
Page generated in 0.0348 seconds