• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 11
  • 5
  • 1
  • 1
  • Tagged with
  • 18
  • 18
  • 7
  • 7
  • 7
  • 6
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Uma arquitetura para animar agentes autônomos em ambientes virtuais usando o modelo BDI

Torres, Jorge Alberto Rangel January 2004 (has links)
Humanos virtuais são modelos computacionais de pessoas. Se necessário, podem apresentar uma aparência bastante realista, baseada em princípios fisiológicos e biomecânicos. Além disso, são capazes de comportar-se de forma autônoma e inteligente em ambientes dinâmicos, podendo apresentar até mesmo individualidade e personalidade. Humanos virtuais podem ser utilizados como atores sintéticos. Tais atores têm sido usados em uma série de aplicações com a finalidade de simular a presença de atores reais. A indústria de jogos por computador requer personagens que sejam capazes de reagir apropriadamente a eventos e circunstâncias inesperadas, e até mesmo de alterar o progresso do jogo com seus cursos de ação autônomos. Um modo natural para desenvolver tais personagens prevê o uso de técnicas de inteligência artificial, em particular aquelas relacionadas às áreas de agentes autônomos e sistemas multiagentes. Neste trabalho, propõese o uso do modelo BDI (Belief-Desire-Intention) para modelar agentes cognitivos, com a finalidade de implementar personagens animados. O modelo BDI é uma abordagem bastante conhecida e bem sucedida para o desenvolvimento de agentes autônomos em sistemas multiagentes. Trata-se de uma arquitetura poderosa para sistemas dinâmicos e complexos, nos quais agentes podem precisar agir sob informação incompleta e incorreta sobre o seu ambiente e os outros habitantes. Esta dissertação reúne um modelo articulado para animação de personagens, o qual requer a especificação de movimento em cada junta individualmente, e um interpretador para AgentSpeak(L), uma linguagem de programação orientada a agentes que implementa a arquitetura BDI. Foi desenvolvida uma interface que permite que o sistema de raciocínio de um agente, baseado em BDI, seja usado para dirigir o comportamento de um personagem em um sistema de animação. O uso de AgentSpeak(L) é uma abordagem promissora para a especificação em alto nível de animações complexas por computador. O modelo conceitual e sua implementação são apresentados em capítulos distintos. Esta separação visa simplificar a compreensão do modelo proposto, permitindo primeiro analisá-lo em um nível mais alto de abstração, para então verificar detalhes de programação. Este trabalho apresenta também duas animações 3D, usadas para ilustrar a abordagem proposta. A principal animação apresentada envolve um agente situado em um ambiente dinâmico; o agente continuamente percebe o ambiente e raciocina para determinar como agir sobre ele, baseado em seu estado mental BDI. A outra aplicação é bastante simples, mas útil para mostrar algumas questões que são relevantes para obter-se mais eficiência em programas AgentSpeak(L). / Virtual humans are computational models of people. If necessary, they can portray a very realistic appearance, based on biomechanical and physiological principles. Besides, they are able to behave in an autonomous and intelligent way in dynamic environments, and even to exhibit individuality and personality. Virtual humans can be used as synthetic actors. Such kind of actors have been used in several applications, such as games, in order to simulate the presence of real actors. The computer-game industry requires characters that are able to react appropriately to unexpected events and circumstances, and even to change the game progress with their autonomous courses of actions. A natural way for developing such characters is by the use of artificial intelligence techniques, in particular those related to the areas of autonomous agents and multi-agent systems. In this work, the use of the Belief-Desire-Intention (BDI) model for cognitive agents in order to implement animated characters is proposed. The BDI model is a well-known and successful approach for the development of autonomous agents in multiagent systems. It is a very powerful architecture for dynamic and complex systems where agents may need to act under incomplete and incorrect information on other agents and their environment. This work brings together an articulated model for character animation, which requires the specification of motion on each joint individually, and an interpreter for AgentSpeak(L), an agent-oriented programming language that implements the BDI architecture. I have developed an interface that allows the BDI-based agent reasoning system to be used for guiding the behaviour of a character in an animation system. The use of AgentSpeak(L) is a promising approach for the high-level specification of complex computer animations. The conceptual model and its implementation are presented in distinct chapters. This separation aims at simplifying the comprehension of the proposed model, allowing its analysis first at a higher abstraction level, and after that to check programming details. This work also presents two 3-D animations used to illustrate the proposed approach. The main animation presented involves an agent that is situated in a dynamic environment; the agent continuously perceives the environment and reasons on how to act upon it based on its BDI mental state. The other application is quite simple, but useful to show some issues that are relevant for obtaining better performance from AgentSpeak(L) programs.
12

An Investigation of the Role of Goal Setting during Vicarious Learning of Physics

January 2014 (has links)
abstract: Observational tutoring has been found to be an effective method for teaching a variety of subjects by reusing dialogue from previous successful tutoring sessions. While it has been shown content can be learned through observational tutoring it has yet to been examined if a secondary behavior such as goal-setting can be influenced. The present study investigated if observing virtual humans engaging in a tutoring session on rotational kinematics with embedded positive goal oriented dialogue would increase knowledge of the material and perpetuate a shift an observer's goal-orientation from performance avoidance goal orientation (PAVGO) to learning goal orientation (LGO). Learning gains were observed in pre to post test knowledge retention tests. Significant changes from pretest to posttest occurred across conditions for LGO. Additionally, significant changes from PAVGO pretest to posttest were observed in the control condition however PAVGO did not significantly change in the experimental condition. / Dissertation/Thesis / Masters Thesis Applied Psychology 2014
13

Uma arquitetura para animar agentes autônomos em ambientes virtuais usando o modelo BDI

Torres, Jorge Alberto Rangel January 2004 (has links)
Humanos virtuais são modelos computacionais de pessoas. Se necessário, podem apresentar uma aparência bastante realista, baseada em princípios fisiológicos e biomecânicos. Além disso, são capazes de comportar-se de forma autônoma e inteligente em ambientes dinâmicos, podendo apresentar até mesmo individualidade e personalidade. Humanos virtuais podem ser utilizados como atores sintéticos. Tais atores têm sido usados em uma série de aplicações com a finalidade de simular a presença de atores reais. A indústria de jogos por computador requer personagens que sejam capazes de reagir apropriadamente a eventos e circunstâncias inesperadas, e até mesmo de alterar o progresso do jogo com seus cursos de ação autônomos. Um modo natural para desenvolver tais personagens prevê o uso de técnicas de inteligência artificial, em particular aquelas relacionadas às áreas de agentes autônomos e sistemas multiagentes. Neste trabalho, propõese o uso do modelo BDI (Belief-Desire-Intention) para modelar agentes cognitivos, com a finalidade de implementar personagens animados. O modelo BDI é uma abordagem bastante conhecida e bem sucedida para o desenvolvimento de agentes autônomos em sistemas multiagentes. Trata-se de uma arquitetura poderosa para sistemas dinâmicos e complexos, nos quais agentes podem precisar agir sob informação incompleta e incorreta sobre o seu ambiente e os outros habitantes. Esta dissertação reúne um modelo articulado para animação de personagens, o qual requer a especificação de movimento em cada junta individualmente, e um interpretador para AgentSpeak(L), uma linguagem de programação orientada a agentes que implementa a arquitetura BDI. Foi desenvolvida uma interface que permite que o sistema de raciocínio de um agente, baseado em BDI, seja usado para dirigir o comportamento de um personagem em um sistema de animação. O uso de AgentSpeak(L) é uma abordagem promissora para a especificação em alto nível de animações complexas por computador. O modelo conceitual e sua implementação são apresentados em capítulos distintos. Esta separação visa simplificar a compreensão do modelo proposto, permitindo primeiro analisá-lo em um nível mais alto de abstração, para então verificar detalhes de programação. Este trabalho apresenta também duas animações 3D, usadas para ilustrar a abordagem proposta. A principal animação apresentada envolve um agente situado em um ambiente dinâmico; o agente continuamente percebe o ambiente e raciocina para determinar como agir sobre ele, baseado em seu estado mental BDI. A outra aplicação é bastante simples, mas útil para mostrar algumas questões que são relevantes para obter-se mais eficiência em programas AgentSpeak(L). / Virtual humans are computational models of people. If necessary, they can portray a very realistic appearance, based on biomechanical and physiological principles. Besides, they are able to behave in an autonomous and intelligent way in dynamic environments, and even to exhibit individuality and personality. Virtual humans can be used as synthetic actors. Such kind of actors have been used in several applications, such as games, in order to simulate the presence of real actors. The computer-game industry requires characters that are able to react appropriately to unexpected events and circumstances, and even to change the game progress with their autonomous courses of actions. A natural way for developing such characters is by the use of artificial intelligence techniques, in particular those related to the areas of autonomous agents and multi-agent systems. In this work, the use of the Belief-Desire-Intention (BDI) model for cognitive agents in order to implement animated characters is proposed. The BDI model is a well-known and successful approach for the development of autonomous agents in multiagent systems. It is a very powerful architecture for dynamic and complex systems where agents may need to act under incomplete and incorrect information on other agents and their environment. This work brings together an articulated model for character animation, which requires the specification of motion on each joint individually, and an interpreter for AgentSpeak(L), an agent-oriented programming language that implements the BDI architecture. I have developed an interface that allows the BDI-based agent reasoning system to be used for guiding the behaviour of a character in an animation system. The use of AgentSpeak(L) is a promising approach for the high-level specification of complex computer animations. The conceptual model and its implementation are presented in distinct chapters. This separation aims at simplifying the comprehension of the proposed model, allowing its analysis first at a higher abstraction level, and after that to check programming details. This work also presents two 3-D animations used to illustrate the proposed approach. The main animation presented involves an agent that is situated in a dynamic environment; the agent continuously perceives the environment and reasons on how to act upon it based on its BDI mental state. The other application is quite simple, but useful to show some issues that are relevant for obtaining better performance from AgentSpeak(L) programs.
14

Uma arquitetura para animar agentes autônomos em ambientes virtuais usando o modelo BDI

Torres, Jorge Alberto Rangel January 2004 (has links)
Humanos virtuais são modelos computacionais de pessoas. Se necessário, podem apresentar uma aparência bastante realista, baseada em princípios fisiológicos e biomecânicos. Além disso, são capazes de comportar-se de forma autônoma e inteligente em ambientes dinâmicos, podendo apresentar até mesmo individualidade e personalidade. Humanos virtuais podem ser utilizados como atores sintéticos. Tais atores têm sido usados em uma série de aplicações com a finalidade de simular a presença de atores reais. A indústria de jogos por computador requer personagens que sejam capazes de reagir apropriadamente a eventos e circunstâncias inesperadas, e até mesmo de alterar o progresso do jogo com seus cursos de ação autônomos. Um modo natural para desenvolver tais personagens prevê o uso de técnicas de inteligência artificial, em particular aquelas relacionadas às áreas de agentes autônomos e sistemas multiagentes. Neste trabalho, propõese o uso do modelo BDI (Belief-Desire-Intention) para modelar agentes cognitivos, com a finalidade de implementar personagens animados. O modelo BDI é uma abordagem bastante conhecida e bem sucedida para o desenvolvimento de agentes autônomos em sistemas multiagentes. Trata-se de uma arquitetura poderosa para sistemas dinâmicos e complexos, nos quais agentes podem precisar agir sob informação incompleta e incorreta sobre o seu ambiente e os outros habitantes. Esta dissertação reúne um modelo articulado para animação de personagens, o qual requer a especificação de movimento em cada junta individualmente, e um interpretador para AgentSpeak(L), uma linguagem de programação orientada a agentes que implementa a arquitetura BDI. Foi desenvolvida uma interface que permite que o sistema de raciocínio de um agente, baseado em BDI, seja usado para dirigir o comportamento de um personagem em um sistema de animação. O uso de AgentSpeak(L) é uma abordagem promissora para a especificação em alto nível de animações complexas por computador. O modelo conceitual e sua implementação são apresentados em capítulos distintos. Esta separação visa simplificar a compreensão do modelo proposto, permitindo primeiro analisá-lo em um nível mais alto de abstração, para então verificar detalhes de programação. Este trabalho apresenta também duas animações 3D, usadas para ilustrar a abordagem proposta. A principal animação apresentada envolve um agente situado em um ambiente dinâmico; o agente continuamente percebe o ambiente e raciocina para determinar como agir sobre ele, baseado em seu estado mental BDI. A outra aplicação é bastante simples, mas útil para mostrar algumas questões que são relevantes para obter-se mais eficiência em programas AgentSpeak(L). / Virtual humans are computational models of people. If necessary, they can portray a very realistic appearance, based on biomechanical and physiological principles. Besides, they are able to behave in an autonomous and intelligent way in dynamic environments, and even to exhibit individuality and personality. Virtual humans can be used as synthetic actors. Such kind of actors have been used in several applications, such as games, in order to simulate the presence of real actors. The computer-game industry requires characters that are able to react appropriately to unexpected events and circumstances, and even to change the game progress with their autonomous courses of actions. A natural way for developing such characters is by the use of artificial intelligence techniques, in particular those related to the areas of autonomous agents and multi-agent systems. In this work, the use of the Belief-Desire-Intention (BDI) model for cognitive agents in order to implement animated characters is proposed. The BDI model is a well-known and successful approach for the development of autonomous agents in multiagent systems. It is a very powerful architecture for dynamic and complex systems where agents may need to act under incomplete and incorrect information on other agents and their environment. This work brings together an articulated model for character animation, which requires the specification of motion on each joint individually, and an interpreter for AgentSpeak(L), an agent-oriented programming language that implements the BDI architecture. I have developed an interface that allows the BDI-based agent reasoning system to be used for guiding the behaviour of a character in an animation system. The use of AgentSpeak(L) is a promising approach for the high-level specification of complex computer animations. The conceptual model and its implementation are presented in distinct chapters. This separation aims at simplifying the comprehension of the proposed model, allowing its analysis first at a higher abstraction level, and after that to check programming details. This work also presents two 3-D animations used to illustrate the proposed approach. The main animation presented involves an agent that is situated in a dynamic environment; the agent continuously perceives the environment and reasons on how to act upon it based on its BDI mental state. The other application is quite simple, but useful to show some issues that are relevant for obtaining better performance from AgentSpeak(L) programs.
15

Improving active listening behaviours of embodied conversational agents (ECA) from a UX perspective

Narayanan, Bharat January 2022 (has links)
Active listening is a communication technique where the listener listens to the speaker carefully and attentively by confirming or asking for more details about what they heard during a conversation. Active listening has proven to be a very useful technique in learning and extracting insightful information from the conversation and poses many challenges when emulating such behaviours in a virtual character. In this research, various active listening behaviours are explored according to context, so that these behaviours can be adopted by Embodied Conversational Agents (ECA’s) to be perceived as more believable humanistic characters. This publication describes those behaviours in-depth by gathering insights via expert Interviews. An experiment was carried out with 20 participants (12 men and 8 women) to identify the implemented behaviours and their overall effect during a generic conversation with the ECA. The results showed that the participants were able to identify most of the implemented active-listening behaviours like Interested/inquisitive, agreement/approval (head nod and corresponding sounds), and provided insights for further improvement of the interlocution. / Aktivt lyssnande är en kommunikationsteknik där lyssnaren lyssnar på talaren noggrant och uppmärksamt genom att bekräfta eller be om mer information om vad de hörde under ett samtal. Aktivt lyssnande har visat sig vara en mycket användbar teknik för att lära sig och extrahera insiktsfull information från konversationen och ställer till många utmaningar när man emulerar sådana beteenden i en virtuell karaktär. I denna forskning utforskas olika aktiva lyssnandebeteenden i enlighet med sammanhang, så att dessa beteenden kan antas av Embodied Conversational Agents (ECA) för att uppfattas som mer trovärdiga humanistiska karaktärer. Den här publikationen beskriver dessa beteenden på djupet genom att samla in insikter via expertintervjuer. Ett experiment genomfördes med 20 deltagare (12 män och 8 kvinnor) för att identifiera de implementerade beteendena och deras totala effekt under ett allmänt samtal med ECA. Resultaten visade att deltagarna kunde identifiera de flesta av de implementerade aktivt lyssnande beteendena som Intresserad/nyfiken, överenskommelse/godkännande (huvudnicka och motsvarande ljud), och gav insikter för ytterligare förbättring av samtalet.
16

Evaluation de la cognition sociale en situation d'interaction dans le traumatisme crânien / Social cognition evaluation in interaction situation in traumatic brain injury

Taché, Emmanuelle 09 February 2018 (has links)
La cognition sociale, i.e. notre capacité à attribuer des états mentaux à autrui et à identifier ses émotions, est souvent perturbée dans certaines pathologies telles que le traumatisme crânien (TC). Cette capacité est traditionnellement évaluée à l’aide de tâches sous format « papier-crayon » n’impliquant pas le participant dans une situation d’interaction sociale. Pourtant, la cognition sociale est fondamentale dans nos interactions sociales car elle nous permet de comprendre le discours et le comportement d’autrui. Ainsi, dans ce travail de thèse, nous avons évalué les capacités d’attribution d’états mentaux et de reconnaissance émotionnelle de personnes ayant subi un TC à l’aide de tâches les impliquant activement dans une situation de communication (tâche de communication référentielle et tâche EViCog), ce qui n’a jamais été fait dans cette pathologie. La tâche EViCog (Evaluation de la cognition sociale en interaction virtuelle), créée pour cette étude, permet d’avoir des conversations audio-visuelles avec des humains virtuels, qui expriment des émotions et produisent du discours nécessitant d’inférer leurs états mentaux. Les résultats ont montré que les difficultés des personnes TC étaient encore plus importantes pour la tâche en situation d’interaction (tâche EViCog) par rapport à des tâches traditionnelles au format « papier-crayon ». Par ailleurs, en situation d’interaction, les performances de cognition sociale semblent dépendre en partie des capacités mnésiques (mémoire autobiographique et du contexte), ainsi que des fonctions exécutives, alors que pour les tâches traditionnelles, les performances ne seraient expliquées que par certaines capacités exécutives. / Social cognition, i.e. the ability to attribute mental states to others and to identify emotions, is often impaired in various pathologies, such as traumatic brain injury (TBI). This ability is traditionally assessed with “paper-and-pencil” tasks that do not involve the participant in a social interaction situation. However, social cognition is central in our daily social interactions, as it helps us understand others’ speech and behavior. Thus, in this study, we assessed mental state attribution and emotion recognition abilities of TBI participants, using tasks that involve the participant in a communication situation (referential communication task and EViCog task). The EViCog task (social cognition evaluation in virtual interaction), designed for this research, provides audio-visual conversations with virtual humans, which express emotions and produce speech requiring mental state inference. The results showed that the difficulties of the TBI participants were even more important for the task in interaction situation (EViCog task) compared to traditional tasks in paper-and-pencil format. Moreover, in interaction situation, social cognition performance seemed to rely on mnemonic abilities (autobiographical memory and context memory), and on executive functions, while for traditional tasks, performances were only explained by some executive abilities.
17

Imitation Learning of Motor Skills for Synthetic Humanoids

Ben Amor, Heni 13 December 2010 (has links) (PDF)
This thesis addresses the question of how to teach dynamic motor skills to synthetic humanoids. A general approach based on imitation learning is presented and evaluated on a number of synthetic humanoids, as well as a number of different motor skills. The approach allows for intuitive and natural specification of motor skills without the need for expert knowledge. Using this approach we show that various important problems in robotics and computer animation can be tackled, including the synthesis of natural grasping, the synthesis of locomotion behavior or the physical interaction between humans and robots.
18

Imitation Learning of Motor Skills for Synthetic Humanoids

Ben Amor, Heni 12 November 2010 (has links)
This thesis addresses the question of how to teach dynamic motor skills to synthetic humanoids. A general approach based on imitation learning is presented and evaluated on a number of synthetic humanoids, as well as a number of different motor skills. The approach allows for intuitive and natural specification of motor skills without the need for expert knowledge. Using this approach we show that various important problems in robotics and computer animation can be tackled, including the synthesis of natural grasping, the synthesis of locomotion behavior or the physical interaction between humans and robots.

Page generated in 0.1039 seconds