Spelling suggestions: "subject:"apprentissage.l’identification"" "subject:"d'apprentissage.l'intervention""
1 |
Analyse conversationnelle des interactions, dramatisation et didactique du FLE en contexte non-institutionnel / Conversation Analysis of Interactions, Dramatization and French as a Foreign Language in a Non-institutional ContextDuruş, Natalia-Maria 02 October 2018 (has links)
Cette thèse prend pour objet des situations d’apprentissage guidé du français, en face à face et en dehors de cadres institutionnels, se déroulant dans le contexte multilingue du Luxembourg. Elle décrit et analyse des interactions entre des locuteurs plurilingues adultes dont la première langue est le chinois ou le coréen et des locuteurs plurilingues agissant en tant qu’experts pour la langue française. Plus particulièrement, dans l’optique d’une analyse qualitative des données, ce travail s’efforce d’appliquer les outils de l’analyse conversationnelle d’inspiration plutôt anglo-américaine à une vision didactique de tradition de langue française. Pour ce faire, il est fait appel aux notions de compétence communicative (Hymes 1972), de dramatisation (Goffman 1991) et de rôle social (Cicurel 1988). L’analyse montre que dans des situations d’apprentissage-en-interaction, les apprenants et les experts ont recours à une diversité de ressources interactionnelles liées à des activités de dramatisation : le dialogue-en-situation, la voix, la séquence préfabriquée, la séquentialité discursive, la réparation, la séquence explicative, le récit préenregistré, l’évaluation, le récit enchâssé, l’identité, le récit conversationnel de l’expert, l’interview, le récit conversationnel de l’apprenant et le mode éditeur. Pour conclure, un rapprochement est opéré entre ces activités de dramatisation et la didactique du FLE, à plusieurs niveaux, sous la forme de recommandations suggestions. / The current thesis focuses on guided language learning exchanges in French, in a face-to-face non-institutional setting in the multilingual context of Luxembourg. It describes and analyzes interactions between adult plurilingual speakers whose first language is Chinese or Korean and multilingual speakers acting as experts for the French language. Taking a qualitative analysis approach, our work strives to apply the tools of conversation analysis of a rather Anglo-American origin to a vision of “didactique” corresponding to the French language tradition. To this end, we rely in particular on the notions of communicative competence(Hymes 1972), dramatization (Goffman 1991) and social role (Cicurel 1988). The analysis of learning-in-interaction data shows the enactment of a variety of dramatization-related interactional resources by both learners and experts: the situated dialogue, the voice, the formulaic language, the discursive sequentiality, the repair, the explanatory sequence, the pre-recorded conversational narrative, the evaluation, the embedded narrative, the identity, the conversational narrative of the expert, the interview, the conversational narrative of the learner and the editor mode. A few recommendations-suggestions are proposed in the conclusion, focusing on how these dramatization activities could inform, at different levels, the development of French teaching and learning.
|
2 |
Apprentissage simultané d'une tâche nouvelle et de l'interprétation de signaux sociaux d'un humain en robotique / Learning from unlabeled interaction framesGrizou, Jonathan 24 October 2014 (has links)
Cette thèse s'intéresse à un problème logique dont les enjeux théoriques et pratiques sont multiples. De manière simple, il peut être présenté ainsi : imaginez que vous êtes dans un labyrinthe, dont vous connaissez toutes les routes menant à chacune des portes de sortie. Derrière l'une de ces portes se trouve un trésor, mais vous n'avez le droit d'ouvrir qu'une seule porte. Un vieil homme habitant le labyrinthe connaît la bonne sortie et se propose alors de vous aider à l'identifier. Pour cela, il vous indiquera la direction à prendre à chaque intersection. Malheureusement, cet homme ne parle pas votre langue, et les mots qu'il utilise pour dire ``droite'' ou ``gauche'' vous sont inconnus. Est-il possible de trouver le trésor et de comprendre l'association entre les mots du vieil homme et leurs significations ? Ce problème, bien qu'en apparence abstrait, est relié à des problématiques concrètes dans le domaine de l'interaction homme-machine. Remplaçons le vieil homme par un utilisateur souhaitant guider un robot vers une sortie spécifique du labyrinthe. Ce robot ne sait pas en avance quelle est la bonne sortie mais il sait où se trouvent chacune des portes et comment s'y rendre. Imaginons maintenant que ce robot ne comprenne pas a priori le langage de l'humain; en effet, il est très difficile de construire un robot à même de comprendre parfaitement chaque langue, accent et préférence de chacun. Il faudra alors que le robot apprenne l'association entre les mots de l'utilisateur et leur sens, tout en réalisant la tâche que l'humain lui indique (i.e.trouver la bonne porte). Une autre façon de décrire ce problème est de parler d'auto-calibration. En effet, le résoudre reviendrait à créer des interfaces ne nécessitant pas de phase de calibration car la machine pourrait s'adapter,automatiquement et pendant l'interaction, à différentes personnes qui ne parlent pas la même langue ou qui n'utilisent pas les mêmes mots pour dire la même chose. Cela veut aussi dire qu'il serait facile de considérer d’autres modalités d'interaction (par exemple des gestes, des expressions faciales ou des ondes cérébrales). Dans cette thèse, nous présentons une solution à ce problème. Nous appliquons nos algorithmes à deux exemples typiques de l'interaction homme robot et de l'interaction cerveau machine: une tâche d'organisation d'une série d'objets selon les préférences de l'utilisateur qui guide le robot par la voix, et une tâche de déplacement sur une grille guidé par les signaux cérébraux de l'utilisateur. Ces dernières expériences ont été faites avec des utilisateurs réels. Nos résultats démontrent expérimentalement que notre approche est fonctionnelle et permet une utilisation pratique d’une interface sans calibration préalable. / This thesis investigates how a machine can be taught a new task from unlabeled humaninstructions, which is without knowing beforehand how to associate the human communicative signals withtheir meanings. The theoretical and empirical work presented in this thesis provides means to createcalibration free interactive systems, which allow humans to interact with machines, from scratch, using theirown preferred teaching signals. It therefore removes the need for an expert to tune the system for eachspecific user, which constitutes an important step towards flexible personalized teaching interfaces, a key forthe future of personal robotics.Our approach assumes the robot has access to a limited set of task hypotheses, which include the task theuser wants to solve. Our method consists of generating interpretation hypotheses of the teaching signalswith respect to each hypothetic task. By building a set of hypothetic interpretation, i.e. a set of signallabelpairs for each task, the task the user wants to solve is the one that explains better the history of interaction.We consider different scenarios, including a pick and place robotics experiment with speech as the modalityof interaction, and a navigation task in a brain computer interaction scenario. In these scenarios, a teacherinstructs a robot to perform a new task using initially unclassified signals, whose associated meaning can bea feedback (correct/incorrect) or a guidance (go left, right, up, ...). Our results show that a) it is possible tolearn the meaning of unlabeled and noisy teaching signals, as well as a new task at the same time, and b) itis possible to reuse the acquired knowledge about the teaching signals for learning new tasks faster. Wefurther introduce a planning strategy that exploits uncertainty from the task and the signals' meanings toallow more efficient learning sessions. We present a study where several real human subjects controlsuccessfully a virtual device using their brain and without relying on a calibration phase. Our system identifies, from scratch, the target intended by the user as well as the decoder of brain signals.Based on this work, but from another perspective, we introduce a new experimental setup to study howhumans behave in asymmetric collaborative tasks. In this setup, two humans have to collaborate to solve atask but the channels of communication they can use are constrained and force them to invent and agree ona shared interaction protocol in order to solve the task. These constraints allow analyzing how acommunication protocol is progressively established through the interplay and history of individual actions.
|
Page generated in 0.1377 seconds