• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 26
  • 10
  • 1
  • Tagged with
  • 38
  • 17
  • 12
  • 11
  • 8
  • 7
  • 7
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Le paradigme de la corporéité et l'actualisation des signifiants dans l'enseignement et dans la formation des enseignants. / The paradigm of corporeality and signifiers actualization in teaching and teachers training.

Saez, Gérard 04 December 2014 (has links)
Après avoir présenté le contexte professionnel dans lequel s'est inscrit cette recherche (formateur "Corps et Voix" à l'IUFM puis à la Faculté d'Éducation-ÉSPÉ de Montpellier), j'expliquerai comment s'en sont dégagés les fondements de la problématique et les objets centraux de la recherche : le paradigme de la corporéité et le processus d'actualisation des signifiants. Je m'efforcerai d'en clarifier l'origine, la logique et les processus de structuration dans l'individu, en montrant l'importance de ces phénomènes dans la communication enseignante, sur le plan physiologique et prophylactique, sur le plan relationnel et pédagogique, et sur le plan didactique (comme vecteur et comme objet d'apprentissage). M'appuyant sur la théorie de la praxématique, je m'intéresserai alors à la méthode gestuelle de lecture Borel-Maisonny car cet étrange artefact me permettra de prolonger mes investigations à l'autre extrémité du panorama scolaire français, lorsque les enseignants guident les premiers apprentissages langagiers réflexifs et normés. Je montrerai quelle place est faite à la corporéité dans les textes et dans les pratiques, comment les enseignants gèrent les processus d'actualisation des signifiants, et en quoi leur formation sur ces points apparaît comme déficitaire. Après avoir formulé quelques hypothèses explicatives sur cet état de fait, je proposerai des pistes de remédiation et clarifierai les enjeux pour la formation des enseignants, et pour l'enseignement en France. / After presenting the professional context in which this research registered (trainer "Body and Voice" in IUFM then at the Faculty of Education-ESPE of Montpellier), I will explain how have emerged the foundations of the problematic and the central objects of this study : the paradigm of corporeality and the signifiers actualization process. I will try to clarify the origin, the logic and the structuring process in the individual, showing the importance of these phenomena in the teaching communication, physiologically and prophylactically, relationally and pedagogically, and didactically (as a vehicle and as a learning object). Basing on the theory of praxématique I will then take interest to the Borel-Maisonny gestural reading method because this strange artifact will allow me to extend my investigations at the other end of the French school panorama, when teachers guide the first reflexive and normed language learnings. I will show what place is made for corporeality in the texts and practices, how teachers manage the process of signifiers actualization, and how their training on these issues appears to be lacunary. After making some explanatory hypotheses on this fact, I will intend to propose some ways of remediation and will clarify the issues for teacher training, and for teaching in France.
12

Commande sans contact d'éclairage opératoire par méthodes de vision informatique / Non-contact remote control of surgical lighting devices by computer vision means

Collumeau, Jean-François 31 January 2014 (has links)
De nos jours, le maintien de l'asepsie dans la salle d'opération est vital pour la limitation de la transmission d'infections nosocomiales au patient lors de l'opération. Des mesures d'asepsie drastiques ont pour but de préserver la zone stérile de tout agent infectieux.Elles interdisent actuellement au chirurgien d'interagir avec les équipements non-stériles du bloc.Le chirurgien opérant souhaiterait cependant disposer d'un contrôle direct sur certains équipements spécifiques du bloc dans des situations données sans enfreindre ces mesures.Les travaux présentés dans cette thèse concernent le développement d'une Interface Homme-Machine permettant la commande gestuelle sans contact, et donc sans transmission d'agents infectieux, de tels équipements.Dans la continuité des travaux existants dans la littérature, une chaîne de traitement basée sur des techniques de vision informatique et un prototype de caméra portée par l'utilisateur ont ainsi été développés pour atteindre ces objectifs. Ce document présente les études comparatives menées sur des algorithmes issus de la littérature afin de sélectionner les plus aptes à être employés dans la chaîne logicielle. Un descripteur géométrique dédié aux mains est introduit, et des approches coopératives sont investiguées sur les étapes de localisation de la main et de classification de la posture prise.Les performances de la chaîne de traitement ainsi créée sont évaluées dans différentes situations à l'aide de bases d'images et de vidéos extensives acquises dans des conditions proches de celles du bloc opératoire, ainsi que sur des images synthétiques réalisées sur un modèle virtuel de main créé ad hoc.Un démonstrateur composé de la chaîne de traitement développée et d'un prototype de caméra frontale permet, associé à une simulation de bras-support d'éclairage opératoire, d'illustrer les possibilités ouvertes par le système développé au cours de cette thèse. / Asepsis preservation in operating rooms is nowadays compulsory for avoiding the spread of hospital-acquired diseases to patients during surgeries. Drastic asepsis measures aim at preserving the sterile area of the operating room from infective agents.These measures forbid surgeons from interacting with non-sterile devices. Surgeons wish nonetheless having direct control over some of these devices.The works presented in this thesis relate to the development of a Human-Computer Interface enabling remote, hence without transmission of infective agents, non-contact control over such devices.Following on from previous authors' works in the literature, an image processing chain based on computer vision techniques and a wearable camera prototype have been developed in order to achieve these goals.This document presents the comparative studies led with algorithms issued from the literature with the aim of selecting the most suitable for using in the processing chain. A dedicated geometry-based hand descriptor is introduced, and cooperative approaches are investigated in relation with the hand localization and posture classification steps.The performance achieved by the processing chain in various situations are quantified using extensive picture and video databases acquired in conditions close to those of the operating room. Synthetic pictures created using an ad hoc virtual model of the hand are used as well for this evaluation.A demonstrator composed of the developed processing chain, a wearable camera prototype and a surgical lighting arm simulator enables the illustration of the possiblities offered by the system developed during this thesis.
13

Recognition and interpretation of multi-touch gesture interaction / Reconnaissance et interprétation des interactions tactiles multipoints

Chen, Zhaoxin 28 April 2017 (has links)
La montée en puissance des écrans tactiles offre de nouvelles possibilités d'interactions gestuelles de plus en plus riches. De nos jours, les utilisateurs se contentent souvent de gestes mono-point ou multipoints simples pour exécuter des manipulations telles que la rotation, le déplacement ou la mise à l'échelle d'objets graphiques, la plupart du temps dans un contexte mono-utilisateur. Le travail décrit ici concerne l'utilisation avancée des gestes multipoints, comportant à la fois plus de commandes de raccourci (appelées commandes indirect es) et de commandes de manipulation (appelées commandes directes) dans un contexte d'utilisateurs multiples sur le même écran. Pour cela, nous analysons la forme des trajectoires composant le geste multipoints et les relations temporelles et spatiales entre ces trajectoires afin de caractériser ce geste. Nous proposons une modélisation par graphes et développons un système complet d'analyse et de reconnaissance. Pour résoudre le conflit entre la reconnaissance des gestes de manipulation et ceux de commande (directes versus indirectes), nous proposons une stratégie de reconnaissance précoce pour les gestes multipoints basée sur une option de rejet combinant plusieurs classifieurs pour reconnaître ces gestes au plus tôt. Pour valider nos approches, nous avons construit la base MTGSet composée de 7 938 gestes isolés multi points de 41 classes différentes et MUMTDB une base de gestes collectés dans un contexte réel d'interaction multiutilisateurs pour l'édition de diagrammes. Les résultats expérimentaux attestent que nos approches peuvent reconnaître les gestes multipoints dans ces différentes situations. / Due to the popularization of the touch screen devices, nowadays people are used to conduct the human-computer interactions with touch gestures. However, limited by current studies, users can use only simple multi-touch gestures to execute only simple manipulations such as rotation, translation, scaling, with most of time one user even if adapted devices are now available. The work reported here concerns the expanding usage of multi-touch gestures, that make them available at the same time for more shortcut commands (called indirect commands, as copy, past, ... ), more manipulation commands (called direct commands like zoom or rotation) and in the context of multiple users on the same screen. For this purpose, we analyze the shape of the gesture's motion trajectories and the temporal and spatial relations between trajectories in order to characterize a multi-touch gesture. We propose a graph modeling to characterize these motion features and develop a graph based analysis and recognition system. To resolve the conflict between interface manipulation and shortcut command inputs, we study and validate an early recognition strategy for multi-touch gesture. We built a reject option based multi-classifier early recognition system to recognize multi-touch gestures in early stage. To set-up, train and validate our systems, we built MTGSet, a multi-touch gesture dataset formed by 7938 gestures from 41 different classes collected in isolated contexts and MUMTDB a dataset of gestures collected in a real multi-user usage case of diagram drawing. The experimental results prove that our system can well recognize multi-touch gestures in these different situations.
14

Interaction basée sur des gestes définis par l’utilisateur : Application à la réalité virtuelle / User-Defined Gestural Interaction for Virtual Reality

Jego, Jean-François 12 December 2013 (has links)
Ces travaux de recherche proposent une nouvelle méthode d'interaction gestuelle. Nous nous intéressons en particulier à deux domaines d'application : la thérapie à domicile par la réalité virtuelle et les arts scéniques numériques. Nous partons du constat que les interfaces standardisées ne sont pas adaptées à ces cas d'usage, car elles font appel à des gestes prédéfinis et imposés. Notre approche consiste à laisser la possibilité à l'utilisateur de faire apprendre ses gestes d'interaction par le système. Cela permet de prendre en compte ses besoins et aptitudes sensorimotrices. L'utilisateur réutilise ensuite son langage gestuel appris par le système pour interagir dans l'environnement virtuel. Cette approche pose des questions de recherche centrées sur la mémorisation, la rétroaction visuelle et la fatigue. Pour aborder ces trois aspects, nous étudions d'abord le rôle de l'affordance visuelle des objets et celui de la colocalisation dans la remémoration d'un corpus de gestes. Ensuite, nous évaluons l'influence de différents types de rétroactions visuelles sur l'évolution des gestes répétés par l'utilisateur dans une série de tâches de manipulation. Nous comparons également les performances entre des gestes d'amplitude réaliste et des gestes d'amplitude faible pour effectuer la même action. Aussi, nous attachons une importance à rendre l'interface accessible en utilisant des dispositifs bas coûts et peu intrusifs. Nous explorons les moyens de pallier les contraintes techniques liées aux systèmes peu performants. Pour cela, nous avons conduit des expériences où plus de six mille gestes proposés par une quarantaine d'utilisateurs ont été étudiés. / In this thesis, we propose and evaluate new gestural interfaces for 3DUI. This work is motivated by two application cases: the first one is dedicated to people with limited sensory-motor abilities for whom generic interaction methods may not be adapted. The second one is artistic digital performances, for which gesture freedom is part of the creative process. For those cases, a standardized approach is not possible and thus user-specific or dedicated interfaces are needed. We propose a user-defined gestural interaction that allows the user to make the system learn the gestures that he has created, in a specific phase, prior to using the system. Then, the user reuses his created gestures to interact in the virtual environment. This approach raises research questions about memorization of gestures, effects of fatigue and effects of visual feedbacks. To answer those questions, we study the memorization of user created gestures regarding the role of affordances and colocalization on gesture recall. Then, we study the role of different visual feedbacks on gesture repetitions for a set of manipulation tasks. We also compare full-collocated gestures to loose gestures with lower amplitude. Also, the approach has been designed to be affordable using low-cost devices. We explore solutions to deal with the lower data quality of such devices. The results of the user-studies are based on the analysis of six thousand gestures performed by forty subjects.
15

La "performance contée" à l'épreuve des technologies audiovisuelles : des passerelles culturelles et sociales en images et en sons / The oral performance of storytellers to the test of the audiovisual technologies : cultural and social bridges in images and sounds

Drouet, Jeanne 10 November 2014 (has links)
L'enquête relatée dans cette thèse a été menée en Bretagne et en région lyonnaise auprès de conteurs contemporains. La plupart des pratiques observées se sont constituées dans le sillage dudit "renouveau du conte" qui a pris place en France au début des années 1970. La présente recherche propose une analyse de la performance orale, dans le but de mieux comprendre la portée de cette pratique – les liens, accointances, rencontres qu'elle occasionne – et les causes de son efficience sociale. Pour ce faire, le terrain de recherche a été envisagé sous trois focales ethnographiques : la scène (quand l'énonciation est examinée de très près), les coulisses (une observation des processus d'élaboration) et le contexte (ethnographie qui vise à appréhender l'environnement social et culturel du contage). La méthodologie s'est voulue expérimentale – recherche par tâtonnements – réflexive et dialogique. De nombreux dispositifs d'enquête ont été élaborés, la majorité impliquant un recours aux technologies audiovisuelles. Le parcours proposé commence par une plongée dans l'univers de deux conteurs bretons : où l'on découvre pourquoi les conteurs peuvent être vus comme des porteurs de mémoire. Par la suite s'opère un "zoom" sur la performance orale des conteurs ; ce sont les modalités d'entrée en scène, la chorégraphie et la réception par l'auditoire qui font l'objet d'un long examen. Il en résulte que les artistes de la parole provoquent une situation dans laquelle les imaginaires se croisent. Le dernier itinéraire de recherche retracé renvoie aux situations dans lesquelles le conte est mobilisé comme un instrument de médiation sociale. Les conteurs et leurs apprentis s’attellent alors à "mettre en bouche" des histoires dans lesquelles s'expriment en filigrane des sentiments d'appartenance, des expériences vécues et au travers desquelles se créent des passerelles culturelles et sociales. / The investigation related in this thesis was conducted in Bretagne (France) and in urban areas of Lyon, in close collaboration with some contemporary storytellers. Most of their practice were formed in the wake of the so-called "revival of storytelling" that took place in France in the early 1970s. The present research provides an analysis of the oral performance, in order to better understand the scope of this practice – the social ties, acquaintances, encounters it creates -- and the causes of its social efficiency. In that aim, the fieldwork was considered under three ethnographic scales: the stage (when the enounciation is evaluated very closely), the wings (an observation of the creative process) and the context (ethnography that aims to understand social and cultural environment of storytelling). The methodology pretended to be experimental – searching by trial and error approach – reflexive and dialogic. Many devices were developed, most of them requiring the use of audiovisual technology.The itinerary proposed here starts with an immersion in the world of two Bretons storytellers, which shows why storytellers can be considered as "memory holders". Then, we make a "zoom" on the oral performance of storytellers; the ways they enter in stage, their choreography and the reception by audience are the subjects of a long examination. It follows that the storytellers inciting a situation in which the imaginaries cross. The last itinerary of research refers to the situations in which the storytelling is used as an instrument of social mediation. At that time, storytellers and their apprentices work to "put in their mouths" stories in which are expressed, beneath the surface, feelings of belonging, life experiences and through which social and cultural bridges are created.
16

Apprentissage actif en-ligne d'un classifieur évolutif, application à la reconnaissance de commandes gestuelles / Online active learning of an evolving classifier, application to gesture command recognition

Bouillon, Manuel 18 March 2016 (has links)
L'utilisation de commandes gestuelles est une nouvelle méthode d'interaction sur interface tactile. Une bonne méthode pour faciliter la mémorisation de ces commandes gestuelles est de laisser l'utilisateur les personnaliser. Ce contexte applicatif induit une situation d'apprentissage croisé, où l'utilisateur doit mémoriser le jeu de symboles elle système doit apprendre à reconnaître les différents symboles. Cela implique un certain nombre de contraintes, à la fois sur le système de reconnaissance de symboles ct sur le système de supervision de son apprentissage. Il faut par exemple que le classifieur puisse apprendre à partir de peu de données, continuer à apprendre pendant son utilisation et suivre toute évolution des données indéfiniment. Le superviseur doit quant à lui optimiser la coopération entre l'utilisateur et le système de reconnaissance pour minimiser les interactions tout en maximisant l'apprentissage. Cette thèse présente d'une part, le système d'apprentissage évolutif Evolve oo, capable d'apprendre rapidement il partir de peu de données et de suivre les changements de concepts. D'autre part, elle introduit le superviseur actif en-ligne lntuiSup qui permet d'optimiser la coopération entre le système et l'utilisateur, lors de l'utilisation de commandes gestuelles personnalisées notamment Evolve oo est un système d'inférence floue, capable d'apprendre rapidement grâce aux capacités génératrices des prémisses des règles, tout en permettant d'obtenir une précision élevée grâce aux capacités discriminantes des conclusions d'ordre un. L'intégration d'oubli dans le processus d'apprentissage permet de maintenir le gain de l'apprentissage indéfiniment, permettant ainsi l'ajout de classes à n'importe quel moment de l'utilisation du système ct garantissant son évolutivité « à vie». Le superviseur actif en-ligne lntuiSup permet d'optimiser les interactions avec l'utilisateur pour entraîner un système d'apprentissage lorsque l'utilisateur est dans la boucle. Il permet de faire évoluer la proportion de données que l'utilisateur doit étiqueter en fonction de la difficulté du problème et de l'évolution de l'environnement (changements de concepts). L'utilisation d'une méthode de« dopage» de l'apprentissage permet d'optimiser la répartition de ces interactions avec l'utilisateur pour maximiser leur impact sur l'apprentissage. / Using gesture commands is a new way of interacting with touch sensitive interfaces. In order to facilitate user memorization of several commands, it is essential to let the user customize the gestures. This applicative context gives rise to a crosslearning situation, where the user has to memorize the set of commands and the system has to learn and recognize the different gestures. This situation implies several requirements, from the recognizer and from the system that supervizes its learning process. For instance, the recognizer has to be able to learn from few data samples, to keep learning during its use and to follow indefinitely any change of the data now. The supervisor has to optimize the cooperation between the recognizer and the system to minimize user interactions while maximizing recognizer learning. This thesis presents on the one hand the evolving recognition system Evolve oo, that is capable of fast teaming from few data samples, and that follows concept drifts. On the other hand, this thesis also presents the on line active supervisor lntuiSup, that optimizes user-system cooperation when the user is in the training loop, as during customized gesture command use for instance. The evolving classifier Evolve oo is a fuzzy inference system that is fast learning thanks to the generative capacity of rule premises, and at the same time giving high precision thanks to the discriminative capacity of first order rule conclusion. The use of forgetting in the learning process allows to maintain the learning gain indefinitely, enabling class adding at any stage of system learning, and guaranteeing lifelong evolving capacity. The on line active supervisor IntuiSup optimizes user interactions to train a classifier when the user is in the training loop. The proportion of data that is labeled by the user evolves to adapt to problem difficulty and to follow environment evolution (concept drift s). The use of a boosting method optimizes the timing of user interactions to maximize their impact on classifier learning process.
17

Vers une reconnaissance des activités humaines non supervisées et des gestes dans les vidéos / Toward unsupervised human activity and gesture recognition in videos

Negin, Farhood 15 October 2018 (has links)
L’objectif principal de cette thèse est de proposer un framework complet pour une découverte, modélisation et reconnaissance automatiques des activités humaines dans les vidéos. Afin de modéliser et de reconnaître des activités dans des vidéos à long terme, nous proposons aussi un framework qui combine des informations perceptuelles globales et locales issues de la scène, et qui construit, en conséquence, des modèles d’activités hiérarchiques. Dans la première catégorie du framework, un classificateur supervisé basé sur le vecteur de Fisher est formé et les étiquettes sémantiques prédites sont intégrées dans les modèles hiérarchiques construits. Dans la seconde catégorie, pour avoir un framework complètement non supervisé, plutôt que d’incorporer les étiquettes sémantiques, les codes visuels formés sont stockés dans les modèles. Nous évaluons les frameworks sur deux ensembles de données réalistes sur les activités de la vie quotidienne enregistrées auprés des patients dans un environnement hospitalier. Pour modéliser des mouvements fins du corps humain, nous proposons quatre différents frameworks de reconnaissance de gestes où chaque framework accepte une ou une combinaison de différentes modalités de données en entrée. Nous évaluons les frameworks développés dans le contexte du test de diagnostic médical, appelé Praxis. Nous proposons un nouveau défi dans la reconnaissance gestuelle qui consiste à obtenir une opinion objective sur les performances correctes et incorrectes de gestes très similaires. Les expériences montrent l’efficacité de notre approche basée sur l’apprentissage en profondeur dans la reconnaissance des gestes et les tâches d’évaluation de la performance. / The main goal of this thesis is to propose a complete framework for automatic discovery, modeling and recognition of human activities in videos. In order to model and recognize activities in long-term videos, we propose a framework that combines global and local perceptual information from the scene and accordingly constructs hierarchical activity models. In the first variation of the framework, a supervised classifier based on Fisher vector is trained and the predicted semantic labels are embedded in the constructed hierarchical models. In the second variation, to have a completely unsupervised framework, rather than embedding the semantic labels, the trained visual codebooks are stored in the models. Finally, we evaluate the proposed frameworks on two realistic Activities of Daily Living datasets recorded from patients in a hospital environment. Furthermore, to model fine motions of human body, we propose four different gesture recognition frameworks where each framework accepts one or combination of different data modalities as input. We evaluate the developed frameworks in the context of medical diagnostic test namely Praxis. Praxis test is a gesture-based diagnostic test, which has been accepted as a diagnostically indicative of cortical pathologies such as Alzheimer’s disease. We suggest a new challenge in gesture recognition, which is to obtain an objective opinion about correct and incorrect performances of very similar gestures. The experiments show effectiveness of our deep learning based approach in gesture recognition and performance assessment tasks.
18

Chimpanzees' and gorillas' intraspecific gestural laterality : a multifactorial investigation / Latéralité gestuelle intraspécifique chez les chimpanzés et les gorilles : une étude multifactorielle

Prieur, Jacques 15 September 2015 (has links)
Nous avons étudié la latéralité gestuelle intraspécifique de chimpanzés et de gorilles captifs dans des contextes socio-écologiques proches des conditions naturelles de vie. Nous avons montré que les chimpanzés et les gorilles étudiés présentaient un biais populationnel pour la main droite pour la majorité des gestes les plus fréquents de leur répertoire. Par la mise en oeuvre d’une approche multifactorielle, nous avons montré pour la première fois que la latéralité gestuelle intraspécifique de ces primates était influencée par plusieurs facteurs et par leurs interactions: contexte de l’interaction (champs visuels de l’émetteur et du récepteur et contexte émotionnel), caractéristique du geste (modalité sensorielle, utilisation d'un outil de communication, degré de partage et durée du geste) et par certaines composantes sociodémographiques, particulièrement le rang hiérarchique de l’émetteur et son âge dans une moindre mesure. De plus, nous avons comparé la latéralité manuelle des chimpanzés lors de l'utilisation d'outil pour des actions non-communicatives et des gestes intraspécifiques. Notre analyse multifactorielle suggère que l’utilisation d’outil dans les gestes serait plus contrôlée par l'hémisphère cérébral gauche que l’utilisation d’outil dans des actions non-communicatives. Globalement, nos résultats vérifient le modèle de Ghirlanda et collègues (2009) selon lequel les biais de latéralité au niveau populationnel pourraient être expliqués par une stratégie évolutive stable basée sur les interactions intraspécifiques. Nos résultats sont également en accord avec les études mettant en évidence l'utilisation préférentielle de la main droite pour la communication gestuelle des primates non humains et suggérant que la latéralité gestuelle serait un précurseur de la spécialisation hémisphérique gauche pour le langage. En outre, nos résultats confortent l'hypothèse que certaines espèces de primates pourraient avoir un traitement spécifique de l’hémisphère gauche pour les gestes communicatifs distinct de celui des actions manuelles non-communicatives. Du point de l’évolution, nos résultats soulignent l’importance d’étudier en détail la latéralité intraspécifique en considérant des espèces de différents degrés de socialité et en prenant en compte des contextes socioécologiques proches des conditions naturelles ainsi que de multiples facteurs potentiellement influents. / We studied intraspecific gestural laterality of captive chimpanzees and gorillas in real-life social-ecological relevant contexts. We evidenced that chimpanzees (respectively gorillas) exhibited a right-hand bias at the population level for the majority of the most frequent gestures of their specific natural communication repertoire. By designing and applying a multifactorial approach, we showed for the first time that intraspecific gestural laterality of primates was influenced by several factors and their mutual intertwinement: interactional context (visual fields of both signaller and recipient as well as emotional context), gesture characteristic (sensory modality, use of a communication tool, sharing degree, and gesture duration) and by some socio-demographic components in particular signaller’s hierarchical rank, and to a lesser extent signaller’s age. Similarities but also some discrepancies between chimpanzees and gorillas may be related to the lateralization of emotional processing, to communication strategies, and to social selection pressures related to the social structure and dynamics of the study species. Moreover, we compared manual laterality of tool use by chimpanzees in both non-communication actions and intraspecific gestures. Our multifactorial analysis showed that tool-use in gestures appear to be governed more by the left cerebral hemisphere than tool-use in non-communication actions. Our findings support Ghirlanda and colleagues’ (2009) model postulating that population-level bias could be explained by an evolutionary stable strategy based on intraspecific interactions. Our results also agree with previous reports evidencing predominant right-hand use by nonhuman primates for gestural communication and suggesting that gestural laterality would be a precursor of the left-brain specialization for language. Furthermore, our results support the hypothesis that some primate species may have a specific left-cerebral system processing gestures distinct from the cerebral system processing non-communication manual actions. From an evolutionary point of view, our findings emphasize the importance to study intraspecific laterality in detail by considering species varying in their degree of sociality and taking into account real-life social-ecological contexts and multiple potentially influential factors.
19

Chanter avec les mains : interfaces chironomiques pour les instruments de musique numériques / Singing with hands : chironomic interfaces for digital musical instruments

Perrotin, Olivier 23 September 2015 (has links)
Le travail de cette thèse porte sur l'étude du contrôle en temps réel de synthèse de voix chantée par une tablette graphique dans le cadre de l'instrument de musique numérique Cantor Digitalis.La pertinence de l'utilisation d'une telle interface pour le contrôle de l'intonation vocale a été traitée en premier lieu, démontrant que la tablette permet un contrôle de la hauteur mélodique plus précis que la voix réelle en situation expérimentale.Pour étendre la justesse du jeu à toutes situations, une méthode de correction dynamique de l'intonation a été développée, permettant de jouer en dessous du seuil de perception de justesse et préservant en même temps l'expressivité du musicien. Des évaluations objective et perceptive ont permis de valider l'efficacité de cette méthode.L'utilisation de nouvelles interfaces pour la musique pose la question des modalités impliquées dans le jeu de l'instrument. Une troisième étude révèle une prépondérance de la perception visuelle sur la perception auditive pour le contrôle de l'intonation, due à l'introduction d'indices visuels sur la surface de la tablette. Néanmoins, celle-ci est compensée par l'important pouvoir expressif de l'interface.En effet, la maîtrise de l'écriture ou du dessin dès l'enfance permet l'acquisition rapide d'un contrôle expert de l'instrument. Pour formaliser ce contrôle, nous proposons une suite de gestes adaptés à différents effets musicaux rencontrés dans la musique vocale. Enfin, une pratique intensive de l'instrument est réalisée au sein de l'ensemble Chorus Digitalis à des fins de test et de diffusion. Un travail de recherche artistique est conduit tant dans la mise en scène que dans le choix du répertoire musical à associer à l'instrument. De plus, un retour visuel dédié au public a été développé, afin d'aider à la compréhension du maniement de l'instrument. / This thesis deals with the real-time control of singing voice synthesis by a graphic tablet, based on the digital musical instrument Cantor Digitalis.The relevance of the graphic tablet for the intonation control is first considered, showing that the tablet provides a more precise pitch control than real voice in experimental conditions.To extend the accuracy of control to any situation, a dynamic pitch warping method for intonation correction is developed. It enables to play under the pitch perception limens preserving at the same time the musician's expressivity. Objective and perceptive evaluations validate the method efficiency.The use of new interfaces for musical expression raises the question of the modalities implied in the playing of the instrument. A third study reveals a preponderance of the visual modality over the auditive perception for the intonation control, due to the introduction of visual clues on the tablet surface. Nevertheless, this is compensated by the expressivity allowed by the interface.The writing or drawing ability acquired since early childhood enables a quick acquisition of an expert control of the instrument. An ensemble of gestures dedicated to the control of different vocal effects is suggested.Finally, an intensive practice of the instrument is made through the Chorus Digitalis ensemble, to test and promote our work. An artistic research has been conducted for the choice of the Cantor Digitalis' musical repertoire. Moreover, a visual feedback dedicated to the audience has been developed, extending the perception of the players' pitch and articulation.
20

Hand shape, function and hand preference of communicative gestures in young children : insights into the origins of human communication / Forme, fonction et préférence manuelle des gestes communicatifs chez le jeune enfant : comprendre les origines de la communication humaine

Cochet, Hélène 23 September 2011 (has links)
Bien que l’utilisation précoce de gestes communicatifs par de jeunes enfants soit reconnue comme étant étroitement liée au développement du langage (e.g., Colonnesi et al., 2010), la nature des liens gestes–langage doit encore être clarifiée. Cette thèse a pour but d’étudier la production de gestes de pointage au cours du développement afin de déterminer si la relation prédictive et facilitatrice entre les gestes et l’acquisition du langage implique des fonctions spécifiques du pointage, en association avec des caractéristiques spécifiques en terme de forme de mains, regard et vocalisations. De plus, une attention particulière a été apportée à l’étude des préférences manuelles dans le but de mieux comprendre le développement de la spécialisation hémisphérique gauche pour les comportements communicatifs. Nos résultats ont révélé des relations complexes entre le langage, les gestes communicatifs et les activités de manipulation, qui dépendent de la fonction des gestes (i.e., pointage impératif versus déclaratif) et des étapes spécifiques de l’acquisition du langage. Les gestes déclaratifs sont plus étroitement associés au développement de la parole que les gestes impératifs, au-moins avant la période d’explosion lexicale. De plus, la comparaison des patterns de préférence manuelle chez l’enfant et l’adulte a montré une plus grande proximité pour les gestes que pour la manipulation d’objet. L’asymétrie manuelle droite pour les gestes communicatifs est ainsi établie à des stades précoces, ce qui suggère un rôle primordial des gestes dans la spécialisation hémisphérique.Finalement, nos résultats ont mis en évidence l’existence d’un système de communication dans l’hémisphère cérébral gauche contrôlant à la fois la communication gestuelle et verbale, qui pourrait avoir une origine phylogénétique ancienne (e.g., Corballis, 2010). Par conséquent, le présent travail peut améliorer notre compréhension des origines du langage, y compris des mécanismes de la spécialisation cérébrale pour les comportements communicatifs. / Even though children’s early use of communicative gestures is recognized as being closely related to language development (e.g., Colonnesi et al., 2010), the nature of speech–gestures links still needs to be clarified. This dissertation aims to investigate the production of pointing gestures during development to determine whether the predictive and facilitative relationship between gestures and language acquisition involves specific functions of pointing, in association with specific features in terms of hand shape, gaze and accompanying vocalizations. Moreover, special attention was paid to the study of hand preferences in order to better understand the development of left hemisphere specialization for communicative behaviors. Our results revealed complex relationships between language, communicative gestures and manipulative activities depending on the function of gestures (i.e., imperative versus declarative pointing) as well as on specific stages of language acquisition. Declarative gestures were found to be more closely associated with speech development than imperative gestures, at least before the lexical spurt period. In addition, the comparison of hand-preference patterns in adults and infants showed stronger similarity for gestures than for object manipulation. The right-sided asymmetry for communicative gestures is thus established in early stages, which suggests a primary role of gestures in hemispheric specialization.Finally, our findings have highlighted the existence of a left-lateralized communication system controlling both gestural and vocal communication, which has been suggested to have a deep phylogenetic origin (e.g., Corballis, 2010). Therefore, the present work may improve current understanding of the evolutionary roots of language, including the mechanisms of cerebral specialization for communicative behaviors.

Page generated in 0.0724 seconds