• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1
  • Tagged with
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Smooth pursuit eye movements and learning : role of motion probability and reinforcement contingencies / Mouvements oculaires de poursuite lisse et apprentissage : rôle des contingences probabilistes et de renforcement

Damasse, Jean-Bernard 11 June 2018 (has links)
Un défi majeur pour les organismes vivants est leur capacité d’adapter constamment leurs comportements moteurs. Dans la première étude de cette thèse, nous avons étudié le rôle des régularités statistiques et du conditionnement opérant sur la poursuite lisse d’anticipation (PLA). Nous avons démontré que la PLA est générée de manière cohérente avec la probabilité du mouvement attendu. De plus, nous avons montré pour la première fois que la PLA peut être modulée par les contingences de renforcement.Dans une seconde étude, nous avons créé un paradigme de poursuite, inspiré par l’Iowa Gambling Task (IGT), impliquant un choix entre deux cibles associées à différentes récompenses. Nous avons testé ce paradigme chez des patients Parkinson (PP), ainsi que des contrôles âgés ou jeunes. Seulement chez les participants jeunes, la latence du choix oculomoteur est fortement réduite quand celui-ci est associé à une règle de renforcement. Pour les PP le choix est fortement retardé dans toutes les conditions et cet effet n’est pas simplement attribuable à un déficit moteur. Autrement, la stratégie de choix s’avère de mauvaise qualité dans tous les groupes suggérant des différences avec les résultats de l’IGT classique.La dernière contribution de cette thèse fut de modéliser l’effet du biais directionnel sur la PLA que nous avons observé dans la première étude. Nous avons testé deux modèles incluant une mémoire de type intégrateur à fuite de la séquence d’essais, ou l’estimation Bayesienne adaptative de la taille optimale de mémoire. Nos résultats suggèrent que les modèles adaptatifs pourraient contribuer dans le futur à mieux comprendre l’apprentissage statistique et par renforcement. / One of the main challenges for living organisms is the ability to constantly adapt their motor behavior. In the first study of this thesis, we investigated the role of statistical regularities and operant conditioning on anticipatory smooth eye movements (aSPEM), in a large set of healthy participants. We provided evidence that aSPEM are generated coherently with the expected probability of motion direction. Furthermore, by manipulating reinforcement contingencies our findings demonstrated for the first time that aSPEM can be considered an operant behavior. In a second study, we designed a novel two-targets choice-tracking task, where a choice-contingent reward was returned, inspired by Iowa Gambling Task (IGT). We administered this new paradigm to Parkinson’s disease (PD) patients as well as age-matched control participants and young adult controls. For young participants, choice latency was clearly shortened in the IGT-pursuit task compared to the control-task. For PD patients choice latency was overall delayed and this difference could not be attributed to pure motor deficits. Overall the choice strategy performance was poor in all groups suggesting some possible differences between the standard IGT task and our IGT-pursuit task in probing decision-making. The last contribution of this thesis is an attempt to model the relation between aSPEM velocity and local direction-bias. Two models were tested to account for the trial-sequence effects, including either a decaying memory, or a Bayesian adaptive estimation of the efficient memory size. Our results suggest that adaptive models could be used in the future to better assess statistical and reinforcement learning.

Page generated in 0.0515 seconds