• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 30
  • 6
  • 6
  • Tagged with
  • 43
  • 27
  • 23
  • 13
  • 9
  • 9
  • 8
  • 8
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Influence du son lors de l’exploration de scènes naturelles dynamiques : prise en compte de l’information sonore dans un modèle d’attention visuelle / Influence of sound on visual exploration of dynamic natural scenes : integration of auditory information in a visual attention model

Coutrot, Antoine 02 October 2014 (has links)
Nous étudions l'influence de différents attributs audiovisuels sur l'exploration visuelle de scènes naturelles dynamiques. Nous démontrons que si la façon dont nous explorons une scène dépend avant tout de son contenu visuel, dans certaines situations le son influence significativement les mouvements oculaires. La présence de son assure une meilleure cohérence entre les positions oculaires de différents observateurs, attirant leur attention et donc leur regard vers les mêmes régions. L'effet du son se retrouve tout particulièrement dans les scènes de conversation, où la présence du signal de parole associé augmente le nombre de fixations sur le visage des locuteurs, et donc la cohérence entre les scanpaths. Nous proposons un modèle de saillance audiovisuelle repérant automatiquement le visage des locuteurs afin d'en rehausser la saillance. Ces résultats s'appuient sur les mouvements oculaires de 148 participants enregistrés sur un total de plus de 75 400 frames (125 vidéos) dans 5 conditions expérimentales différentes. / We study the influence of different audiovisual features on the visualexploration of dynamic natural scenes. We show that, whilst the way a person explores a scene primarily relies on its visual content, sound sometimes significantly influences eye movements. Sound assures a better coherence between the eye positions of different observers, attracting their attention and thus their gaze toward the same regions. The effect of sound is particularly strong in conversation scenes, where the related speech signal boosts the number of fixations on speakers' faces, and thus increases the consistency between scanpaths. We propose an audiovisual saliency model able to automatically locate speakers' faces so as to enhance their saliency. These results are based on the eye movements of 148 participants recorded on more than 75,400 frames (125 videos) in 5 different experimental conditions.
22

Understanding and Improving the Quality of Experience in 3D media perception : Accommodation/Vergence conflict in Stereopsis / Comprendre et optimiser la qualité de l’expérience en perception 3D

Vienne, Cyril 27 March 2013 (has links)
Les technologies de relief tridimensionnel (3D) ont récemment reçu un nouvel attrait. Lesraisons potentielles sont que ces technologies peuvent fournir une expérience visuelle plusriche et plus immersive. En effet, un observateur peut extraire les disparités binoculairesprésentées entre les vues gauche et droite, pour retrouver plus efficacement la profondeur dela scène visuelle observée, et ainsi, trouver une nouvelle dimension dans le contenu.Cependant, tandis que la valeur de la profondeur est plutôt bien appréciée, un certain nombrede problèmes qui impactent la qualité de l’expérience dans les représentations 3D ont étéidentifiés. L’objective de cette thèse est d’étudier les principaux facteurs qui affectent laqualité de l’expérience en stéréoscopie dans le but de fournir des méthodes qui pourraientaméliorer l’utilisation des systèmes stéréoscopiques. Trois aspects majeurs de la qualité del’expérience sont adressés : (1) les sources et causes de la fatigue visuelle, (2) les distorsionsperceptives et (3) l’amélioration de la qualité de l’expérience en 3D au travers de l’adaptationdu contenu visuel. Pour étudier la fatigue visuelle, les mouvements de vergence étaientmesurés à la fois avec un écran 3D et avec un système à double écran qui permettaient laprésentation de stimuli avec les informations de disparité et de flou présentés en congruencecomme en incongruence. L’effet de la stéréoscopie sur les mouvements de vergence a étéétudié dans le but de tester si la mesure oculaire pouvait être utilisée comme indicateur defatigue visuelle. Le sujet suivant étudiait la consistance de la perception des formes 3Dstéréoscopiques en fonction de distances virtuelles induites par la disparité et par le signald’accommodation. Le rôle de la taille de la pupille et de la profondeur de champ enstéréoscopie étaient étudiés par la manipulation de la taille de la pupille avec deux conditionsd’illumination contrôlée. Finalement, l’amélioration de la perception de la forme 3D estquestionnée au travers de l’adaptation du contenu visuel en fonction de la mesure de seuilsperceptifs individuels pour des stimuli se déplaçant en profondeur. / Stereoscopic 3-Dimensional (S3D) technology has recently received growing attraction,potentially because it provides a more informative and more immersive visual experience.Indeed, the viewer may extract the binocular disparities displayed between the left and theright views, more efficiently retrieve the depth of the observed visual scene, and thus, givevisual content another dimension. However, while the additional value of depth is ratherappreciated, a number of problems have been raised that impact the Quality of Experience(QoE) in S3D representations. The objective of this thesis is to investigate the main factorsaffecting QoE in stereopsis in order to provide guidelines towards the improvement andfurther use of stereoscopic systems. Three main aspects of QoE in S3D are addressed: (1) thesources and causes of visual fatigue, (2) the perceptual distortions arising in S3D and, (3) theimprovement of S3D QoE through content adaptation. To study visual fatigue in S3D,vergence eye movements were measured both in S3D display and in dual-screen display thatenables the presentation of matched disparity and defocus stimuli. The effect of stereopsis onvergence movements was studied so as to test whether vergence tracking can be used asindicator of visual fatigue. The next topic investigated the consistency in stereoscopic 3Dshape perception as a function of vergence distance and accommodation distance. The role ofthe pupil size and the depth of focus in S3D were evaluated by manipulating the pupilaperture with two controlled lighting conditions. Finally, the improvement of 3D shapeperception is addressed through content adaptation according to individual perceptionthresholds measurement for motion-in-depth stimuli.
23

Self-care tools to treat depressive symptoms in older adults with ocular diseases : a randomized controlled clinical trial

Kamga, Hortence 09 1900 (has links)
Objectif: La dépression est un problème fréquent chez les personnes atteintes de dégénérescence maculaire liée à l’âge (DMLA) et de rétinopathie diabétique (RD). Les antidépresseurs et les thérapies psychologiques sont souvent sous utilisés. Notre objectif était de déterminer si les outils d’auto-soins associés au support téléphonique limité pouvaient réduire les symptômes dépressifs. Méthodes: Un essai clinique randomisé à simple insu a été mené à l’Hôpital Maisonneuve Rosemont, Canada. Tous les patients éligibles étaient invités à participer à l’essai. Pour être éligibles, les participants devaient 1) avoir un diagnostic de DMLA avancée ou de RD, 2) au moins des symptômes dépressifs moyens et 3) une acuité visuelle meilleure que 20/200 dans leur meilleur oeil. Une moitié des participants était randomisée au bras d’intervention et l’autre moitié à l’intervention retardée/traitement usuel. L’intervention était composée d’outils audio et écrits en gros caractères, incluant des principes cognitifs comportementaux plus trois appels téléphoniques d’un coach d’une durée de 10 minutes chacun. Les données de suivi étaient collectées huit semaines plus tard, par téléphone. L’issu primaire était le changement de symptômes dépressifs à huit semaines, mesuré par le questionnaire sur la santé du patient, PHQ-9. Résultats: Quatre-vingts participants, âgés de 50 ans et plus ont été recrutés, dont 70 ayant des données complètes et 10 perdus de vue (12.5%). Le score moyen du iv PHQ-9 à l’inclusion était de 9.5 (SD=3.9) indiquant des symptômes dépressifs modérés. La réduction moyenne du score de PHQ-9 au terme du suivi était de 4.9 (SD=4.2) dans le groupe d’intervention et de 3.2 (SD=4.6) dans le groupe de traitement usuel, soit une différence intergroupe de 1.7 point (p=0.104). Après avoir contrôlé pour les disparités observées à l’inclusion notamment pour l’acuité visuel, l’utilisation des antidépresseurs et la participation à la psychothérapie, cette différence est passée de 1.7 à 2.3 et est devenue statistiquement significative (p=0.037). Soixante pourcent des participants du groupe d’intervention ont rapporté avoir utilisé les outils d’auto-soins au terme de l’étude ou de l’exploitation des données Conclusion: Les outils d’auto-soins accompagnés de support téléphonique conduisent à une petite amélioration des symptômes dépressifs chez les patients atteints de pathologies oculaires liées à l’âge. Des recherches additionnelles ciblant les meilleures stratégies pour soutenir les patients déprimés atteints de maladies oculaires liées à l’âge sont nécessaires. / Purpose: Depression is a common problem in people with age-related macular degeneration (AMD) and diabetic retinopathy (DR). Antidepressants and psychotherapy are often underutilized. Our goal was to determine if self-care tools plus limited telephone support could reduce depressive symptoms. Methods: A single-blind randomized controlled clinical trial was conducted at Maisonneuve-Rosemont Hospital in Montreal, Canada. All eligible patients were invited to participate in the trial. To be eligible, participants must have had either late stage AMD or DR, at least mild depressive symptoms, and visual acuity better than 20/200 in their better eye. Half were randomized to the intervention arm and half to delayed intervention/usual care. The intervention consisted of large print written and audio tools incorporating cognitive-behavioral principles plus three 10-minute telephone calls from a coach. Eight-week follow-up data were collected by telephone. The primary outcome was the 8-week change in depressive symptoms as measured by the Patient Health Questionnaire (PHQ-9). Results: Eighty participants, aged 50 years and older, were recruited while 10 were lost to follow-up (12.5%) giving 70 with complete data, 35 in each group. The mean baseline PHQ-9 score was 9.5 out of 27 (SD=3.9) indicating moderate depressive symptoms. The average decrease in PHQ-9 scores over the 8 weeks was 4.9 (SD=4.2) in the intervention group and 3.2 (SD=4.6) in the usual care group, a 1.7 point difference (P=0.104). After adjusting for baseline imbalances in visual acuity, ii antidepressant use, and participation in psychotherapy, the difference increased from 1.7 to 2.3 and became statistically significant (p=0.037). Sixty percent of those in the intervention group reported having used the tools at the end of the study. Conclusions: Self-care tools plus telephone coaching led to a small improvement in depressive symptoms in patients with age-related eye disease. Additional research into the best way to support depressed patients with age-related eye disease is necessary.
24

Le traitement des expressions faciales au cours de la première année : développement et rôle de l'olfaction / The processing of facial expressions during the first year of life : development and contribution of olfaction

Dollion, Nicolas 14 December 2015 (has links)
La première année de vie constitue une étape critique dans le développement des capacités de traitement des expressions faciales. Olfaction et expressions sont toutes deux étroitement liées, et il est reconnu que dès la naissance les enfants sont capables d’intégrer leur environnement de façon multi-sensorielle. Toutefois, la plupart des travaux sur le traitement multimodal des visages et des expressions se sont restreints à l’étude des interactions audio-visuelles.Dans ce travail de thèse, nous avons en premier lieu levé différentes ambiguïtés concernant l’ontogenèse des capacités de traitement des expressions. Les résultats obtenus ont permis de spécifier l’évolution des stratégies d’exploration visuelle des émotions au cours de la première année, et de démontrer la présence d’une distinction progressive des expressions selon leur signification émotionnelle. Au moyen de l’EEG, nous avons aussi précisé la nature et le décours temporel de la distinction des expressions chez les nourrissons de 3 mois.Le second objectif de nos travaux a été d’approfondir les connaissances sur le traitement multi-sensoriel des expressions, en nous intéressant spécifiquement aux interactions olfacto-visuelles. Nos expériences en potentiels évoqués ont permis de préciser le décours de l’intégration cérébrale de l’odeur dans le traitement des expressions chez l’adulte, et de démontrer la présence d’interactions similaires chez l’enfant de 3 mois. Nous avons également démontré qu’à 7 mois, les odeurs déclenchent une recherche d’expression spécifique. Il ressort de ces travaux que l’olfaction pourrait contribuer à l’établissement des capacités de traitement des expressions faciales. / The first year of life is critical for the development of the abilities to process facial expressions. Olfaction and expressions are both strongly linked to each other, and it is well known that infants are able to multisensorially integrate their environment as early as birth. However, most of the studies interested in multisensory processing of facial expressions are restricted to the investigation of audio-visual interactions.In this thesis, we firstly aimed to resolve different issues concerning the ontogenesis of infants’ ability to process facial expressions. Our results allowed to specify the development of visual exploratory strategies of facial emotions along the first year of life, and to demonstrate that a progressive distinction of expressions according to their emotional meaning is present. Using the EEG, we were also able to specify the nature and the time course of facial expressions distinction in 3-month-old infants.The second objective of our studies was to expand the knowledge concerning the multisensory processing of facial expressions. More specifically we wanted to investigate the influence of olfacto-visual interactions on this processing. Our event-related potentials experiments allowed to specify the time course of the cerebral integration of olfaction in the visual processing of emotional faces in adults, and to demonstrate that similar interactions are present in infants as young as 3 month-old. We also demonstrated that at 7 months of age odors trigger the search for specific facial expressions. Our results suggest that olfaction might contribute to the development of infants’ ability to process facially displayed emotions.
25

Etude des mécanismes prédictifs sous-jacents à la coordination œil-main / Investigating predictive mechanisms underlying eye-hand coordination

Mathew, James 12 September 2018 (has links)
La capacité de coordonner efficacement nos yeux avec nos mains est déterminante pour le succès de nos actions quotidiennes. En outre la capacité de prédire les conséquences sensorielles de nos propres actions est cruciale pour nos habilités motrices. Dans ce travail, à l’aide d’une tâche dans laquelle les participants doivent suivre avec leurs yeux une cible visuelle bougée par leur main, nous nous intéressons aux mécanismes prédictifs sous-tendant la coordination œil-main. Dans une première étude utilisant un protocole d’adaptation à une rotation visuomotrice, nous montrons que ces mécanismes prédictifs peuvent être mis à jour indépendamment de notre capacité à effectuer des mouvements précis de la main. Dans l’étude suivante nous cherchons à déterminer l’effet de la préférence manuelle, et montrons que malgré des différences évidentes en termes de précision concernant le contrôle manuel, la capacité d’anticiper les conséquences visuelles de nos actions reste identique que la cible soit bougée par la main droite ou gauche. Enfin, grâce à la stimulation magnétique transcranienne, nous testons l'hypothèse selon laquelle ces mécanismes prédictifs utilisent des signaux efférents de la main issus du cortex moteur primaire (M1). Nos résultats montrent que si cette contribution existe, elle doit se faire nécessairement en amont de M1. Au bout du compte nous proposons que la coordination œil-main soit sous-tendue par des mécanismes prédictifs similaires pour nos deux mains, situés vraisemblablement en amont de M1, et pouvant être mis à jour indépendamment du contrôle de la main. / The ability to coordinate efficiently eye and hand actions is central for humans in everyday activities. Furthermore it is argued that the ability to predict the sensory consequences of self-initiated movements is crucial for skilled motor behavior. Here by means of a task in which participants were asked to track with the eyes a visual target that was moved by their hand, we investigated the predictive mechanisms underlying eye-hand coordination. In a first study, using a protocol in which participants had to adapt to rotated hand visual feedback, we show that these predictive mechanisms can be updated independently of the ability to perform accurate hand movements. In a follow up study we tested the effect of hand dominance, and showed that, despite obvious differences in the accuracy of hand movement control, the ability to predict visual consequences of right and left hand actions was similar. Finally, by means of transcranial magnetic stimulation, we tested the hypothesis that those predictive mechanisms rely on hand efferent signals from the primary motor cortex (M1). However our results failed to support this view, and instead suggest that if such a contribution exists, it must be upstream of M1. Overall, we propose that eye-hand coordination relies on similar predictive mechanisms for both hands, possibly located upstream of M1, which can be updated independently of hand movement control.
26

Facteurs influençant la levée des ambiguïtés syntaxiques

Colonna, Saveria 28 September 2001 (has links) (PDF)
Cette thèse a pour objectif de répondre à deux questions fondamentales sur la compréhension du langage :<br />Quelle stratégie adopte le lecteur lorsqu'il rencontre une ambiguïté ?<br />Quelles sont les informations utilisées pour résoudre une ambiguïté syntaxique ?<br />Les modèles actuels de la compréhension de phrases ne permettent pas de rendre compte de l'ensemble des données inter-langues observées dans le cas de l'attachement d'une Proposition Relative (PR) ambiguë. Une série d'expériences a donc été réalisée afin de déterminer les facteurs responsables de l'attachement d'une PR. Nous avons utilisé la technique d'enregistrement des mouvements oculaires afin d'appréhender le décours temporel des opérations qui ont lieu pendant la lecture. Nous avons observé que la longueur des constituants influence la préférence d'attachement d'une PR (Expériences 1-4). Pour rendre compte de ces résultats, nous faisons l'hypothèse que certains attachements peuvent être laissés en suspens (sous-spécifiés) en attendant que l'information désambiguïsatrice soit disponible. À partir de cette hypothèse, nous avons implémenté un modèle qui nous permet de simuler nos résultats et de faire de nouvelles hypothèses quant aux facteurs susceptibles d'influencer la préférence d'attachement d'une PR. Ces prédictions ont été vérifiées dans l'Expérience 5. L'idée qu'en cas d'ambiguïté syntaxique, la décision syntaxique peut être reportée est développée dans la théorie Construal (Frazier et Clifton, 1996). Cependant, contrairement à notre modèle qui prédit que tous les constituants peuvent recevoir une description sous-spécifiée, la Construal propose que seules les relations non primaires reçoivent une analyse sous-spécifiée, les relations primaires recevant immédiatement une analyse syntaxique unique et spécifiée. Les Expériences 6-11 révèlent que la distinction entre relations primaires et non primaires proposée par la Construal n'est pas pertinente et nous permettent de conclure en faveur de notre modèle.
27

Modèles de saillance visuelle par fusion d'informations sur la luminance, le mouvement et les visages pour la prédiction de mouvements oculaires lors de l'exploration de vidéos.

Marat, Sophie 22 February 2010 (has links) (PDF)
Lorsque nous explorons une scène visuelle nous focalisons notre attention et notre regard sur certaines régions de la scène dites saillantes an d'étudier ces régions plus en détail. L'objectif de cette thèse était de mieux comprendre les processus attentionnels qui guident le regard lorsque nous regardons une vidéo et de modéliser ces processus. Deux approches complémentaires ont été adoptées : une approche comportementale, à l'aide d'expériences d'oculométrie, pour mieux comprendre comment les personnes regardent une vidéo et une approche de modélisation afin de proposer un modèle, inspiré du système visuel humain, permettant de mettre en évidence les régions saillantes dans des vidéos. Deux modèles ont été proposés. Le premier modèle de saillance à deux voies, extrait des cartes statiques et dynamiques à partir des informations sur la luminance et le mouvement. Les traitements de ces deux voies, bien que relativement indépendants, sont réalisés par des modules communs (filtre "rétinien" et filtres "corticaux") à l'instar de ce qui est fait dans le système visuel. Un deuxième modèle de saillance, à trois voies, intègre au modèle précédent une voie dédiée à la détection des visages, les visages étant connus pour attirer les regards. Des expériences d'oculométrie ont permis d'étudier et d'évaluer ces modèles de saillance en détail.
28

The visual processing of self-referential stimuli: Do we process our own face differently from other faces?

Devue, Christel 18 April 2008 (has links)
Lorsque nous pensons à nous-mêmes, à toutes les caractéristiques physiques ou psychologiques qui nous définissent, à tous les objets que nous possédons, nous avons limpression quils ont un statut bien particulier dans notre esprit, quils sont spéciaux pour nous. Notre propre visage est certainement parmi lune des plus uniques et distinctives de toutes ces informations autoréférentielles. Dans ce travail, nous nous sommes penchés sur les spécificités du traitement visuel du propre visage. Dans un premier chapitre théorique, nous avons questionné la possibilité dutiliser le traitement du propre visage comme un indice de conscience de soi (voir Chapitre 1). Ensuite, nous avons passé en revue les différentes études existantes qui concernaient la spécificité du propre visage ou dautres informations autoréférentielles (voir Chapitre 2). Suite à cette revue de la littérature, il est apparu que lintuition selon laquelle notre propre visage est un stimulus spécial navait pas pu être confirmée unanimement par les études qui nous précédaient. Ce travail ambitionnait donc dévaluer empiriquement dans quelle mesure notre propre visage est traité par le système cognitif de façon différente des autres visages que nous rencontrons. Nous avons tenté de répondre à cette question selon trois angles différents. Tout dabord, nous nous sommes intéressés à la précision de la représentation de notre propre visage en mémoire. Pour cela, nous avons utilisé dans notre première étude une méthode psychophysique permettant de déterminer dans quelle mesure nous sommes capables de détecter des modifications fines apportées à des photographies de notre propre visage (voir Chapitre 4). Ensuite, nous avons examiné si la reconnaissance de notre propre visage, mais aussi celle de notre propre corps, sont sous-tendues par des zones cérébrales spécifiques. A cette fin, au cours dune seconde étude, nous avons utilisé limagerie par résonance magnétique fonctionnelle (IRMf, voir Chapitre 5). Enfin, nous avons testé si le propre visage est particulièrement apte à capturer ou à retenir notre attention lorsquil est présenté de façon inopportune alors que nous sommes occupés à réaliser une tâche sans rapport (voir Chapitres 6, 7 et 8). Pour ce faire, nous avons eu recours, dans une série de trois études, à différents paradigmes attentionnels : un paradigme de jugement de parité, un paradigme de cécité attentionnelle, et un paradigme de recherche visuel lors duquel nous avons procédé à lenregistrement des mouvements oculaires des participants. Tout au long de ce travail, nous avons adopté une approche visant à différencier les effets dautoréférence de simples effets de familiarité. Pour ce faire, dans toutes nos études, nous avons comparé les réponses obtenues lors de la présentation du propre visage du participant à celles obtenues lors de la présentation du visage dune personne hautement familière pour le participant (un ami ou un collègue du même groupe dâge et du même sexe). Par ailleurs, dans les études attentionnelles, les réponses subséquentes à la présentation de ces deux visages familiers étaient également comparées à celles obtenues suite à lapparition de visages de personnes inconnues. En somme, si les performances obtenues sur le propre visage et le visage très familier différaient, nous pourrions penser que ces différences sont dues à laspect autoréférentiel du propre visage. Par contre, si les performances ne différaient pas entre le propre visage et lautre visage très familier mais que ces deux visages se distinguaient des visages inconnus, nous pourrions supposer que nous sommes face à de simples effets de familiarité. La première étude psychophysique a montré que la représentation que nous avons en mémoire de notre propre visage est très précise. Cette précision est seulement limitée par les capacités de discrimination perceptive de notre système visuel. Cependant, il en était de même pour le visage dune autre personne hautement familière. De ce point de vue, il ne semble donc pas que notre propre visage soit spécial. Néanmoins, il semblerait que cette représentation soit sous-tendue par des substrats cérébraux spécifiques, comme indiqué par notre seconde étude en IRMf. Cette étude a aussi montré que notre propre corps serait également traité par des régions cérébrales spécifiques. De plus, certaines régions seraient dédiées au traitement abstrait de notre propre apparence physique puisquelles étaient impliquées indépendamment du type de matériel présenté (visage ou corps). Enfin, nous avons montré, grâce aux trois études attentionnelles, que le propre visage nest pas un distracteur exceptionnel par rapport à dautres visages familiers. En effet, le propre visage ne semble pas capturer lattention de façon automatique. Il semblerait que le propre visage bénéficie simplement dune allocation de lattention préférentielle par rapport à des visages inconnus. En dautres termes, lallocation de lattention au propre visage est sujette à diverses contraintes (par exemple sa localisation spatiale) et il semblerait que lattention soit nécessaire pour identifier le propre visage en tant que tel. Cet ensemble de résultats est discuté dans un dernier chapitre (voir Chapitre 9) où nous tentons de mettre les données provenant des trois perspectives différentes (représentation en mémoire, substrats cérébraux et propriétés attentionnelles relatifs au propre visage) en rapport. De plus, la possibilité dutiliser le propre visage comme outil détude de la conscience de soi ou de différents processus cognitifs (reconnaissance ou attention visuelle) est brièvement passée en revue.<br> <br> When we think about ourselves, about the traits that define us, about the physical characteristics or the objects that we own, we have the intuition that they have a special status in our mind. We deeply feel that they are different from everything else in the world. This thesis concerned the specificity of a highly distinctive self-referential stimulus: the self-face. In the present thesis, we have conducted five studies examining whether the self-face is processed in a special way by comparison with other faces. We have put three main questions: (1) how accurate is the representation of the self-face in memory?; (2) is this representation subtended by specific neural correlates?; and (3) does the self-face have special abilities to attract and/or to hold attention? First, we showed that the perceptual representation in memory of the self-face is similar to that of other familiar faces as regard with its precision. Second, we demonstrated that although ones own face perceptual representation is not really special, the visual processing of the self-face is subtended by specific neural correlates. Apparently, the self-body is also processed via specialised pathways in the brain. In addition, some regions seem devoted to the abstract processing of ones own physical appearance independently of the material presented. Third, we showed that ones own face is not a particularly potent distractor by comparison with other familiar faces. It does not seem able to capture attention but rather benefits from a preferential allocation of attention by comparison with unfamiliar faces. In other words, its attentional processing is subject to various constraints (e.g. spatial localisation, available attentional resources) and attention seems necessary to process self-referential parts of a face. We discussed the idea that the presentation of the self-face can constitute a way to enhance chances of eliciting responses in non-communicative patients but that it is not the best way to study self-consciousness in normal adults when using only behavioural methods. In addition, because of its unique characteristics, the self-face can represent a useful tool of investigation of visual recognition and visual attention.
29

Etude de l'influence de la qualité audiovisuelle sur la qualité d'expérience du spectateur : combinaison d'indicateurs subjectifs, physiologiques et oculaires

LASSALLE, Julie 22 October 2013 (has links) (PDF)
Dans un contexte fortement concurrentiel, l'un des principaux enjeux pour les acteurs de l'offre de services audiovisuels (AV) est de garantir au spectateur une qualité d'expérience (QoE) optimale. Aujourd'hui, la QoE est souvent restreinte à la perception de la qualité audiovisuelle restituée (QAV) par le système. Elle est principalement mesurée à travers la collecte de notes données par des participants sur des échelles de qualité, après visualisation et écoute de séquences AV traitées par le ou les technologies à évaluer. Ces tests subjectifs suivent des procédures recommandées par l'Union Internationale des Télécommunications. Cependant, la qualité restituée peut affecter la QoE (fatigue, effort, etc.) sans être reflétée par les notes de qualité. Une méthode considérant l'évaluation non plus de la QAV perçue seule mais de la qualité d'expérience, plus largement considérée, pourrait permettre de mieux rendre compte de l'influence de la qualité du son et de l'image sur le spectateur. Le présent travail est centré sur la recherche d'une méthode alternative aux méthodes actuelles de l'évaluation de qualité pour applications multimédias dans un contexte de visualisation et d'écoute de contenus AV 2D ou 3D. L'approche proposée aborde la QoE sous l'angle de l'analyse conjointe d'indicateurs subjectifs et d'indicateurs toniques physiologiques (activité électrodermale, rythme cardiaque, température cutanée périphérique, volume sanguin périphérique) et oculaires (PERCLOS, durée et fréquence de clignement de loeil, nombre de saccades, diamètre pupillaire). Les mesures physiologiques et oculaires ont pour avantage de ne pas être assujetties aux biais des mesures subjectives (représentativité, échelles, etc.) et de traduire des phénomènes comme la fatigue ou l'effort mental, potentiellement induits par la présence de dégradations sur les signaux audio et/ou vidéo et pouvant être critiques du point de vue de la QoE. Deux protocoles ont été testés. Les résultats ont montré que la QAV module l'expérience subjective et que les notes de qualité ne sont pas suffisantes pour refléter fidèlement cet effet. L'influence de la QAV sur les mesures physiologiques et oculaires est moins évidente. Un ensemble de facteurs, notamment lié à certains attributs du contenu de test comme la dynamique ou la luminosité, aurait pu masquer ou atténuer l'observation d'un effet de la qualité restituée. Néanmoins, deux des indicateurs physiologiques ont réagi à la présence de dégradations audio et/ou vidéo lorsque celles-ci étaient cumulées à l'effet préjudiciable d'autres facteurs (vidéo 3D ou effet de passation).
30

Interaction avec les interfaces visuelles dynamiques complexes des jeux vidéo : effet des arrière-plans sur la performance et le comportement du regard / Interaction with complex dynamic visual interfaces for video games : effect of backgrounds on performance and gaze behavior

Caroux, Loïc 20 November 2012 (has links)
Les jeux vidéo occupent une place importante dans notre société. Cependant, leur conception ne prend aujourd'hui que peu en compte les spécificités de l'interaction joueur-jeu vidéo, qui sont déterminantes pour une expérience de jeu optimale. L'objectif de cette thèse était de comprendre l'influence de différents choix de conception des interfaces visuelles des jeux vidéo sur la performance et le comportement du regard des joueurs. Ces interfaces, généralement dynamiques et complexes, sont composées de trois sources d'information : les objets avec lesquels le joueur interagit et l'arrière-plan, qui composent la scène d'action principale, ainsi que les informations contextuelles superposées à la scène principale. Sept expériences ont été réalisées pour comprendre le partage attentionnel entre ces sources dans le cadre d'une activité de jeu vidéo. Les caractéristiques de l'arrière-plan, des informations contextuelles et de la tâche ont été manipulées. La performance et les mouvements du regard des joueurs ont été enregistrés. Les résultats ont montré que le partage attentionnel entre deux sources d'information (e.g., scène d'action et informations contextuelles) est facilité lorsqu'elles ne se chevauchent pas. Lorsque qu'elles se chevauchent nécessairement (e.g., objets et arrière-plan), les caractéristiques de mouvement et de complexité de l'arrière-plan et la difficulté de la tâche modulent très largement la dégradation de la performance. Un modèle théorique de partage attentionnel entre deux sources visuelles d'information superposées est proposé. Des recommandations sont établies pour la conception des jeux vidéo, mais aussi des environnements virtuels en général. / Video games take an increasingly important place in our society. Nowadays, however, their design doesn't take enough into account the specificity of player-game interaction, which is essential for an optimal play experience. The thesis' goal was to understand the impact of different design choices for video games visual interfaces on players' performance and gaze behavior. These dynamic and complex interfaces include three information sources: the objects that the player interacts with and the background, which make up together the main action scene, and the contextual information superimposed on the main scene. Seven experiments were made to understand how attention is shared between these sources during video game activity. The characteristics of the background, of the contextual information and of the game task were manipulated. The performance was measured while participants' eye movements were recorded. The results showed that attention sharing between two sources (e.g., the action scene and contextual information) is optimal when the two sources do not overlap at all. When they necessarily overlap (e.g., objects superimposed on a background), the nature of background movement, the background visual complexity and the difficulty of the task can strongly modulate the performance decrease. A theoretical model of attention sharing between two superimposed sources of visual information is proposed. Practical recommendations are drawn up for video game design, but also for virtual environments design.

Page generated in 0.0383 seconds