Spelling suggestions: "subject:"event related"" "subject:"avent related""
341 |
Décoder la localisation de l'attention visuelle spatiale grâce au signal EEGThiery, Thomas 09 1900 (has links)
L’attention visuo-spatiale peut être déployée à différentes localisations dans l’espace indépendamment de la direction du regard, et des études ont montré que les composantes des potentiels reliés aux évènements (PRE) peuvent être un index fiable pour déterminer si celle-ci est déployée dans le champ visuel droit ou gauche. Cependant, la littérature ne permet pas d’affirmer qu’il soit possible d’obtenir une localisation spatiale plus précise du faisceau attentionnel en se basant sur le signal EEG lors d’une fixation centrale. Dans cette étude, nous avons utilisé une tâche d’indiçage de Posner modifiée pour déterminer la précision avec laquelle l’information contenue dans le signal EEG peut nous permettre de suivre l’attention visuelle spatiale endogène lors de séquences de stimulation d’une durée de 200 ms. Nous avons utilisé une machine à vecteur de support (MVS) et une validation croisée pour évaluer la précision du décodage, soit le pourcentage de prédictions correctes sur la localisation spatiale connue de l’attention. Nous verrons que les attributs basés sur les PREs montrent une précision de décodage de la localisation du focus attentionnel significative (57%, p<0.001, niveau de chance à 25%). Les réponses PREs ont également prédit avec succès si l’attention était présente ou non à une localisation particulière, avec une précision de décodage de 79% (p<0.001). Ces résultats seront discutés en termes de leurs implications pour le décodage de l’attention visuelle spatiale, et des directions futures pour la recherche seront proposées. / Visuospatial attention can be deployed to different locations in space independently of ocular fixation, and studies have shown that event-related potential (ERP) components can effectively index whether such covert visuospatial attention is deployed to the left or right visual field. However, it is not clear whether we may obtain a more precise spatial localization of the focus of attention based on the EEG signals during central fixation. In this study, we used a modified Posner cueing task with an endogenous cue to determine the degree to which information in the EEG signal can be used to track visual spatial attention in presentation sequences lasting 200 ms. We used a machine learning classification method to evaluate how well EEG signals discriminate between four different locations of the focus of attention. We then used a multi-class support vector machine (SVM) and a leave-one-out cross-validation framework to evaluate the decoding accuracy (DA). We found that ERP-based features from occipital and parietal regions showed a statistically significant valid prediction of the location of the focus of visuospatial attention (DA = 57%, p < .001, chance-level 25%). The mean distance between the predicted and the true focus of attention was 0.62 letter positions, which represented a mean error of 0.55 degrees of visual angle. In addition, ERP responses also successfully predicted whether spatial attention was allocated or not to a given location with an accuracy of 79% (p < .001). These findings are discussed in terms of their implications for visuospatial attention decoding and future paths for research are proposed.
|
342 |
Le décodage des expressions faciales émotionnelles à travers différentes bandes de fréquences spatiales et ses interactions avec l’anxiétéHarel, Yann 08 1900 (has links)
Le décodage des expressions faciales émotionnelles (EFE) est une fonction clé du système visuel humain puisqu’il est à la base de la communication non-verbale sur laquelle reposent les interactions sociales. De nombreuses études suggèrent un traitement différentiel des attributs diagnostiques du visage au sein des basses et des hautes fréquences spatiales (FS), respectivement sous-tendu par les voies magno- et parvocellulaires. En outre, des conditions telles que l’anxiété sociale sont susceptibles d’affecter ce traitement et d’entrainer une modulation des potentiels reliés aux évènements (PRE). Cette étude explore la possibilité de prédire le niveau d’anxiété social des individus à partir des corrélats électrophysiologiques du décodage d’EFE dans différentes bandes de FS. À cette fin, les PRE de 26 participants (âge moyen = 23.7 ± 4.7) ont été enregistrés lors de la présentation visuelle d’expressions neutres, de joie ou de colère filtrées pour ne retenir que les basses, moyennes ou hautes FS. L’anxiété sociale a été évaluée par l’administration préalable du questionnaire LSAS. Les latences et pics d’amplitude de la P100, N170, du complexe N2b/P3a et de la P3b ont été analysés statistiquement et utilisés pour entrainer différents algorithmes de classification. L’amplitude de la P100 était reliée au contenu en FS. La N170 a montré un effet des EFE. Le complexe N2b/P3a était plus ample pour les EFE et plus précoce pour les hautes FS. La P3b était moins ample pour les visages neutres, qui étaient aussi plus souvent omis. L’analyse discriminante linéaire a montré une précision de décodage d’en moyenne 56.11% au sein des attributs significatifs. La nature de ces attributs et leur sensibilité à l’anxiété sociale sera discutée. / The decoding of emotional facial expressions (EFE) is a key function of the human visual system since it lays at the basis of non-verbal communication that allows social interactions. Numerous studies suggests that the processing of faces diagnostic features may take place differently for low and high spatial frequencies (SF), respectively in the magno- and parvocellular pathways. Moreover, conditions such as social anxiety are supposed to influence this processing and the associated event-related potentials (ERP). This study explores the feasibility of predicting social anxiety levels using electrophysiological correlates of EFE processing across various SF bands. To this end, ERP from 26 participants (mean age = 23.7 ± 4.7) years old were recorded during visual presentation of neutral, angry and happy facial expressions, filtered to retain only low, medium or high SF. Social anxiety was previously assessed using the LSAS questionnary. Peak latencies and amplitudes of the P100, N170, N2b/P3a complex and P3b components were statistically analyzed and used to feed supervised machine learning algorithms. P100 amplitude was linked to SF content. N170 was effected by EFE. N2b/P3a complex was larger for EFE and earlier for high SF. P3b was lower for neutral faces, which were also more often omitted. The linear discriminant analysis showed a decoding accuracy across significant features with a mean of 56.11%. The nature of these features and their sensitivity to social anxiety will be discussed.
|
343 |
Imagerie de l'activité cérébrale : structure ou signal? / Imaging neural activity : structure or signal?Provencher, David January 2017 (has links)
L’imagerie de l’activité neuronale (AN) permet d’étudier le fonctionnement normal et pathologique du cerveau humain, en plus d’aider au diagnostic et à la planification d’interventions neurochirurgicales. L’électroencéphalographie (EEG) et l’imagerie par résonance magnétique fonctionnelle (IRMf) comptent parmi les modalités d’imagerie fonctionnelle les plus utilisées en recherche et en clinique. Plusieurs éléments de la structure cérébrale peuvent toutefois influencer les signaux mesurés, de sorte qu’ils ne reflètent pas uniquement l’AN. Il importe donc d’en tenir compte pour bien interpréter les résultats, surtout lorsqu’on compare des sujets à l’anatomie cérébrale très différente. En outre, la maturation, le vieillissement et certaines pathologies s’accompagnent de changements structurels du cerveau. Ceci complique l’analyse de données longitudinales et la comparaison d’un groupe cible avec un groupe contrôle. Or, notre compréhension des interactions structure-signal demeure incomplète et très peu d’études en tiennent compte. Mon projet de doctorat a consisté à étudier les impacts de la structure cérébrale sur les signaux d’EEG et d’IRMf ainsi qu’à explorer des pistes de solution pour s’en affranchir. J’ai d’abord étudié l’effet de l’amincissement cortical dû au vieillissement sur la désynchronisation liée à l’événement (« event-related desynchronization » - ERD) en EEG. Les résultats ont mis en lumière une relation linéaire négative entre l’ERD et l’épaisseur corticale, ce qui a permis de corriger les signaux par régression. J’ai ensuite étudié l’impact de la présence de veines sur la réponse BOLD (blood-oxygen-level dependent) mesurée en IRMf suite à une stimulation visuelle. Ces travaux ont démontré que la densité veineuse locale, qui varie fortement d’une région et d’un sujet à l’autre, corrèle positivement avec l’amplitude et le délai de la réponse BOLD. Finalement, j’ai adapté une technique de classification de données visant à améliorer la détection des régions du cortex activées en IRMf. Cette méthode permet d’éviter plusieurs problèmes de l’analyse classique en IRMf, de réduire l’impact de la structure cérébrale sur les résultats obtenus et d’établir des cartes d’activité cérébrale contenant plus d’information. Globalement, ces travaux contribuent à l’amélioration de notre compréhension des interactions structure-signal en EEG et en IRMf, ainsi qu’au développement de méthodes d’analyse réduisant leur impact sur l’interprétation des données en termes d’AN. / Abstract : Imaging neural activity allows studying normal and pathological function of the human brain, while also being a useful tool for diagnosis and neurosurgery planning. Electroencephalography (EEG) and functional magnetic resonance imaging (fMRI) are some of the most commonly used functional imaging modalities, both in research and clinic. Many aspects of cerebral structure can however influence the measured signals, so that they do not only reflect neural activity. Taking them into account is therefore of import to correctly interpret results, especially when comparing subjects displaying large differences in brain anatomy. In addition, maturation, aging as well as some pathologies are associated with changes in brain structure. This acts as a confounding factor when analysing longitudinal data or comparing target and control groups. Yet, our understanding of structure-signal relationships remains incomplete and very few studies take them into account. My Ph.D. project consisted in studying the impacts of cerebral structure on EEG and fMRI signals as well as exploring potential solutions to mitigate them. In that regard, I first studied the effect of age-related cortical thinning on event-related desynchronization (ERD) in EEG. Results allowed identifying a negative linear relationship between ERD and cortical thickness, enabling signal correction using regression. I then investigated how the presence of veins in a region impacts the blood-oxygen-level dependent (BOLD) response measured in fMRI following visual stimulation. This work showed that local venous density, which strongly varies across regions and subjects, correlates positively with the BOLD response amplitude and delay. Finally, I adapted a data clustering technique to improve the detection of activated cortical regions in fMRI. This method allows eschewing many problematic assumptions used in classical fMRI analyses, reducing the impacts of cerebral structure on results and establishing richer brain activity maps. Globally, this work contributes to further our understanding of structure-signal interactions in EEG and fMRI as well as to develop analysis methods that reduce their impact on data interpretation in terms of neural activity.
|
344 |
Le chunking perceptif de la parole : sur la nature du groupement temporel et son effet sur la mémoire immédiateGilbert, Annie 03 1900 (has links)
Dans de nombreux comportements qui reposent sur le rappel et la production de séquences, des groupements temporels émergent spontanément, créés par des délais ou des allongements. Ce « chunking » a été observé tant chez les humains que chez certains animaux et plusieurs auteurs l’attribuent à un processus général de chunking perceptif qui est conforme à la capacité de la mémoire à court terme. Cependant, aucune étude n’a établi comment ce chunking perceptif s’applique à la parole. Nous présentons une recension de la littérature qui fait ressortir certains problèmes critiques qui ont nui à la recherche sur cette question. C’est en revoyant ces problèmes qu’on propose une démonstration spécifique du chunking perceptif de la parole et de l’effet de ce processus sur la mémoire immédiate (ou mémoire de travail). Ces deux thèmes de notre thèse sont présentés séparément dans deux articles.
Article 1 : The perceptual chunking of speech: a demonstration using ERPs
Afin d’observer le chunking de la parole en temps réel, nous avons utilisé un paradigme de potentiels évoqués (PÉ) propice à susciter la Closure Positive Shift (CPS), une composante associée, entre autres, au traitement de marques de groupes prosodiques. Nos stimuli consistaient en des énoncés et des séries de syllabes sans sens comprenant des groupes intonatifs et des marques de groupements temporels qui pouvaient concorder, ou non, avec les marques de groupes intonatifs. Les analyses démontrent que la CPS est suscitée spécifiquement par les allongements marquant la fin des groupes temporels, indépendamment des autres variables. Notons que ces marques d’allongement, qui apparaissent universellement dans la langue parlée, créent le même type de chunking que celui qui émerge lors de l’apprentissage de séquences par des humains et des animaux. Nos résultats appuient donc l’idée que l’auditeur chunk la parole en groupes temporels et que ce chunking perceptif opère de façon similaire avec des comportements verbaux et non verbaux. Par ailleurs, les observations de l’Article 1 remettent en question des études où on associe la CPS au traitement de syntagmes intonatifs sans considérer les effets de marques temporels.
Article 2 : Perceptual chunking and its effect on memory in speech processing:ERP and behavioral evidence
Nous avons aussi observé comment le chunking perceptif d’énoncés en groupes temporels de différentes tailles influence la mémoire immédiate d’éléments entendus. Afin d’observer ces effets, nous avons utilisé des mesures comportementales et des PÉ, dont la composante N400 qui permettait d’évaluer la qualité de la trace mnésique d’éléments cibles étendus dans des groupes temporels. La modulation de l’amplitude relative de la N400 montre que les cibles présentées dans des groupes de 3 syllabes ont bénéficié d’une meilleure mise en mémoire immédiate que celles présentées dans des groupes plus longs. D’autres mesures comportementales et une analyse de la composante P300 ont aussi permis d’isoler l’effet de la position du groupe temporel (dans l’énoncé) sur les processus de mise en mémoire.
Les études ci-dessus sont les premières à démontrer le chunking perceptif de la parole en temps réel et ses effets sur la mémoire immédiate d’éléments entendus. Dans l’ensemble, nos résultats suggèrent qu’un processus général de chunking perceptif favorise la mise en mémoire d’information séquentielle et une interprétation de la parole « chunk par chunk ». / In numerous behaviors involving the learning and production of sequences, temporal groups emerge spontaneously, created by delays or a lengthening of elements. This chunking has been observed across behaviors of both humans and animals and is taken to reflect a general process of perceptual chunking that conforms to capacity limits of short-term memory. Yet, no research has determined how perceptual chunking applies to speech. We provide a literature review that bears out critical problems, which have hampered research on this question. Consideration of these problems motivates a principled demonstration that aims to show how perceptual chunking applies to speech and the effect of this process on immediate memory (or “working memory”). These two themes are presented in separate papers in the format of journal articles.
Paper 1: The perceptual chunking of speech: a demonstration using ERPs
To observe perceptual chunking on line, we use event-related potentials (ERPs) and refer to the neural component of Closure Positive Shift (CPS), which is known to capture listeners’ responses to marks of prosodic groups. The speech stimuli were utterances and sequences of nonsense syllables, which contained intonation phrases marked by pitch, and both phrase-internal and phrase-final temporal groups marked by lengthening. Analyses of CPSs show that, across conditions, listeners specifically perceive speech in terms of chunks marked by lengthening. These lengthening marks, which appear universally in languages, create the same type of chunking as that which emerges in sequence learning by humans and animals. This finding supports the view that listeners chunk speech in temporal groups and that this perceptual chunking operates similarly for speech and non-verbal behaviors. Moreover, the results question reports that relate CPS to intonation phrasing without considering the effects of temporal marks.
Paper 2: Perceptual chunking and its effect on memory in speech processing: ERP and behavioral evidence
We examined how the perceptual chunking of utterances in terms of temporal groups of differing size influences immediate memory of heard speech. To weigh these effects, we used behavioural measures and ERPs, especially the N400 component, which served to evaluate the quality of the memory trace for target lexemes heard in the temporal groups. Variations in the amplitude of the N400 showed a better memory trace for lexemes presented in groups of 3 syllables compared to those in groups of 4 syllables. Response times along with P300 components revealed effects of position of the chunk in the utterance.
This is the first study to demonstrate the perceptual chunking of speech on-line and its effects on immediate memory of heard elements. Taken together the results suggest that a general perceptual chunking enhances a buffering of sequential information and a processing of speech on a chunk-by-chunk basis.
|
345 |
Modulation de l'apprentissage visuel par stimulation électrique transcrânienne à courant direct du cortex préfrontalLafontaine, Marc Philippe 08 1900 (has links)
Le traitement visuel répété d’un visage inconnu entraîne une suppression de l’activité neuronale dans les régions préférentielles aux visages du cortex occipito-temporal. Cette «suppression neuronale» (SN) est un mécanisme primitif hautement impliqué dans l’apprentissage de visages, pouvant être détecté par une réduction de l’amplitude de la composante N170, un potentiel relié à l’événement (PRE), au-dessus du cortex occipito-temporal. Le cortex préfrontal dorsolatéral (CPDL) influence le traitement et l’encodage visuel, mais sa contribution à la SN de la N170 demeure inconnue. Nous avons utilisé la stimulation électrique transcrânienne à courant direct (SETCD) pour moduler l’excitabilité corticale du CPDL de 14 adultes sains lors de l’apprentissage de visages inconnus. Trois conditions de stimulation étaient utilisées: inhibition à droite, excitation à droite et placebo. Pendant l’apprentissage, l’EEG était enregistré afin d’évaluer la SN de la P100, la N170 et la P300. Trois jours suivant l’apprentissage, une tâche de reconnaissance était administrée où les performances en pourcentage de bonnes réponses et temps de réaction (TR) étaient enregistrées. Les résultats indiquent que la condition d’excitation à droite a facilité la SN de la N170 et a augmentée l’amplitude de la P300, entraînant une reconnaissance des visages plus rapide à long-terme. À l’inverse, la condition d’inhibition à droite a causé une augmentation de l’amplitude de la N170 et des TR plus lents, sans affecter la P300. Ces résultats sont les premiers à démontrer que la modulation d’excitabilité du CPDL puisse influencer l’encodage visuel de visages inconnus, soulignant l’importance du CPDL dans les mécanismes d’apprentissage de base. / Repeated visual processing of an unfamiliar face suppresses neural activity in face-specific areas of the occipito-temporal cortex. This "repetition suppression" (RS) is a primitive mechanism involved in learning of unfamiliar faces, which can be detected through amplitude reduction of the N170 event-related potential (ERP). The dorsolateral prefrontal cortex (DLPFC) exerts top-down influence on early visual processing. However, its contribution to N170 RS and learning of unfamiliar faces remains unclear. Transcranial direct current stimulation (tDCS) transiently increases or decreases cortical excitability, as a function of polarity. We hypothesized that DLPFC excitability modulation by tDCS would cause polarity-dependent modulations of N170 RS during encoding of unfamiliar faces. tDCS-induced N170 RS enhancement would improve long-term recognition reaction time (RT) and/or accuracy rates, whereas N170 RS impairment would compromise recognition ability. Participants underwent three tDCS conditions in random order at ~72 hour intervals: right anodal/left cathodal, right cathodal/left anodal and sham. Immediately following tDCS conditions, an EEG was recorded during encoding of unfamiliar faces for assessment of P100 and N170 visual ERPs. P300 was analyzed to detect prefrontal function modulation. Recognition tasks were administered ~72 hours following encoding. Results indicate the right anodal/left cathodal condition facilitated N170 RS and induced larger P300 amplitudes, leading to faster recognition RT. Conversely, the right cathodal/left anodal condition caused increases in N170 amplitudes and RT, but did not affect P300. These data are the first to demonstrate that DLPFC excitability modulation can influence early visual encoding of unfamiliar faces, highlighting the importance of DLPFC in basic learning mechanisms.
|
346 |
Les neurosciences cognitives du langage, de l'autisme et des styles cognitifsBourguignon, Nicolas 02 1900 (has links)
VERSION ANGLAISE DISPONIBLE AU DÉPARTEMENT; THÈSE RÉALISÉE CONJOINTEMENT AVEC L'ÉCOLE DES SCIENCES DE LA COMMUNICATION DE L'UNIVERSITÉ MCGILL (DRS. K. STEINHAUER ET J.E. DRURY). / La présente thèse reprend trois articles de recherche (deux études et un article de revue) portant sur les neurosciences cognitives du langage, chacun desquels a été écrit en vue d’identifier les bénéfices que la théorie (neuro)linguistique contemporaine pourrait tirer d’une étude exhaustive des processus cognitifs et neuraux sous-tendant les troubles du spectre autistique (TSA) et inversement. Deux études y sont présentées, utilisant la méthode des potentiels évoqués, lesquelles fournissent des preuves préliminaires, chez des individus typiques, de deux aspects de la compréhension de phrases nécessitant une recherche approfondie chez des personnes autistes : (1) Les corrélats neuraux de la nature syntaxique et sémantique particulière des verbes d’expérience (par exemple The girl has feared the storm) contrairement aux verbes d’action (par exemple The kids have eaten the fries) et leur interface potentielle avec la Théorie de l’Esprit – la capacité d’attribuer des états mentaux à soi et à autrui – pour laquelle les personnes autistes semble accuser un retard et/ou un déficit, et (2) les corrélats neuraux des compétences en « imagerie visuelle », telles quelles sont identifiées à l’aide des Matrices de Raven, sur les processus de détection de violations de catégories grammaticales (par exemple He made the meal to enjoy with friends/He made the enjoy to meal with friends) dans un paradigme expérimental “équilibré” et en modalité visuelle. L’article de revue cherche à fournir une perspective plus large du rôle que les neurosciences cognitives des TSA peuvent jouer dans l’étude biologique du langage. L’importance de considérer l’autisme comme un « style cognitif » plutôt qu’un trouble en soi y est défendue, en particulier contre la notion commune d’autisme en tant que déficit de Théorie de l’Esprit. Au delà de leurs perspectives potentielles de recherche future auprès de populations autistes, ces trois articles cherchent à répondre à plusieurs questions de recherche cruciales sur le développement et la compréhension du langage (c’est à dire le débat sur la «P600 sémantique», les théorie d’échantillonnage asymétrique de la perception de la parole et de la musique, le rôle de la vision dans le langage, la modularité, les styles cognitifs et l’inférence Bayesienne). / The present thesis comprises a set of three research articles (two studies and one review article) on the cognitive neuroscience of language, all of which were written with the purpose of understanding the benefits that contemporary (neuro)linguistic theory may draw from an extensive study of the cognitive and neural processes underlying Autism Spectrum Disorders (ASD) and vice versa. Two studies are presented, using event-related brain potentials, which provide preliminary evidence in typical individuals for two aspects of sentence processing in need of future investigation in ASD participants: (1) The neural correlates of the peculiar syntactic and semantic nature of verbs of experience (Experiencer Subject verbs, i.e., The girl has feared the storm) as opposed to verbs of action (Agent Subject verbs, i.e., The boys have eaten the fries) and their potential interface with Theory of Mind – the ability to attribute mental states to self and others – known to present delays and impairments in autism, and (2) the neural correlates of “visual imagery” skills, as assessed through the Raven Matrices, on comprehenders’ ability to detect word category violations (e.g., He made the meal to enjoy with friends/He made the enjoy to meal with friends) in a balanced visual paradigm and their potential insights into the role of visual imagery in language comprehension, known to play a potentially predominant role in ASD. The review article attempts to provide a larger perspective on the role of the cognitive neuroscience of ASD in the biology of language, in which the importance of considering autism as a “cognitive style” rather than as a disorder is given greater value, especially relative to the common notion of autism solely as a Theory of Mind impairment. Aside from their potential prospects for future research in autistic populations, these three articles also attempt to frame their topic of inquiry into the broader context of contemporary research questions on language development and language comprehension, such as the role of animacy in language processing (the “semantic P600” debate), asymmetric sampling theories of speech and music perception, the role of vision in language, modularity, cognitive styles or Bayesian inference.
|
347 |
A brain-computer interface for navigation in virtual realityAlchalabi, Bilal 04 1900 (has links)
L'interface cerveau-ordinateur (ICO) décode les signaux électriques du cerveau requise par l’électroencéphalographie et transforme ces signaux en commande pour contrôler un appareil ou un logiciel. Un nombre limité de tâches mentales ont été détectés et classifier par différents groupes de recherche. D’autres types de contrôle, par exemple l’exécution d'un mouvement du pied, réel ou imaginaire, peut modifier les ondes cérébrales du cortex moteur. Nous avons utilisé un ICO pour déterminer si nous pouvions faire une classification entre la navigation de type marche avant et arrière, en temps réel et en temps différé, en utilisant différentes méthodes. Dix personnes en bonne santé ont participé à l’expérience sur les ICO dans un tunnel virtuel. L’expérience fut a était divisé en deux séances (48 min chaque). Chaque séance comprenait 320 essais. On a demandé au sujets d’imaginer un déplacement avant ou arrière dans le tunnel virtuel de façon aléatoire d’après une commande écrite sur l'écran. Les essais ont été menés avec feedback. Trois électrodes ont été montées sur le scalp, vis-à-vis du cortex moteur. Durant la 1re séance, la classification des deux taches (navigation avant et arrière) a été réalisée par les méthodes de puissance de bande, de représentation temporel-fréquence, des modèles autorégressifs et des rapports d’asymétrie du rythme β avec classificateurs d’analyse discriminante linéaire et SVM. Les seuils ont été calculés en temps différé pour former des signaux de contrôle qui ont été utilisés en temps réel durant la 2e séance afin d’initier, par les ondes cérébrales de l'utilisateur, le déplacement du tunnel virtuel dans le sens demandé. Après 96 min d'entrainement, la méthode « online biofeedback » de la puissance de bande a atteint une précision de classification moyenne de 76 %, et la classification en temps différé avec les rapports d’asymétrie et puissance de bande, a atteint une précision de classification d’environ 80 %. / A Brain-Computer Interface (BCI) decodes the brain signals representing a desire to do something, and transforms those signals into a control command. However, only a limited number of mental tasks have been previously detected and classified. Performing a real or imaginary navigation movement can similarly change the brainwaves over the motor cortex. We used an ERS-BCI to see if we can classify between movements in forward and backward direction offline and then online using different methods. Ten healthy people participated in BCI experiments comprised two-sessions (48 min each) in a virtual environment tunnel. Each session consisted of 320 trials where subjects were asked to imagine themselves moving in the tunnel in a forward or backward motion after a randomly presented (forward versus backward) command on the screen. Three EEG electrodes were mounted bilaterally on the scalp over the motor cortex. Trials were conducted with feedback. In session 1, Band Power method, Time-frequency representation, Autoregressive models and asymmetry ratio were used in the β rhythm range with a Linear-Discriminant-analysis classifier and a Support Vector Machine classifier to discriminate between the two mental tasks. Thresholds for both tasks were computed offline and then used to form control signals that were used online in session 2 to trigger the virtual tunnel to move in the direction requested by the user's brain signals. After 96 min of training, the online band-power biofeedback training achieved an average classification precision of 76 %, whereas the offline classification with asymmetrical ratio and band-power achieved an average classification precision of 80%.
|
348 |
Étude de la négativité de discordance dans l'amusie congénitaleMoreau, Patricia 07 1900 (has links)
L’amusie congénitale est un trouble neuro-développemental qui s’exprime par un déficit de discrimination tonale fine. Le cerveau des amusiques ne répond pas aux petites différences de hauteur, tel que révélé par l’absence de la composante de potentiel évoqué P3b, qui est associée aux processus de discrimination tonale tardifs et conscients. Peu d’études se sont penchées sur les mécanismes précoces et préconscients de discrimination tonale chez les amusiques, qui peuvent être étudiés par l’entremise d’une composante de potentiel évoqué appelée la négativité de discordance (MMN). Certaines études ont démontré qu’il est possible d’enregistrer la MMN pendant la présentation d’un film avec la trame sonore en simultané aux sons visant à évoquer la composante. Toutefois, une étude a démontré que la présentation de la trame sonore réduisait l’amplitude de la MMN, sans néanmoins clarifier la nature de l’effet d’interférence en cause.
Les objectifs du présent projet sont d’abord, d’investiguer les effets à l’origine de la réduction d’amplitude de la MMN observée lors de la présentation d’un film avec la trame sonore, puis d’évaluer cette même composante chez les amusiques. La première étude visait à déterminer si un effet d’interférence attentionnelle ou acoustique était en cause dans la réduction d’amplitude observée sur la MMN lors de la présentation de la trame sonore d’un film. Les résultats ont montré qu’un effet de masquage acoustique, attribuable à la trame sonore, était responsable de la réduction d’amplitude de la MMN, cette dernière augmentant au fur et à mesure que l’intensité sonore de la trame du film était réduite.
La seconde étude a été conduite dans le but d’investiguer la MMN chez les amusiques et de vérifier si le complexe d’ondes anormales N2b-P3b, observé en réponse aux grandes différences tonales chez les amusiques, pouvait être attribuable à un effet de saillance des stimuli. Dans un premier temps, nous avons comparé la MMN des amusiques à celle des contrôles, puis nous avons modifié le paradigme expérimental visant à évoquer la N2b-P3b en ajustant les probabilités d’occurrence des sons présentés aux contrôles en fonction des sons perçus par les amusiques. Les résultats ont montré que le cerveau des amusiques parvient à discriminer les différences de hauteur à un niveau précoce et préconscient, tel que révélé par une MMN normale, mais que les réponses cérébrales plus tardives, associées au processus de discrimination des hauteurs conscient, sont anormales chez les amusiques, et ce, uniquement pour les petites différences de hauteur, tel que révélé par l’absence de la P3b.
En conclusion, ces résultats démontrent que l’amplitude de la MMN est affectée de manière significative par la présentation de la trame sonore d’un film et que cela est attribuable à un effet d’interférence acoustique. Dans un deuxième temps, nous avons démontré que les mécanismes précoces et préconscients de discrimination tonale sont préservés chez les amusiques, et que le déficit sous-jacent à l’amusie congénitale est attribuable à une atteinte du processus de discrimination tonale fine associé à un niveau de traitement cérébral tardif et conscient, le complexe d’ondes anormales N2b-P3b étant pour sa part attribuable à un effet de saillance des stimuli. / Congenital amusia is a neurodevelopmental disorder which is characterized by a deficit in fine-grained pitch discrimination. In fact, the amusic brain does not respond to small pitch changes, such as reflected by the absence of the event-related (ERP) component P3b, which is associated to late and conscious pitch discrimination processes. Until now, very few studies focused on early preconscious levels of processing in amusia, which can be studied through an ERP component called the mismatch negativity (MMN). Some studies have demonstrated that the MMN can be recorded while playing the soundtrack of a movie in concurrence with the MMN-critical tones. However, one study demonstrated that playing the movie soundtrack reduced MMN amplitude, but did not investigate the origin of this effect.
The main goals of this project are, first, to investigate the nature of the effect responsible for the MMN reduction observed when playing a movie soundtrack, and secondly, to evaluate the MMN in congenital amusia. The first study aimed to investigate if an attentionnal or acoustical interference effect could account for the reduction in MMN amplitude observed when playing the movie soundtrack. The results showed that an acoustical masking effect of the movie soundtrack was responsible for the reduction in MMN amplitude. In fact, MMN amplitude increased as the intensity level of the movie soundtrack decreased.
The goal of the second study was to investigate the MMN in congenital amusia, but also to explore if the abnormal N2b-P3b complex observed in amusics in a previous study could be accounted for by an effect of salience of the stimuli. Thus, we first compared the MMN results between amusics and controls, and then, we modified the experimental paradigm meant to evoke the N2b-P3b by adjusting the probabilities of occurrence of the sounds presented to the controls as a function of the sounds perceived by their matched amusics. The results showed that the amusic brain can detect all pitch changes at an early and preconscious level of processing, such as demonstrated by a normal MMN in both groups. Furthermore, our results showed that the amusic brain does not respond normally solely to small pitch changes at a later conscious level of processing, such as revealed by the absence of the P3b, thus showing that the abnormal N2b-P3b complex of ERP components observed in a previous study is better explained by a saliency effect of the stimuli and does not represent an electrophysiological anomaly specific to congenital amusia.
In conclusion, our results have first shown that MMN amplitude is decreased by presenting a movie soundtrack and this is due to a masking effect at the acoustical level of the soundtrack over the MMN-critical tones. Finally, our second study showed that the early preconscious mechanisms of pitch discrimination are preserved in congenital amusia, and that the pitch deficit underlying congenital amusia is limited to an anomaly in the late and conscious processing of small pitch changes, the abnormal N2b-P3b complex being rather explained by an effect of salience of the stimuli.
|
349 |
Auditory and visual event-related potential alterations in fragile X syndromeKnoth, Inga Sophia 08 1900 (has links)
Le syndrome du X fragile (SXF) est la première cause héréditaire de déficience intellectuelle et également la première cause monogénique d’autisme. Le SXF est causé par l'expansion de la répétition du nucléotide CGG sur le gène FMR1, ce qui empêche l’expression de la protéine FMRP. L’absence du FMRP mène à une altération du développement structurel et fonctionnel de la synapse, ce qui empêche la maturation des synapses induite par l’activité et l’élagage synaptique, qui sont essentiels pour le développement cérébral et cognitif. Nous avons investigué les potentiels reliés aux événements (PRE) évoqués par des stimulations fondamentales auditives et visuelles dans douze adolescents et jeunes adultes (10-22) atteints du SXF, ainsi que des participants contrôles appariés en âge chronologique et développemental. Les résultats indiquent un profil des PRE altéré, notamment l’augmentation de l’amplitude de N1 auditive, par rapport aux deux groupes contrôle, ainsi que l’augmentation des amplitudes de P2 et N2 auditifs et de la latence de N2 auditif. Chez les patients SXF, le traitement sensoriel semble être davantage perturbé qu’immature. En outre, la modalité auditive semble être plus perturbée que la modalité visuelle. En combinaison avec des résultats anatomique du cerveau, des mécanismes biochimiques et du comportement, nos résultats suggèrent une hyperexcitabilité du système nerveux dans le SXF. / We investigated early auditory and visual information processing in Fragile X Syndrome (FXS), the most common form of X-linked Intellectual Disability (ID) and the only known monogenetic cause of autism. FXS is caused by a trinucleotide repeat expansion in the FMR1 (‘Fragile X mental retardation 1’) gene, which prevents expression of the ‘fragile X mental retardation protein’ (FMRP). FMRP absence leads to altered structural and functional development of the synapse, while also preventing activity-based synapse maturation and synaptic pruning, which are essential for cerebral and cognitive development. We review the contribution of electrophysiological signal studies for the understanding of information processing in FXS and compare event-related potential (ERP) findings to those concerning other clinical populations that share symptoms with FXS. In our research project, we investigated ERPs evoked by basic auditory and visual stimulation in twelve adolescents and young adults (10-22) with FXS, as well as healthy chronological- and developmental- age matched controls. We found an altered ERP profile in FXS, including increased auditory N1 amplitude, relative to both control groups, as well as increased auditory P2 and N2 amplitudes and increased auditory N2 latencies. Rather than being immature, sensory processing appears to be specifically disrupted in FXS. Furthermore, the auditory modality seems to be more affected than the visual modality. In combination with brain anatomical, biochemical and behavioural findings, our results suggest a hyperexcitable nervous system in FXS.
|
350 |
La saturation de la mémoire auditive à court terme, une étude en électrophysiologieAlunni-Menichini, Kristelle 10 1900 (has links)
La présente étude vise à approfondir les connaissances relatives aux mécanismes neuronaux qui sous-tendent la maintenance de sons variant en hauteur dans la mémoire auditive à court terme (MACT), plus précisément lors de sa saturation. À cet effet, la technique des potentiels reliés aux évènements (PRE) en électrophysiologie a été utilisée. La sélection des participants s’est déroulée par l’entremise de deux expériences comportementales : l’une était une tâche de discrimination et l’autre, une tâche qui évaluait l’habileté générale des participants à réussir une tâche similaire à celle de l’expérience principale en électroencéphalographie (EEG). Les résultats comportementaux de notre tâche en EEG ont montré que la performance diminuait de façon significative plus la charge en mémoire augmentait (séquences de 2, 4, 6 et 8 sons) et que l’estimation de la capacité de la MACT mesurée par K augmentait entre 2 et 4 sons pour atteindre un plafond à 4 sons (effet plafond). Le K maximum étant de 2.84 sons, l’empan mnésique (EM) auditif semble être près de 3 sons. Les résultats électrophysiologiques ont montré que la composante électrophysiologique reliée à la maintenance de sons en MACT, la Sustained Anterior Negativity (SAN), était modulée par le nombre de sons à maintenir : son amplitude augmentait de 2 à 4 sons et ce, jusqu’à l’atteinte d’un plafond à 4 sons. Ces résultats suggèrent que la maintenance de sons additionnels dans la MACT n’est plus possible après sa saturation. Nous soutenons donc que la SAN est un index électrophysiologique de l’activité neuronale associée à la maintenance d’items auditifs dans la MACT et que son amplitude est un bon indicateur de la capacité individuelle de la MACT, estimée par K. Des résultats post-hoc ont démontré que les musiciens et les non-musiciens tendent à avoir des différences au niveau de la SAN, sans pour autant modifier l’effet de charge en mémoire. Une analyse qualitative et quantitative de l’utilisation des stratégies mnésiques ont permis de clarifier leur implication et leur nature au sein d’une tâche cognitive de mémoire, plus précisément en audition. Pour conclure, l’ensemble de ces résultats suggère également que la SAN est reliée à la maintenance de sons dans la MACT et ainsi, un bon indicateur de sa capacité. / The aim of the current study is to further understand, through the use of event-related potentials (ERPs), the neural mechanisms that underlie the maintenance of pitch in auditory short-term memory (ASTM) after reaching the memory span. Two behavioral experiments were used to help perform the selection of the participants: the first one was an evaluation of the acoustic discrimination and the second one was a general evaluation of participants’ ability to succeed to a similar task of the one that will be used in the electrophysiological (EEG) part of the experiment. Behavioral results from the EEG task showed a significant decrease in accuracy when the load increased (sequences of 2, 4, 6 and 8 tones). The estimation of the memory capacity (named K), increased from load 2 to 4 and reached a plateau after 4 tones. The maximum K represented 2.84 tones; the auditory span seems to be around 3 tones. Experimental results showed that the ERP component related to the maintenance of tones in ASTM, as measured by the Sustained Anterior Negativity (SAN), was modulated by the load. More specifically, its amplitude increased when the load increased (from 2 to 4) and reached a plateau at load 4. These results suggest that the maintenance of additional tones in ASTM is not possible after its saturation. Thus, the SAN appears to be an adequate electrophysiological index of neuronal activity related to the maintenance of tones in ASTM, and its amplitude appears to be predicted by K. Post-hoc results showed that musician and non-musicians tend to have some differences in their electrophysiological results; however, no change related to the load effect was observed. Finally, a qualitative and quantitative analysis was done to investigate the impact of the use of different mnemonic strategies in ASTM. Taking together, our results support that the SAN component is related to the maintenance of tones in ASTM and can be considerate as a good indicator of its capacity.
|
Page generated in 0.0863 seconds