Spelling suggestions: "subject:"auditif"" "subject:"auditifs""
81 |
Analyse par apprentissage automatique des réponses fMRI du cortex auditif à des modulations spectro-temporellesBouchard, Lysiane 12 1900 (has links)
L'application de classifieurs linéaires à l'analyse des données d'imagerie cérébrale (fMRI) a mené à plusieurs percées intéressantes au cours des dernières années. Ces classifieurs combinent linéairement les réponses des voxels pour détecter et catégoriser différents états du cerveau. Ils sont plus agnostics que les méthodes d'analyses conventionnelles qui traitent systématiquement les patterns faibles et distribués comme du bruit. Dans le présent projet, nous utilisons ces classifieurs pour valider une hypothèse portant sur l'encodage des sons dans le cerveau humain. Plus précisément, nous cherchons à localiser des neurones, dans le cortex auditif primaire, qui détecteraient les modulations spectrales et temporelles présentes dans les sons. Nous utilisons les enregistrements fMRI de sujets soumis à 49 modulations spectro-temporelles différentes. L'analyse fMRI au moyen de classifieurs linéaires n'est pas standard, jusqu'à maintenant, dans ce domaine. De plus, à long terme, nous avons aussi pour objectif le développement de nouveaux algorithmes d'apprentissage automatique spécialisés pour les données fMRI. Pour ces raisons, une bonne partie des expériences vise surtout à étudier le comportement des classifieurs. Nous nous intéressons principalement à 3 classifieurs linéaires standards, soient l'algorithme machine à vecteurs de support (linéaire), l'algorithme régression logistique (régularisée) et le modèle bayésien gaussien naïf (variances partagées). / The application of linear machine learning classifiers to the analysis of brain imaging data (fMRI) has led to several interesting breakthroughs in recent years. These classifiers combine the responses of the voxels to detect and categorize different brain states. They allow a more agnostic analysis than conventional fMRI analysis that systematically treats weak and distributed patterns as unwanted noise. In this project, we use such classifiers to validate an hypothesis concerning the encoding of sounds in the human brain. More precisely, we attempt to locate neurons tuned to spectral and temporal modulations in sound. We use fMRI recordings of brain responses of subjects listening to 49 different spectro-temporal modulations. The analysis of fMRI data through linear classifiers is not yet a standard procedure in this field. Thus, an important objective of this project, in the long term, is the development of new machine learning algorithms specialized for neuroimaging data. For these reasons, an important part of the experiments is dedicated to studying the behaviour of the classifiers. We are mainly interested in 3 standard linear classifiers, namely the support vectors machine algorithm (linear), the logistic regression algorithm (regularized) and the naïve bayesian gaussian model (shared variances).
|
82 |
Analyse par apprentissage automatique des réponses fMRI du cortex auditif à des modulations spectro-temporellesBouchard, Lysiane 12 1900 (has links)
No description available.
|
83 |
Compréhension intégrée de quatre syndromes génétiques impliqués dans la déficience intellectuelle via des biomarqueurs électrophysiologiques, les manifestations comportementales, le fonctionnement adaptatif et les interventions disponibles sur le plan clinique.Côté, Valérie 05 1900 (has links)
La trisomie 21 (T21), le Syndrome X Fragile (SXF), la Sclérose tubéreuse de Bourneville (STB) et les mutations SYNGAP1 sont causés par des dysfonctionnements des voies moléculaires qui entraînent notamment un déséquilibre dans l’excitation et l’inhibition de l’activité neuronale qui aurait des impacts sur le développement et le fonctionnement du cerveau. Toutefois, il est difficile de faire le pont entre les déséquilibres moléculaires observés dans les modèles animaux et les particularités structurelles, fonctionnelles et cognitives observées dans ces syndromes chez l’humain. À notre connaissance, peu d’études ont comparé différents syndromes génétiques sur les processus sensoriels, l’apprentissage de base ou encore leurs caractéristiques comportementales en utilisant des paradigmes similaires et translationnels, permettant de mieux comprendre leurs particularités.
Le premier volet de cette thèse vise à identifier si l’activité électroencéphalographique serait un biomarqueur adéquat représentant les altérations neurobiologiques tant des processus sensoriels que d’apprentissage chez les humains présentant ces syndromes. L’étude #1 avait comme objectif de décrire le traitement sensoriel auditif, comme il s’agit d’un processus élémentaire, et ce, chez les mutations SYNGAP1 qui représentent une condition génétique encore peu étudiée chez l’humain. Les résultats ont d’ailleurs permis d’identifier une diminution de la synchronisation de phase et une augmentation de la puissance dans la bande gamma qui distinguent cette condition génétique tant des participants sans DI que de la T21. Toujours dans l’esprit d’identifier des biomarqueurs électroencéphalographiques, mais cette fois au niveau d’un processus cognitif de base, l’étude #2 avait pour objectif de comparer tous ces syndromes dans un paradigme de suppression neuronale (SN) afin de vérifier la présence de SN et de comparer l’apprentissage de base chez ces populations. Les résultats ont identifiés que la T21 et le SXF présentaient tous les deux un patron de SN et que le SXF présentait relativement une plus forte habituation indiquant des particularités spécifiques selon les syndromes.
Le deuxième volet, davantage clinique, permet de comparer les profils comportementaux associés au fonctionnement adaptatif entre les syndromes et à décrire les pistes d’intervention existantes. L’étude #3 a notamment mis en évidence que le QI et les symptômes de TDAH sont associés au fonctionnement adaptatif auprès de ces différents syndromes dont le SXF et la STB. Cet article a aussi permis de décrire les profils comportementaux de ces mêmes conditions en révélant davantage de difficultés rapportées chez les individus présentant un SXF, alors que la T21 présentait moins de particularités cliniques au niveau comportemental. Enfin, l’article #4 a mis en lumière diverses interventions utilisées auprès de la population présentant une DI notamment des stratégies cognitivo-comportementales et compensatoires.
Cette thèse permet donc de dresser un portrait spécifique de ces syndromes génétiques concernant leur signature électrophysiologique lors du traitement sensoriel et de l’apprentissage ainsi que sur le plan des comorbidités comportementales et de leur relation avec le fonctionnement adaptatif, pour ensuite aborder les interventions actuelles en DI. Les diverses particularités identifiées à plusieurs niveaux ont permis de générer des suggestions pouvant guider certaines interventions futures. / Down syndrome (DS), Fragile X syndrome (FXS), Tuberous sclerosis complex (TSC) and SYNGAP1 mutations are caused by dysfunctions of the molecular pathways which lead among others to an imbalance in excitation and inhibition of the neuronal activity that would impact the brain development and its functioning. However, it is difficult to directly bridge the gap between the molecular imbalances observed in animal models with the structural, functional and cognitive characteristics observed in human with these syndromes. To our knowledge, few studies have compared those different genetic syndromes on sensory processing, basic learning or on their behavioural issues using similar and translational paradigms then allowing a better understanding of their specificities.
The first part of this thesis aims to identify whether electroencephalographic activity would be an adequate biomarker representing neurobiological alterations both in sensory processing and learning in humans with these syndromes. The goal of study #1 was to describe auditory sensory processing, as a very first basic process, in SYNGAP1 mutations being a genetic condition still little studied in humans. Results showed a decrease in phase synchronization and an increase in the power of gamma band which distinguish this genetic condition both from participants without ID and from DS. Still in order to identify electroencephalographic biomarkers, but this time at a basic cognitive level, study #2 aimed to compare all these syndromes in a repetition suppression (RS) paradigm in order to observe the presence of RS and compare basic learning in these populations. The results identified a RS pattern in both DS and FXS. FXS also exhibited relatively higher habituation then indicating specific features according to the syndrome.
The second part, addressing clinical aspects, permits to compare the behavioural profiles associated with adaptive functioning between syndromes and to describe existing interventions on ID population. Study #3 notably highlighted that IQ and ADHD symptoms are associated with adaptive functioning especially in FXS and TSC. This article also made it possible to describe the behavioural profiles of these syndromes, revealing more difficulties reported in individuals with FXS, while DS presented fewer behavioural issues. Finally, article #4 highlighted various interventions used with ID population, notably cognitive-behavioural and compensatory strategies.
This thesis therefore makes it possible to gain a better understanding of these genetic syndromes concerning their electrophysiological signature during sensory processing and learning as well as in terms of behavioural comorbidities and their relationship with adaptive functioning, to then address current ID interventions. These different syndromic particularities identified at several levels made it possible to generate suggestions that could guide future interventions in this field.
|
84 |
Contributions à la sonification d’image et à la classification de sonsToffa, Ohini Kafui 11 1900 (has links)
L’objectif de cette thèse est d’étudier d’une part le problème de sonification d’image
et de le solutionner à travers de nouveaux modèles de correspondance entre domaines
visuel et sonore. D’autre part d’étudier le problème de la classification de son et de le résoudre
avec des méthodes ayant fait leurs preuves dans le domaine de la reconnaissance
d’image.
La sonification d’image est la traduction de données d’image (forme, couleur, texture,
objet) en sons. Il est utilisé dans les domaines de l’assistance visuelle et de l’accessibilité
des images pour les personnes malvoyantes. En raison de sa complexité, un
système de sonification d’image qui traduit correctement les données d’image en son de
manière intuitive n’est pas facile à concevoir.
Notre première contribution est de proposer un nouveau système de sonification
d’image de bas-niveau qui utilise une approche hiérarchique basée sur les caractéristiques
visuelles. Il traduit, à l’aide de notes musicales, la plupart des propriétés d’une
image (couleur, gradient, contour, texture, région) vers le domaine audio, de manière
très prévisible et donc est facilement ensuite décodable par l’être humain.
Notre deuxième contribution est une application Android de sonification de haut
niveau qui est complémentaire à notre première contribution car elle implémente la traduction
des objets et du contenu sémantique de l’image. Il propose également une base
de données pour la sonification d’image.
Finalement dans le domaine de l’audio, notre dernière contribution généralise le motif
binaire local (LBP) à 1D et le combine avec des descripteurs audio pour faire de
la classification de sons environnementaux. La méthode proposée surpasse les résultats
des méthodes qui utilisent des algorithmes d’apprentissage automatique classiques et
est plus rapide que toutes les méthodes de réseau neuronal convolutif. Il représente un
meilleur choix lorsqu’il y a une rareté des données ou une puissance de calcul minimale. / The objective of this thesis is to study on the one hand the problem of image sonification
and to solve it through new models of mapping between visual and sound domains.
On the other hand, to study the problem of sound classification and to solve it with
methods which have proven track record in the field of image recognition.
Image sonification is the translation of image data (shape, color, texture, objects)
into sounds. It is used in vision assistance and image accessibility domains for visual
impaired people. Due to its complexity, an image sonification system that properly conveys
the image data to sound in an intuitive way is not easy to design.
Our first contribution is to propose a new low-level image sonification system which
uses an hierarchical visual feature-based approach to translate, usingmusical notes, most
of the properties of an image (color, gradient, edge, texture, region) to the audio domain,
in a very predictable way in which is then easily decodable by the human being.
Our second contribution is a high-level sonification Android application which is
complementary to our first contribution because it implements the translation to the audio
domain of the objects and the semantic content of an image. It also proposes a dataset
for an image sonification.
Finally, in the audio domain, our third contribution generalizes the Local Binary
Pattern (LBP) to 1D and combines it with audio features for an environmental sound
classification task. The proposed method outperforms the results of methods that uses
handcrafted features with classical machine learning algorithms and is faster than any
convolutional neural network methods. It represents a better choice when there is data
scarcity or minimal computing power.
|
85 |
Synaptopathie cochléaire chez l’humain : effets de l’exposition au bruit continu et impulsionnelPinsonnault-Skvarenina, Alexis 05 1900 (has links)
La surdité professionnelle constitue un problème de santé publique important, avec une prévalence estimée de 10 à 16%. Les études animales ont mis en évidence une perte des synapses entre les cellules ciliées internes et le nerf auditif et des fibres auditives présentant une activité spontanée faible. Cette synaptopathie cochléaire se manifesterait avant la dégradation des seuils auditifs et la perte des cellules ciliées externes, étant ainsi un précurseur à la surdité professionnelle. L’audiogramme utilisé en milieu clinique ne permet pas de mesurer la synaptopathie cochléaire, se contentant seulement de quantifier la perte d’audibilité causée par l’exposition au bruit. Des études post-mortem humaines ont permis d’identifier une synaptopathie cochléaire, similaire à celle observée dans le modèle animal. Étant donné que la quantification des synapses chez l'humain vivant n'est pas possible, les chercheurs se sont concentrés sur le développement d’outils pouvant servir de marqueur indirect de la synaptopathie cochléaire. À cet égard, les résultats sont divergents d’une étude à l’autre. Il est possible que ces outils ne soient pas sensibles ou que l’exposition au bruit investiguée dans la littérature ne soit pas suffisante pour entraîner une synaptopathie cochléaire chez l’humain. L’objectif de cette thèse est donc d’évaluer les effets d’une exposition au bruit industriel continu et au bruit impulsionnel, qui pourraient s’avérer plus nocives et entraîner un processus précoce de synaptopathie cochléaire. Des individus présentant des seuils auditifs et des émissions otoacoustiques dans la normale ont été investigués à l’aide de mesures électrophysiologiques et psychoacoustiques.
Dans la première étude, 40 participants exposés au bruit industriel continu et 40 participants sans exposition au bruit industriel continu ont été recrutés et évalués à l’aide d’un test de perception de la parole dans le bruit (SPiN) et de différentes composantes du potentiels évoqués auditifs du tronc cérébral (PEATC). L’exposition au bruit des participants a été mesurée par dosimétrie. Les résultats ne montrent pas d’association entre l’exposition au bruit et les variables du PEATC et du SPiN.
Dans la deuxième étude, 27 participants militaires exposés au bruit impulsionnel et 13 participants sans exposition au bruit impulsionnel ont été recrutés. Les PEATC, l’électrocochléographie, le SPiN et la largeur des filtres auditifs rectangulaires équivalents (ERB) ont été mesurés. L’exposition au bruit des participants a été quantifiée à l’aide du Noise Exposure Structured Interview. Les résultats montrent une réduction de l’amplitude de l’onde I, un allongement de la latence de l’onde V, des performances réduites de SPiN et un ERB plus large à 4 kHz chez les militaires exposés au bruit impulsionnel, en comparaison aux participants sans exposition au bruit impulsionnel.
Cette thèse est importante d’un point de vue de santé publique puisqu’elle suggère que certains outils cliniques simples, comme la mesure des filtres auditifs, pourraient permettre de détecter les premiers signes d’un dommage auditif avant l’apparition d’une surdité professionnelle mesurée par l’audiogramme. Les résultats renforcent l’importance de la sensibilisation aux risques induits par l’exposition au bruit afin de prévenir l’apparition des troubles de communication et des situations de handicap découlant de la présence d’une surdité professionnelle. / Occupational hearing loss constitutes an important public health problem, with an estimated prevalence of 10 to 16%. Animal studies have shown a phenomenon of synapses dysfunction between the inner hair cells and the auditory nerve and a preferential loss of low spontaneous rate auditory fibers. This cochlear synaptopathy manifests itself before the degradation of hearing thresholds and the loss of outer hair cells, thus being a precursor damage to occupational hearing loss. The audiogram used in a clinical setting does not measure cochlear synaptopathy, only quantifying the loss of audibility caused by noise exposure. In humans, post-mortem studies have identified a process of cochlear synaptopathy, similar to that observed in the animal model. Since quantification of synapses in living humans is not possible, researchers focused on developing a noninvasive measurement that could serve as an indirect marker for cochlear synaptopathy. Several tools have been proposed, but the results vary from one study to another. It is possible that these tools are not sensitive or that noise exposures investigated in the literature is not sufficient to cause cochlear synaptopathy in humans. The objective of this thesis is therefore to evaluate the effects of exposure to continuous industrial noise and impulse noise, which could prove to be more harmful and lead to an accelerated process of cochlear synaptopathy. To this end, individuals with normal hearing thresholds and otoacoustic emissions were investigated using electrophysiological and psychoacoustical measurements.
In the first study, 40 participants with occupational noise exposure and 40 participants without occupational noise exposure were recruited and evaluated using a speech perception in noise (SPiN) test and different components of the auditory brainstem response (ABR). Participants’ noise exposure was measured by dosimetry. The results do not show an association between noise exposure and the ABR and SPiN variables.
In the second study, 27 military participants exposed to impulse noise and 13 participants without exposure to impulse noise were recruited. ABR, electrocochleography, SPiN and the equivalent rectangular bandwidth (ERB) of auditory filters were measured. Participants' noise exposure was quantified using the Noise Exposure Structured Interview. Results show a reduced wave I amplitude, a lengthened wave V latency, a reduced SPiN performance, and a broader ERB at 4 kHz in military recruits exposed to impulse noise, compared to participants without exposure to impulse noise.
This thesis is important from a public health point of view since it suggests that certain simple clinical tools, such as the measurement of auditory filters, might make it possible to detect the first signs of auditory damage before the onset of hearing loss measured by the audiogram. Results reinforce the importance of raising awareness to the risks induced by noise exposure in order to prevent the appearance of communication disorders and handicaps resulting from the presence of occupational hearing loss.
|
86 |
Modulation centrale du fonctionnement cochléaire chez l’humain : activation et plasticité / Central modulation of cochlear functioning in human : activation and plasticityPerrot, Xavier 27 April 2009 (has links)
Le système auditif possède deux particularités. En périphérie, les mécanismes cochléaires actifs (MCA), sous-tendus par la motilité des cellules ciliées externes (CCE), interviennent dans la sensibilité auditive et la sélectivité fréquentielle. Sur le versant central, le système efférent olivocochléaire médian (SEOCM), qui se projette sur les CCE et module les MCA, améliore la perception auditive en milieu bruité. Sur le plan exploratoire, ces deux processus peuvent être évalués grâce aux otoémissions acoustiques provoquées (OEAP) et leur suppression controlatérale. Par ailleurs, des résultats expérimentaux chez l’animal ont montré l’existence d’un rétrocontrôle exercé par le système auditif corticofuge descendant (SACD) sur la cochlée, via le SEOCM.Le présent travail comporte trois études réalisées chez l’humain, visant à explorer les interactions entre SACD, SEOCM et MCA. Les études 1 et 2, utilisant une méthodologie innovante chez des patients épileptiques réalisant une stéréo-électroencéphalographie, ont révélé un effet atténuateur différentiel de la stimulation électrique intracérébrale sur l’amplitude des OEAP, en fonction des modalités de stimulation, ainsi qu’une variabilité de cet effet selon les caractéristiques de l’épilepsie. L’étude 3 a montré un renforcement bilatéral de l’activité du SEOCM chez des musiciens professionnels.Pris dans leur ensemble, ces résultats fournissent d’une part, des arguments directs et indirects en faveur de l’existence d’un SACD fonctionnel chez l’humain. D’autre part, des phénomènes de plasticité à long terme, pathologique ou supranormale, seraient susceptibles de modifier l’activité de cette voie cortico-olivocochléaire. / The auditory system has two special features. At peripheral level, active cochlear micromechanisms (ACM), underlain by motility of outer hair cells (OHC), are involved in auditory sensitivity and frequency selectivity. At central level, the medial olivocochlear efferent system (MOCES), which directly projects onto OHC to modulate ACM, improves auditory perception in noise. From an exploratory point of view, both processes can be assessed through transient evoked otoacoustic emissions (TEOAE) and the procedure of contralateral suppression. In addition, experimental data in animals have disclosed a top-down control exerted by corticofugal descending auditory system (CDAS) on cochlea, via MOCES.The present work comprises three studies carried out in human, aiming to investigate interactions between CDAS, MOCES and ACM. The first and second studies, based on an innovative experimental procedure in epileptic patients undergoing presurgical stereoelectroencephalography, have revealed a differential attenuation effect of intracerebral electrical stimulation on TEOAE amplitude depending on stimulation modalities, as well as a variability of this effect depending on the clinical history of epilepsy. The third study has shown a bilateral enhancement of MOCES activity in professional musicians.Taking together, these results provide direct and indirect evidence for the existence of a functional CDAS in humans. Moreover, possible long-term plasticity phenomenon, either pathological –as in epileptic patients– or supernormal –as in professional musicians– may change cortico-olivocochlear activity.
|
Page generated in 0.0227 seconds