• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 23
  • 5
  • 1
  • 1
  • Tagged with
  • 29
  • 11
  • 10
  • 10
  • 10
  • 10
  • 9
  • 8
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

La sonie des sons impulsionnels : perception, mesures et modèles

Boullet, Isabelle 17 June 2005 (has links) (PDF)
La sonie, intensité subjective d'un son est un paramètre psychoacoustique primordial dans l'évaluation de la gêne et dans les études sur la qualité sonore. Il existe à l'heure actuelle des modèles qui estiment bien la sonie de sons stationnaires, tels ceux de Zwicker (1958) et de Moore et coll. (1997). D'autres modèles (Zwicker et Fastl (1999) et Glasberg et Moore (2002)) existent pour calculer la sonie en fonction du temps mais présentent certaines limites pour donner la sonie globale de sons non stationnaires et en particulier de sons impulsionnels. Le but de ce travail de thèse est d'étudier la sonie de sons impulsionnels afin de pouvoir en proposer un estimateur pour éviter de mettre en œuvre des tests psychoacoustiques longs et onéreux, seul moyen aujourd'hui de connaître précisément la sonie de tels sons. L'originalité de ce travail a été de s'intéresser à des sons impulsionnels possédant une attaque rapide, pas de palier et une décroissance de forme exponentielle. Le choix de ces sons est basé sur l'observation de sons naturels que nous avons pu recenser dans notre environnement sonore. Un premier algorithme (ESI) a été proposé pour calculer la sonie à partir de caractéristiques physiques du signal telles que l'énergie et le temps de descente. Nous avons déterminé les lignes isosoniques, les fonctions de sonie et l'intégration temporelle de sons impulsionnels pour, non seulement déterminer les relations entre la sonie et les paramètres physiques du signal (fréquence, niveau et durée), mais aussi tester les modèles et en déterminer les domaines d'application. Les résultats de nos recherches étant en partie dédiés au domaine industriel et à la métrologie, nous nous sommes principalement intéressés au niveau d'isosonie, exprimé en phones. En effet, cette unité est plus pratique car elle est plus proche du niveau de pression, exprimé en dB SPL ou en dB(A), utilisé plus fréquemment. Nous avons donc déterminé la méthode de mesure du niveau d'isosonie la mieux adaptée à nos types de sons. Ainsi, la méthode d'ajustement a été retenue parmi quatre autres méthodes, pour sa fiabilité, sa stabilité et sa rapidité. Toutes ces données ont contribuées à déterminer des domaines d'application et des limites des modèles de sonie déjà proposés et de notre nouvel estimateur ainsi qu'à proposer un nouvel indice (Nimp), calculé à partir du modèle de Zwicker et Fastl (1999), pour donner une première approximation du niveau d'isosonie de sons impulsionnels.
12

Masquage auditif temps-fréquence : mesures psychoacoustiques et application à l'analyse-synthèse des sons

Necciari, Thibaud 25 October 2010 (has links) (PDF)
De nombreuses applications audio, telles que les outils d'analyse-synthèse ou les codeurs audio, nécessitent des représentations des signaux linéaires et adaptées aux signaux non stationnaires. Typiquement, ces représentations sont de types « Gabor » ou « ondelettes ». Elles permettent de décomposer n'importe quel signal en une somme de fonctions élémentaires (ou « atomes ») bien localisées dans le plan temps-fréquence (TF). Dans le but d'adapter ces représentations à la perception auditive humaine, ce travail porte sur l'étude du masquage auditif dans le plan TF. Dans la littérature, le masquage a été considérablement étudié dans les plans fréquentiel et temporel. Peu d'études se sont intéressées au masquage dans le plan TF. D'autre part, toutes ces études ont employé des stimuli de longue durée et/ou large bande, donc pour lesquels la concentration d'énergie dans le plan TF n'est pas maximale. En conséquence, les résultats ne permettent pas de prédire les effets de masquage entre des atomes TF. Au cours de cette thèse, le masquage a donc été mesuré dans le plan TF avec des stimuli — masque et cible — dotés d'une localisation TF maximale : des sinusoïdes modulées par une fenêtre Gaussienne de courte durée (ERD = 1,7 ms) et à support fréquentiel compact (ERB = 600 Hz). La fréquence du masque était fixée à 4 kHz et son niveau à 60 dB SL. Masque et cible étaient séparés en fréquence, en temps, ou en TF. Les résultats pour les conditions TF fournissent une estimation de l'étalement du masquage TF pour un atome. Les résultats pour les conditions fréquence et temps ont permis de montrer qu'une combinaison linéaire des fonctions de masquage fréquentiel et temporel ne fournit pas une représentation exacte du masquage TF pour un atome. Deux expériences supplémentaires ont été menées afin d'étudier les effets du niveau et de la fréquence du masque Gaussien sur le pattern de masquage fréquentiel. Une diminution du niveau du masque de 60 à 30 dB SL a provoqué un renversement de l'asymétrie des patterns de masquage et un rétrécissement de l'étalement spectral du masquage, conformément à la littérature. La comparaison sur une échelle ERB des patterns mesurés à 0,75 et 4 kHz a révélé un étalement spectral du masquage similaire pour les deux fréquences. Ce résultat est cohérent avec l'analyse fréquentielle à facteur de qualité constant du système auditif. La thèse s'achève sur une tentative d'implémentation des données psychoacoustiques dans un outil de traitement du signal visant à éliminer les atomes inaudibles dans les représentations TF des signaux sonores. Les applications potentielles d'une telle approche concernent les outils d'analyse-synthèse ou les codeurs audio.
13

Rôle de la ségrégation séquentielle pour la séparation de voix concurrentes

Gaudrain, Etienne 10 April 2008 (has links) (PDF)
La ségrégation séquentielle n'a été que très peu étudiée avec des signaux de parole et il est donc difficile d'évaluer l'implication de ce mécanisme dans la séparation de voix concurrentes. Il est aussi difficile d'identifier les indices qui sont pertinents pour la séparation de signaux de parole, ces indices ayant surtout été étudiés isolément à l'aide de signaux très simples. L'objet de cette thèse est d'étudier les indices perceptifs impliqués dans la ségrégation séquentielle de voyelles différant par leur hauteur fondamentale. Les investigations menées montrent que les indices spectraux de hauteur jouent un rôle dans ce phénomène. En revanche, la périodicité de l'enveloppe temporelle ne semble pas constituer un indice de hauteur exploitable dans le cas de la parole. Enfin, il semble que la capacité des sujets à percevoir ces deux types d'indices ne permette pas d'expliquer l'ensemble des variations de performances des sujets dans une tâche de ségrégation séquentielle de voyelles.
14

Localisation de sources sonores virtuelles : caractérisation de la variabilité inter-individuelle et effet de l'entraînement

Andeol, Guillaume 29 June 2012 (has links)
La variabilité inter-individuelle en localisation auditive a été étudiée à travers plusieurs expérimentations. La première expérimentation a exploré la variabilité inter-individuelle en localisation auditive de sources sonores virtuelles (HRTFs individuelles et non individuelles) dans une population de 25 auditeurs naïfs préalablement soumis à un entraînement procédural. D'après nos résultats, la variabilité inter-individuelle dans la dimension gauche/droite pourrait être liée à une préférence individuelle vers un type d'indices parmi ceux utilisables pour la localisation dans cette dimension (indices binauraux/spectraux). Dans les dimensions haut/bas et avant/arrière, la variabilité inter-individuelle pourrait être liée à l'attention spatiale et à sa variation entre les zones de l'espace. Une seconde expérimentation réalisée chez les mêmes auditeurs a montré qu'une amélioration des capacités de localisation était possible par un entraînement par feedback visuel ou audio-moteur. Cette amélioration était souvent fonction de la performance avant entraînement, conduisant ainsi à une réduction de la variabilité inter-individuelle après entraînement. La variabilité inter-individuelle dans la dimension haut/bas après entraînement était en partie expliquée par l'activité du faisceau olivocochléaire efférent médian (FOCEM), structure du système auditif probablement impliquée dans le codage des indices spectraux de localisation. Ce résultat a été conforté par les résultats d'une troisième expérimentation qui ont révélé que les auditeurs dont la performance de localisation était la moins altérée dans le bruit étaient ceux dont le FOCEM avait été déterminé comme le plus actif. / Several experiments were performed to investigate interindividual variability in auditory localization. The first experiment explored interindividual variability in the localization of virtual sound sources (individualized and non-individualized HRTFs) in 25 naive listeners following procedural training. The results suggest that interindividual variability in localization performance in the left-right dimension stems from interindividual differences in the use of the different types of cues available for sound localization in this dimension (binaural/spectral cues). Interindividual variability in sound-localization performance in the up-down and front-back dimensions appears to be related primarily to spatial attention and to its variation across the area of space. A second experiment in the same group of listeners showed that localization performance can be improved by the provision of visual or auditory-motor feedback. The improvement depended upon pre-training performance, in such a way that interindividual variability in performance was smaller after training than before training. In addition, interindividual variability in the up-down dimension after training was found to be related to interindividual differences in the activity of the medial olivocochlear bundle (MOCB), an efferent auditory system that is currently likely thought to be involved in the processing of spectral cues for sound localization. This result was supported by the results of a third experiment which revealed that the listeners in whom localization performance was least impacted by background noise were those in whom the strongest MOCB had been measured.
15

Influence de la stéréoscopie sur la perception du son : cas de mixages sonores pour le cinéma en relief / The influence of stereoscopy on sound perception : a case study on the sound mixing of stereoscopic-3D movies

Hendrickx, Etienne 04 December 2015 (has links)
Peu d'études ont été menées sur l'influence de la stéréoscopie sur la perception d'un mixage audio au cinéma. Les témoignages de mixeurs ou les articles scientifiques montrent pourtant une grande diversité d'opinions à ce sujet. Certains estiment que cette influence est négligeable, d'autres affirment qu'il faut totalement revoir notre conception de la bande-son, aussi bien au niveau du mixage que de la diffusion. Une première série d'expériences s'est intéressée à la perception des sons d'ambiance. 8 séquences, dans leurs versions stéréoscopiques (3D-s) et non-stéréoscopiques (2D), ont été diffusées dans un cinéma à des sujets avec plusieurs mixages différents. Pour chaque présentation, les sujets devaient évaluer à quel point le mixage proposé leur paraissait trop frontal ou au contraire trop « surround », le but étant de mettre en évidence une éventuelle influence de la stéréoscopie sur la perception de la balance frontal/surround d'un mixage audio. Les résultats obtenus ont rejoint ceux d'une expérience préliminaire menée dans un auditorium de mixage, où les sujets se trouvaient en situation de mixeur et devaient eux-mêmes régler la balance frontal/surround : l'influence de la stéréoscopie était faible et n'apparaissait que pour quelques séquences. Des études ont ensuite été menées sur la perception des objets sonores tels que dialogues et effets. Une quatrième expérience s'est intéressée à l'effet ventriloque en élévation : lorsque l'on présente à un sujet des stimuli audio et visuel temporellement coïncidents mais spatialement disparates, les sujets perçoivent parfois le stimulus sonore au même endroit que le stimulus visuel. On appelle ce phénomène l’effet ventriloque car il rappelle l'illusion créée par le ventriloque lorsque sa voix semble plutôt provenir de sa marionnette que de sa propre bouche. Ce phénomène a été très largement étudié dans le plan horizontal, et dans une moindre mesure en distance. Par contre, très peu d'études se sont intéressées à l'élévation. Dans cette expérience, nous avons présenté à des sujets des séquences audiovisuelles montrant un homme en train de parler. Sa voix pouvait être reproduite sur différents haut-parleurs, qui créaient des disparités plus ou moins grandes en azimut et en élévation entre le son et l'image. Pour chaque présentation, les sujets devaient indiquer si la voix semblait ou non provenir de la même direction que la bouche de l'acteur. Les résultats ont montré que l'effet ventriloque était très efficace en élévation, ce qui suggère qu'il n'est peut-être pas nécessaire de rechercher la cohérence audiovisuelle en élévation au cinéma. / Few psychoacoustic studies have been carried out about the influence of stereoscopy on the sound mixing of movies. Yet very different opinions can be found in the cinema industry and in scientific papers. Some argue that sound needs to be mixed differently for stereoscopic movies while others pretend that this influence is negligible.A first set of experiments was conducted, which focused on the perception of ambience. Eight sequences - in their stereoscopic (s-3D) and non-stereoscopic (2D) versions, with several different sound mixes - were presented to subjects. For each presentation, subjects had to judge to what extent the mix sounded frontal or “surround.” The goal was to verify whether stereoscopy had an influence on the perception of the front/surround balance of ambience. Results showed that this influence was weak, which was consistent with a preliminary experiment conducted in a mixing auditorium where subjects had to mix the front/surround balance of several sequences themselves.Studies were then conducted on the perception of sound objects such as dialogs or on-screen effects. A fourth experiment focused on ventriloquism in elevation: when presented with a spatially discordant auditory-visual stimulus, subjects sometimes perceive the sound and the visual stimuli as coming from the same location. Such a phenomenon is often referred to as ventriloquism, because it evokes the illusion created by a ventriloquist when his voice seems to emanate from his puppet rather than from his mouth. While this effect has been extensively examined in the horizontal plane and to a lesser extent in distance, few psychoacoustic studies have focused on elevation. In this experiment, sequences of a man talking were presented to subjects. His voice could be reproduced on different loudspeakers, which created disparities in both azimuth and elevation between the sound and the visual stimuli. For each presentation, subjects had to indicate whether or not the voice seemed to emanate from the mouth of the actor. Ventriloquism was found to be highly effective in elevation, which suggests that audiovisual coherence in elevation might be unnecessary in theaters.
16

L'effet de la fréquence fondamentale sur le timbre

Marozeau, Jeremy 25 October 2004 (has links) (PDF)
Cette thèse est dédiée à l'étude de l'effet de la fréquence fondamentale (Fo) sur le timbre. Elle relate sept expériences utilisant des stimuli issus d'instruments naturels ou synthétiques. <br> Les expériences effectuées consistaient à demander à des sujets de juger des dissemblances de timbre entre des paires de stimuli sans tenir compte de leur éventuelle différence de hauteur. Les expériences I-II et III utilisaient des stimuli issus d'instruments de musique de l'orchestre occidental. Les autres expériences utilisaient des stimuli synthétisés par addition de sons purs. L'expérience I présentait des paires de sons appariés en Fo. L'expérience II les présentait avec une différence constante de Fo. L'expérience III a fait varier dans la même session cette différence de Fo (dFo). L'expérience IV utilisait des stimuli synthétiques ne variant que par leur enveloppe temporelle et avec les mêmes dFo que celles de l'Exp. III. L'expérience V utilisait des stimuli ne variant que par leur centroïde spectral et avec les mêmes dFo que celles de l'Exp. III et IV. L'expérience VI utilisait également de stimuli ne variant que par leur centroïde spectral mais avec des dFo plus importantes. Finalement l'expérience VII utilisait de stimuli ne variant que par leur étalement spectral et avec les mêmes dFo que celles que l'Exp. VI. <br> Les résultats montrent que les sujets sont capables de juger une différence de timbre entre deux stimuli avec un écart important de Fo (du moins jusqu'à 18 demi-tons). Toutefois, une quantité proportionnelle à la dFo, mais faible par rapport au timbre, est ajoutée aux jugements de dissemblance, ayant pour conséquence l'apparition d'une dimension prédite par la Fo. <br> En première approximation, le timbre des instruments est stable face aux variations de la fréquence fondamentale. En deuxième approximation, des variations sont observées, mais elles restent faibles comparées aux différences entre les instruments. Ces variations peuvent être prédictibles par l'analyse du signal. <br> Aucun effet significatif de la Fo sur la dimension du timbre prédite par l'impulsivité n'a été observé. Cette dimension est donc considérée comme stable face à la Fo. <br> La dimension du timbre prédite par le centroïde spectral se déplace de façon uniforme vers le côté faible en fonction de la Fo. Le descripteur a donc été corrigé afin qu'il intègre cet effet. <br> Un léger effet significatif et dépendant du timbre a été observé sur la dimension perceptive liée à l'étalement spectral. Cette dimension reste toutefois relativement stable face à la Fo.
17

Spatial Auditory Blurring and Applications to Multichannel Audio Coding

Daniel, Adrien 23 June 2011 (has links) (PDF)
Ce travail se place en contexte de télécommunications, et concerne plus particulièrement la transmission de signaux audio multicanaux. Quatre expériences psychoacoustiques ont été menées de façon à étudier la résolution spatiale du système auditif - également appelée flou de localisation - en présence de sons distracteurs. Il en résulte que le flou de localisation augmente quand ces distracteurs sont présents, mettant en évidence ce que nous appellerons le phénomène de "floutage spatial" auditif. Ces expériences estiment l'effet de plusieurs variables sur le floutage spatial : la fréquence de la source sonore considérée ainsi que celles des sources distractrices, leur niveau sonore, leur position spatiale, et le nombre de sources distractrices. Exceptée la position des sources distractrices, toutes ces variables ont montré un effet significatif sur le floutage spatial. Cette thèse aborde également la modélisation de ce phénomène, de sorte que la résolution spatiale auditive puisse être prédite en fonction des caractéristiques de la scène sonore (nombre de sources présentes, leur fréquence, et leur niveau). Enfin, deux schémas de codage audio multicanaux exploitant ce modèle à des fins de réduction de l'information à transmettre sont proposés : l'un basé sur une représentation paramétrique (downmix + paramètres spatiaux) du signal multicanal, et l'autre sur la représentation Higher-Order Ambisonics (HOA). Ces schémas sont tous deux basés sur l'idée originale d'ajuster dynamiquement la précision de la représentation spatiale du signal multicanal de façon à maintenir les distorsions spatiales résultantes dans le flou de localisation, afin que celles-ci restent indétectables.
18

Vers des systèmes et outils de notation et de composition pour la musique électroacoustique / Towards notation and composition tools and systems for electroacoustic music

Meyssonnier, Thomas 02 November 2018 (has links)
Ce travail se situe dans le cadre de la recherche de systèmes de notation permettant de transcrire de façon symbolique l’aspect concret et sensoriel, et non seulement abstrait et structurel, des artefacts de la musique par ordinateur. Dans ce but, nous exposons tout d’abord un modèle formel complet et minimal des objets et structures audionumériques, en référence aux critères de la perception ; ce modèle est implémenté sous la forme d’un langage fonctionnel Turing-potent qui permet d’effectuer l’équivalence entre l’expression mathématique d’un signal et sa réalisation informatique. Puis, nous employons ce formalisme afin d’exprimer un ensemble de critères de synthèse sonore, ce qui donne lieu à un logiciel de synthèse dont l’expressivité est considérable. Ces outils sont organisés suivant le schéma des théories Schaefferiennes, par une décomposition catégorielle dans laquelle les paramètres correspondent à des notions morphologiques. Finalement, nous rendons compte d’une série d’expériences visant à évaluer la pertinence de ces critères dans l’audition humaine, avec le concours d’un musicologue, puis sur un ensemble de sujets, et enfin vis-à-vis d’un public aussi large que possible. Ceci nous conduit à remettre en question la méthodologie la plus adéquate pour traiter ce type de problème, qui nous rapproche des sciences humaines et sociales, et suggère une démarche de science participative. / This piece of work is situated in the context of research on notation systems enabled to transcribe symbolically the concrete and sensorial aspect, and not only the abstract and structural aspect, of computer music artefacts. In this perspective, we first expose a complete and minimal formal model for digital audio objects and structures, relatively to the criteria of perception ; this model is implemented as a Turing-potent functional language, that draws the correspondance between the mathematical expression of a signal and its computational realisation. Then, we apply this formal construction to the expression of a number of schemes for sound synthesis, producing a software synthetiser whose expressivity is consequent. These tools are organised following the lines of Schaefferian theories, through a decomposition into categories whose parameters correspond with morphological notions. Finally, we draw the conclusions of a series of experiments aiming to evaluate the relevance of those schemes in human hearing, with the assistance of a musicologist, then with a number of subjects, and eventually by associating a public that is as wide as possible. This leads us to question the methodology most appropriate to tackle this kind of problem, which brings us closer to social science, and suggests a participative science approach.
19

Étude et optimisation de la qualité sonore d'un véhicule récréatif motorisé

Benghanem, Abdelghani January 2017 (has links)
La qualité sonore (QS) est un facteur important dans la conception et pour la perception des produits, notamment dans le cas des véhicules. Il est donc fondamental d'étudier la qualité sonore des véhicules récréatifs motorisés. L'objectif est d'étudier le bruit généré par un véhicule récréatif motorisé (VRM) et de rendre ce dernier plus agréable pour le conducteur afin de rajouter plus de plaisir à l'expérience de conduite. Le projet est basé sur trois volets importants. Le premier volet consiste à identifier les paramètres physiques des différents composants acoustiques d'un véhicule récréatif motorisé, de conduire des tests d'écoute et d'en faire une étude statistique. Pour ce faire, plusieurs bases de données ont été déjà établies par des enregistrements binauraux correspondants à la position du pilote. Le deuxième volet consiste à définir une méthode de prédiction des résultats de tests d'écoute de préférence par des indicateurs psychoacoustiques dits objectifs, issus des signaux mesurés pour les tests d'écoute de préférence. L'originalité de cette partie est l'utilisation des méthodes statistiques de régression linéaire multiple pour la conception du modèle perceptif, et notamment l'algorithme Lasso qui permet la création de modèles de prédiction de qualité sonore parcimonieux. Le troisième volet consiste à concevoir un dispositif de modification et d'amélioration du son moteur, par filtrage numérique des signaux binauraux, puis étudier son effet à partir de la reproduction de sons simulés et mesurés.
20

Development of an objective procedure allowing frequency selectivity measurements using the masking function of auditory steady state evoked potentials

Markessis, Emily 10 June 2010 (has links)
<u><b>Introduction</u></b><p><p align = "justify">Les surdités cochléaires induisent, outre une audibilité réduite, une série de distorsions de la représentation neurale des sons. Deux des mécanismes à la base de ces distorsions sont d’une part une atteinte de la sélectivité fréquentielle et d’autre part des zones neuro-épithéliales non fonctionnelles. Tant le premier que le second mécanisme apparaissent dans une proportion variable et non prédictible d’un sujet à un autre. Deux tests permettent le diagnostic de ces atteintes spécifiques: la Courbe d’Accord (Tuning Curve: TC) et le Threshold Equalising Noise (TEN) test. La TC, mesurée par une technique psychoacoustique chez un adulte collaborant (Psychophysical TC: PTC), consiste en la mesure du niveau de bruit (masqueur) nécessaire pour masquer un son pur (signal) de fréquence et d’intensité fixes. Le TEN test consiste en la mesure des seuils auditifs dans le silence et en présence d’un bruit égalisateur de seuil (TEN). Ces tests qui requièrent des capacités cognitives adultes normales, ne sont pas applicables aux populations pédiatriques prélinguales.<p>Ce travail de thèse avait pour but le développement d’un équivalent objectif et non invasif des TCs et du TEN test applicable aux populations pédiatriques. La méthode objective choisie fut les potentiels auditifs stationnaires ou ASSEPs (Auditory Steady State Evoked Potentials). Les ASSEPs sont une réponse électrophysiologique cérébrale évoquée par un stimulus acoustique de longue durée modulé en amplitude et/ou en fréquence.</p align = "justify"><p><u><b>Méthodes & Résultats</u></b><p><p>Etape 1<p><p align = "justify">Les développements méthodologiques ont été réalisés sur l’espèce canine et humaine adulte. Les ASSEPs n’ayant jamais été préalablement enregistrés chez le chien, une première étape à consister à définir chez cette espèce les paramètres d’enregistrement optimaux (modulation en amplitude optimale) dont on sait qu’ils interagissent avec l’état veille-sommeil, avec la fréquence testée et probablement avec l’espèce animale investiguée. <p>A cette fin, les seuils auditifs obtenus chez 32 chiens à l’aide des ASSEPs ont été validés à cinq fréquences audiométriques par comparaison aux seuils obtenus avec les potentiels auditifs du tronc cérébral évoqués aux bouffées tonales. <p>Les seuils obtenus aux ASSEPs avec les paramètres optimaux d’enregistrement (légèrement différents des paramètres optimaux humains) étaient similaires à ceux obtenus aux bouffées tonales. <p>Ces résultats ont été publiés dans Clinical Neurophysiology (Markessis et al. 2006; 117: 1760-1771).</p align = "justify"><p>Etape 2<p><p align = "justify">La possibilité de mesurer des TCs à l’aide des ASSEPs (ASSEP-TCs) a été évaluée sur 10 chiens. Les données canines ont été comparées à des données de la littérature, çàd aux TC enregistrées chez d’autres espèces et avec d’autres méthodes. Des ASSEP-TCs ont également été enregistrées chez 7 humains adultes et confrontées aux PTCs obtenues chez les mêmes sujets. Les PTCs sont typiquement energistrées avec un signal sinusoïdal alors que le stimulus utilisé pour évoquer un ASSEP est une sinusoïde modulée en amplitude. L’effet des sinusoïdes modulées en amplitude sur les paramètres qualitatifs et quantitatifs des TCs a donc été évalué en comparant les PTCs obtenues avec un son pur et avec un son pur modulé en amplitude chez 10 humains adultes. <p>Les résultats ont révélé que les ASSEP-TCs enregistrées chez le chien et l’humain présentaient des paramètres qualitatifs et quantitatifs similaires respectivement à ceux décrits dans la littérature et aux PTCs. Par ailleurs, auncun effet des stimuli modulés en amplitude sur les paramètres des PTCs n’a été démontré.<p>Ces données ont été publiées dans Ear & Hearing (Markessis et al. 2009, 30: 43-53).</p align = "justify"><p>Etape 3<p><p align = "justify">Les ASSEP-TCs ont été validées chez 10 chiens en comparant les données aux TC enregistrées par électrocochléographie (Compound Action Potential TC: CAP-TC). Le masqueur utilisé pour les CAP-TCs est typiquement une sinusoïde alors que le masqueur utilisé pour les ASSEP-TCs est un bruit à bande étroite. Dès lors, une comparaison du type de masqueur (sinusoïde vs bruit à bande étroite) sur les paramètres des CAP-TCs et ASSEP-TCs a été réalisée chez 10 chiens.<p>Les ASSEP-TCs chez le chien se sont révélées qualitativement et quantitativement similaires aux CAP-TCs quel que soit le type de masqueur. Elles presentaient par ailleurs l’avantage d’être moins variables, plus précises et non invasives par rapport aux CAP-TCs. <p>Ces données ont été publiées dans International Journal of Audiology (Markessis et al. 2010, 49 ;455-62).</p align = "justify"><p>Etape 4<p><p align = "justify">Afin d’étudier la validité de la procédure à mettre en évidence des changements de sélectivité fréquentielle dus à une atteinte cochléaire, des ASSEP-TCs ont été obtenues chez 10 chiens cochléo-lésés suite à un trauma acoustique. Les Produits de Distorsion Acoustiques, les potentiels évoqués auditifs du tronc cérébral évoqués par un clic et les ASSEPs à cinq fréquences audiométriques ont été enregisrés afin de délimiter l’étendue de la lésion.<p>Les ASSEP-TCs ont été fortement altérées, mais pas comme attendu ni suggéré par les mesures fonctionnelles indiquant que le trauma acoustique a créé une lésion différente de celle espérée. <p>Cette étude doit être poursuivie, des lésions moins importantes créées et une validation histopathologique réalisée.</p align = "justify"><p>Etape 5<p><p align = "justify">Le TEN test a été mesuré à l’aide des ASSEPs (ASSEP-TEN) chez 12 adultes et cinq enfants normo-entendants. Les données adultes ont été confrontées aux données comportementales. L’effet des stimuli ASSEP (son pur modulé en amplitude) sur les TEN test a également été investigué en comparant les données comportementales obtenues avec une sinusoïde et avec une sinusoïde modulée en amplitude chez 24 adultes. <p>Les seuils masqués enregistrés aux ASSEPs étaient supérieurs à ceux mesurés par une épreuve comportementale. L’élévation des seuils masqués pose un problème potentiel de dynamique.<p>La procédure doit être testée chez des patients présentant une surdité cochléaire attendu que la différence entre les seuils auditifs mesurés aux ASSEPs et par une épreuve comportementale est moindre dans cette population. Dans la mesure où le problème de dynamique résiduelle persiste chez les patients malentendants, d’autres stimuli ou algorithmes d’enregistrement doivent être utilisés.</p align = "justify"><p>Etape 6<p><p align = "justify">Le TEN est un stimulus large bande. Il peut dès lors se révéler intolérable chez des patients présentant une atteinte auditive restreinte à une region fréquentielle. L’effet du filtrage du TEN sur les seuils et la sonie du TEN a été étudié chez 24 sujets normo-entendants et 35 patients présentant une perte cochléaire dans les hautes fréquences.<p>Le filtrage passe-haut du TEN s’est avéré être une solution satisfaisante.<p>Ces données ont été publiées dans International Journal of Audiology (Markessis et al. 2006; 45: 91-98).</p align = "justify"><p>Etape 7<p><p align = "justify">L’effet de l’intensité du TEN sur le diagnostic des zones neuro-épithéliales non fonctionnelles a été investigué chez 24 patients en mesurant les seuils masqués à quatre intensités de TEN différentes. La fiabilité du TEN test a également été évaluée. <p>Le TEN est une procédure fiable. L’intensité du TEN a affecté le diagnostic chez cinq patients. Ce résultat est interprété en termes de degré de l’atteinte du complexe neurosensoriel.<p>Ces données ont été publiées dans International Journal of Audiology (Markessis et al. 2009; 48: 55-62).</p align = "justify"><p><u><b>Conclusion</u></b><p><p align = "justify">Un algorithme permettant la mesure de TC et du TEN test objective à l’aide des ASSEPs a été développé. L’implémentation clinique de l’algorithme appliqué à l’enregistrement des CA paraît envisageable. Une importante étape de la corrélation entre modifications anatomiques (à l’aide de l’histopathologie) et physiologiques (ASSEP-TC et CAP-TC) est maintenant celle qui s’impose. Les données préliminaires obtenues sur le TEN test électrophysiologique chez des sujets normo-entendants suggèrent que son implémentation clinique puisse se heurter à un problème de dynamique si ce dernier est confirmé en présence de surdités cochléaires. Plusieurs pistes potentielles de solutions ont été avancées.</p align = "justify"> / Doctorat en Sciences biomédicales et pharmaceutiques / info:eu-repo/semantics/nonPublished

Page generated in 0.4532 seconds