Spelling suggestions: "subject:"binaural"" "subject:"binaurally""
1 |
Individualisation de l'écoute binaurale : création et transformation des indices spectraux et des morphologies des individus / Binaural hearing individualization : acquisition and transformation of spectral cues and individuals’ morphologiesRugeles Ospina, Felipe 22 July 2016 (has links)
Cette thèse se concentre sur l'individualisation des HRTF pour la synthèse binaurale. Les systèmes permettant de mesurer des HRTF sont difficiles d'accès au grand public, ce qui pose un problème pour la démocratisation de l'audio binaurale de haute qualité. C'est pour cette raison que nous recherchons une méthode permettant de calculer les HRTF d'une personne qu'à partir de la connaissance de sa morphologie. Ces travaux de thèse avancent sur les investigations visant à avoir une technique de personnalisation de l'audio binaurale. La technique de personnalisation proposée part du principe qu'il existe un lien direct et systématique liant des paramètres de la morphologie d'un individu avec les indices spectraux de ses HRTF. Elle est basée sur la détermination d'une fonction qui prend en entrée des paramètres morphologiques et qui donne en sortie des paramètres de transformation à appliquer à un jeu de HRTF existant pour obtenir un jeu de HRTF personnalisé. Cette fonction est estimée à partir d'analyses statistiques faits sur une base de données contenant des modèles numériques des individus ainsi que leurs HRTF. Pour atteindre cet objectif, il faut construire dans un premier temps les données à partir desquelles nous allons estimer notre fonction de personnalisation. Ces travaux expliquent les systèmes que nous avons conçus pour mesurer les HRTF des individus ainsi que pour obtenir leur modèle numérique tridimensionnel. De plus, les protocoles de mesure associés à chaque système sont expliqués. Enfin, nous expliquons comment les données obtenues peuvent être exploitées pour développer un procédé de personnalisation des HRTF. / This thesis focuses on the HRTF individualization problem in the context of binaural synthesis for general applications. HRTF strongly depend on morphological features of a person and, in order to provide compelling auditory spaces, binaural synthesis requires the use of individualized HRTF. Measuring or calculating the HRTF of a listener are common but lengthy and costly methods that are not feasible for general public applications. That is the reason why we aim to develop an alternative technique to obtain customized HRTF. The technique proposed relies on estimating the spectral cues of the HRTF, corresponding to the colorations induced by pinna filtering, from a person's morphology. The spectral cues represent the most complex and individual part of HRTF. The work presented in this thesis is based on the existence of a direct and systematic link between the morphology of a person and the spectral cues of their HRTF. The goal is to start from individualization techniques of HRTF and make studies for better understanding the relationship between the morphology of a person and their HRTF. The ultimate goal is then to find a proper morphological matching personalization technique. The first step to achieve this goal is to build the measuring systems who will help us create the databases that we will use for our analyses. This thesis explains the two measuring systems that were created and the measuring protocols that were used to create two related databases containing the 3D models and the measured HRTFs of a collection of people. We then explain how these databases can be used to fit the HRTF individualization technique we have proposed.
|
2 |
Timing cues for azimuthal sound source localization / Indices temporels pour la localisation des sources sonores en azimuthBenichoux, Victor 25 November 2013 (has links)
La localisation des sources en azimuth repose sur le traitement des différences de temps d'arrivée des sons à chacune des oreilles: les différences interaurales de temps (``Interaural Time Differences'' (ITD)). Pour certaines espèces, il a été montré que cet indice dépendait du spectre du signal émis par la source. Pourtant, cette variation est souvent ignorée, les humains et les animaux étant supposés ne pas y être sensibles. Le but de cette thèse est d'étudier cette dépendance en utilisant des méthodes acoustiques, puis d'en explorer les conséquences tant au niveau électrophysiologique qu'au niveau de la psychophysique humaine. A la proximité de sphères rigides, le champ sonore est diffracté, ce qui donne lieu à des régimes de propagation de l'onde sonore différents selon la fréquence. En conséquence, quand la tête d'un animal est modélisée par une sphère rigide, l'ITD pour une position donnée dépend de la fréquence. Je montre que cet effet est reflété dans les indices humains en analysant des enregistrements acoustiques pour de nombreux sujets. De plus, j'explique cet effet à deux échelles: localement en fréquence, la variation de l'ITD donne lieu à différents délais interauraux dans l'enveloppe et la structure fine des signaux qui atteignent les oreilles. Deuxièmement, l'ITD de sons basses-fréquences est généralement plus grand que celui pour des sons hautes-fréquences venant de la même position. Dans une seconde partie, je discute l'état de l'art sur le système binaural sensible à l'ITD chez les mammifères. J'expose que l'hétérogénéité des réponses de ces neurones est prédite lorsque l'on fait l'hypothèse que les cellules encodent des ITDs variables avec la fréquence. De plus, je discute comment ces cellules peuvent être sensibles à une position dans l'espace, quel que soit le spectre du signal émis par la source. De manière générale, j'argumente que les données disponibles chez les mammifères sont en adéquation avec l'hypothèse de cellules sélectives à une position dans l'espace. Enfin, j'explore l'impact de la dépendance en fréquence de l'ITD sur le comportement humain, en utilisant des techniques psychoacoustiques. Les sujets doivent faire correspondre la position latérale de deux sons qui n'ont pas le même spectre. Les résultats suggèrent que les humains perçoivent des sons avec différents spectres à la même position lorsqu'ils ont des ITDs différents, comme prédit part des enregistrements acoustiques. De plus, cet effet est prédit par un modèle sphérique de la tête du sujet. En combinant des approches de différents domaines, je montre que le système binaural est remarquablement adapté aux indices disponibles dans son environnement. Cette stratégie de localisation des sources utilisée par les animaux peut être d'une grande inspiration dans le développement de systèmes robotiques. / Azimuth sound localization in many animals relies on the processing of differences in time-of-arrival of the low-frequency sounds at both ears: the interaural time differences (ITD). It was observed in some species that this cue depends on the spectrum of the signal emitted by the source. Yet, this variation is often discarded, as humans and animals are assumed to be insensitive to it. The purpose of this thesis is to assess this dependency using acoustical techniques, and explore the consequences of this additional complexity on the neurophysiology and psychophysics of sound localization. In the vicinity of rigid spheres, a sound field is diffracted, leading to frequency-dependent wave propagation regimes. Therefore, when the head is modeled as a rigid sphere, the ITD for a given position is a frequency-dependent quantity. I show that this is indeed reflected on human ITDs by studying acoustical recordings for a large number of human and animal subjects. Furthermore, I explain the effect of this variation at two scales. Locally in frequency the ITD introduces different envelope and fine structure delays in the signals reaching the ears. Second the ITD for low-frequency sounds is generally bigger than for high frequency sounds coming from the same position. In a second part, I introduce and discuss the current views on the binaural ITD-sensitive system in mammals. I expose that the heterogenous responses of such cells are well predicted when it is assumed that they are tuned to frequency-dependent ITDs. Furthermore, I discuss how those cells can be made to be tuned to a particular position in space irregardless of the frequency content of the stimulus. Overall, I argue that current data in mammals is consistent with the hypothesis that cells are tuned to a single position in space. Finally, I explore the impact of the frequency-dependence of ITD on human behavior, using psychoacoustical techniques. Subjects are asked to match the lateral position of sounds presented with different frequency content. Those results suggest that humans perceive sounds with different frequency contents at the same position provided that they have different ITDs, as predicted from acoustical data. The extent to which this occurs is well predicted by a spherical model of the head. Combining approaches from different fields, I show that the binaural system is remarkably adapted to the cues available in its environment. This processing strategy used by animals can be of great inspiration to the design of robotic systems.
|
3 |
Audition et démasquage binaural chez l'homme / Binaural hearing and binaural masking release in humanLorenzi, Antoine 14 December 2016 (has links)
Contexte : Le démasquage binaural est un processus indispensable pour la compréhension en environnement bruyant. Ce mécanisme ferait intervenir la comparaison d’indices temporels et fréquentiels tout au long des voies nerveuses auditives. Cependant, il n’existe pas de réel consensus évoquant un traitement du démasquage à un niveau sous-cortical et/ou cortical. L’objet de cette étude est d’étudier ces indices temporels et fréquentiels du démasquage par le biais d’une étude perceptive, puis d’une étude électroencéphalographique (EEG). Matériels et méthodes : Une population normoentendante a été évaluée lors d’une étude perceptive visant à estimer l’importance du démasquage en fonction de 1) la largeur fréquentielle du bruit controlatéral (de 1 octave, 3 octaves ou à large bande), 2) la cohérence temporelle des bruits bilatéraux (corrélation égale à 0 ou 1) et 3) la fréquence des stimuli cibles (0,5, 1, 2 et 4 kHz). Puis, le démasquage a été évalué en EEG par l’étude 1) des latences précoces (<10 ms, PEA-P), 2) des latences tardives (<50 ms, PEA-T) et 3) de l’onde de discordance (PEA-MMN). Pour ces trois études EEG, l’influence de la cohérence temporelle des bruits bilatéraux a été explorée.Résultats : L’étude perceptive traduit un démasquage croissant lorsque la largeur fréquentielle du bruit controlatéral augmente. L’ajout du bruit controlatéral non corrélé (corrélation=0) se traduit par une amélioration de détection de 1,28 dB, quelle que soit la fréquence des stimuli cibles (antimasquage), alors que l’ajout d’un bruit controlatéral corrélé (corrélation=1) évoque une amélioration de détection lorsque la fréquence des stimuli cibles diminue (démasquage) : 0,97 dB à 4 kHz et 9,25 dB à 0,5 kHz. En PEA-P, les latences des ondes III et V se raccourcissent lorsqu’un bruit controlatéral corrélé ou non corrélé est ajouté (≈0,1 ms). En PEA-T, les amplitudes des ondes P1, N1 et des complexes P1N1 et N1P2 augmentent lorsqu’un bruit controlatéral corrélé ou non corrélé est ajouté. Enfin, l’amplitude de la MMN est plus conséquente lorsque le bruit controlatéral ajouté est corrélé (versus non corrélé). Conclusion : L’étude perceptive explicite l’importance des indices spectraux (antimasquage) et temporels (démasquage), pour améliorer la perception d’un signal initialement masqué. L’étude EEG suggère, quant à elle, un traitement sous-cortical influencé uniquement par les indices spectraux (antimasquage) et un traitement plus cortical influencé par les indices temporels (démasquage). / Background: Binaural unmasking is an essential process for understanding in noisy environments. This mechanism would involve the comparison of time and frequency cues throughout the hearing nerve pathways. However, there is no real consensus evoking a treatment of a binaural masking release at a subcortical and/or a cortical level. The purpose of this study is to investigate the time and frequency cues of the binaural unmasking through a perceptual study, and then through an electroencephalographic study (EEG).Materials and Methods: Normal hearing people were evaluated with a perceptive study to estimate the importance of the binaural unmasking according to 1) the frequency width of the contralateral noise (1 octave, 3 octaves or broadband), 2) the temporal coherence of bilateral noises (correlation equal to 0 or 1) and 3) the frequency of the target stimuli (0.5, 1, 2 and 4 kHz). Binaural unmasking was then evaluated with EEG by studying 1) early latencies (<10 ms, PEA-P), 2) late latencies (<50 ms, PEA-T) and 3), the mismatch wave (PEA- MMN). For these three EEG studies, the influence of the temporal coherence of bilateral noise was investigated.Results: The study shows a growing perceptive binaural unmasking when the frequency width of the contralateral noise increases. The addition of an uncorrelated contralateral noise (correlation = 0) results in a 1.28 dB detection enhancement, regardless of the frequency of the target stimuli (antimasking), while adding a contralateral correlated noise (correlation = 1) refers to a detection enhancement when the frequency of the target stimuli decreases (unmasking): 0.97 dB at 4 kHz and 9.25 dB at 0.5 kHz. The latencies of waves III and V are shortened when a contralateral correlated or uncorrelated noise is added (≈0,1 ms) in the PEA-P. The amplitudes of P1, N1 waves and P1N1 and N1P2 complex increase when contralateral correlated or uncorrelated noise is added in PEA-T. Finally, the amplitude of the MMN is higher when a contralateral correlated noise is added (versus an uncorrelated one).Conclusion: The perceptual study shows the significance of spectral cues (antimasking) and temporal cues (unmasking), to improve the perception of an initially masked signal. The EEG study suggests a subcortical treatment which is only influenced by spectral cues (antimasking) and a cortical processing, influenced by temporal cues (unmasking).
|
4 |
Mouvement actif pour la localisation binaurale de sources sonores en robotique / Active motion for binaural localization of sound sources in roboticsBustamante, Gabriel 05 September 2017 (has links)
Ce travail s'inscrit dans le contexte de la localisation de source sonore depuis un capteur binaural (constitué de deux microphones placés sur un élément diffusant) doté de mobilité. Un schéma de localisation "active" en trois phases est considéré : (a) estimation de primitives spatiales par une analyse court-terme du flux audio ; (b) localisation audio-motrice par assimilation de ces données et combinaison avec les ordres moteurs du capteur au sein d'un schéma d'estimation stochastique ; (c) commande en boucle fermée du mouvement du capteur de façon à améliorer la qualité de la localisation. Les recherches portent sur la définition de stratégies de "mouvement actif" constituant la phase (c). Le problème est formulé comme la maximisation d'un critère d'information défini à partir des lois de filtrage de la position relative capteur-source sur un horizon temporel glissant dans le futur (plus exactement de son espérance sur les observations qui seront assimilées sur cet horizon conditionnellement aux observations passées). Cet horizon peut être constitué du prochain instant ou des N prochains instants, ce qui donne lieu à une stratégie "one-step-ahead" ou "N-step-ahead", respectivement. Une approximation de ce critère par utilisation de la transformée "unscented" et le calcul automatique du gradient de celle-ci par exploitation des nombres duaux, permettent la détermination de la commande (en boucle fermée sur l'audio donc) à appliquer au capteur. Les résultats ont été validés par des simulations réalistes, et, pour certains, par des expérimentations sur un ensemble tête-torse anthropomorphe doté de perception binaurale et de mobilité. / This work takes place within the field of sound source localization from a binaural sensor (consisting of two microphones placed on a diffusing element) endowed with mobility. An "active" three-phase localization scheme is considered: (a) estimation of spatial primitives by a short-term analysis of the audio stream; (B) audio-motor localizatio! n by assimilation of these data and combination with the! motor commands of the sensor within a stochastic estimation scheme; (C) closed-loop control of the movement of the sensor in order to improve the quality of the location. The research focuses on the definition of "active motion" strategies constituting phase (c). The problem is formulated as the maximization over a receding horizon of an information criterion defined from the filtering pdfs of the relative sensor-to-source position (more exactly of the maximization of its expectation on the N observations that will be assimilated on this horizon conditionally to the past observations). This horizon can consist of the next time instant or the next N time instants, what gives rise to a "one-step-ahead" or "N-step-ahead" strategy, respectively. An approximation of this criterion by using the unscented transform and the automatic calculation of its gradient by using the dual numbers allow the determination of the control (therefore, in closed loop on the audio) to be applied to the sensor. The results were validated by realistic simulations and, for some of them, by experiments on an anthropomorphic head-and-torso simulator endowed with binaural perception and mobility.
|
5 |
Individualisation d'indices acoustiques pour la synthèse binauraleBusson, Sylvain 31 January 2006 (has links) (PDF)
La synthèse binaurale est la technique de spatialisation sonore la plus proche de<br />l'écoute naturelle. Elle permet un rendu spatialisé d'une source monophonique à une po-<br />sition donnée avec seulement deux filtres qui correspondent aux oreilles gauche et droite :<br />les HRTF (Head Related Transfer Function). L'inconvénient majeur de la technique bi-<br />naurale repose sur le fait que les HRTF, liées à la morphologie de l'auditeur, sont propres<br />à chaque utilisateur. Une écoute avec des HRTF non-individuelles comporte des artefacts<br />audibles. Il faut donc acquérir des HRTF individuelles. Cette thèse aborde le problème<br />de l'individualisation de la synthèse binaurale dans le cadre de son implémentation en un<br />retard pur, la différence interaurale de temps (ITD), et un filtre à phase minimale déter-<br />miné par le module de la HRTF. Le travail sur l'ITD permet de valider l'implémentation<br />choisie même pour les positions où les HRTF sont mal décrites par des filtres à phase<br />minimale et permet de déterminer, parmi les méthodes classiques de calcul de l'ITD,<br />celles qui estiment une ITD proche de la perception. Une étude expérimentale est aussi<br />menée pour établir la résolution de l'ITD avec l'angle d'élévation. Les résultats indiquent<br />la nécessité perceptive de reproduire les variations de l'ITD en élévation. Une nouvelle<br />formule d'estimation de l'ITD créée sur la base d'un modèle de tête sphérique, la formule<br />de déplacement des oreilles (FDO), est développée pour rendre compte de ces variations.<br />L'optimisation des paramètres de cette formule aux ITD de toute une base de données<br />de HRTF permet d'entrevoir une formulation moyenne convenant pour un grand nombre<br />de personne et pour de nombreuses applications. L'étude s'est ensuite focalisée sur la<br />modélisation du module spectral (filtre à phase minimale). Le travail réalisé sur l'appli-<br />cation des méthodes de calcul par éléments de frontière (BEM pour Boundary Element<br />Method) pour l'acquisition de HRTF, indique que cette méthode, peut notamment être<br />utilisée en complément des mesures pour l'acquisition de la partie basse fréquence des<br />HRTF. Une approche originale, qui applique des techniques d'apprentissage statistique,<br />est proposée et étudiée pour la modélisation de HRTF. Un réseau de neurones artificiels<br />(RNA) est entra^³né pour calculer des HRTF d'un individu à partir de la connaissance<br />des HRTF mesurées en un nombre réduit de positions. Les premiers résultats sont en-<br />courageants : le modèle permet d'atteindre un degré assez fin d'individualisation, ce qui<br />suggère un protocole simplifié d'acquisition de HRTF. Un faible nombre de mesures est<br />acquis et les autres sont prédites par le modèle.
|
6 |
Holophonie binaurale - Spatialisation sonore sur réseaux de haut-parleurs circumaurauxGreff, Raphaël 25 November 2008 (has links) (PDF)
Les systèmes de réalité virtuelle ont pour objectif de plonger les utilisateurs dans un espace suggéré artificiellement par des informations multi-sensorielles, auditive entre autres. Le positionnement des sources sonores dans l'espace constitue un facteur important d'immersion et contribue grandement au réalisme d'une scène virtuelle. La synthèse binaurale est la technique de spatialisation sonore qui s'approche le plus de l'écoute naturelle. Elle permet de spatialiser un événement sonore monophonique à l'aide de seulement deux filtres, les HRTF (Head-Related Transfer Functions), caractérisant la propagation acoustique de la source vers les oreilles d'un auditeur. Les différences de temps d'arrivée et de niveau de pression au niveau des tympans sont des indices de localisation primordiaux pour estimer de la latéralité d'une source, mais sont insuffisants pour la situer précisément en élévation. Le contenu spectral des HRTF contient les indices permettant cette discrimination, notamment les pics et creux en hautes fréquences induits par les effets de diffraction au sein des pavillons d'oreille. L'inconvénient majeur de la technique binaurale repose donc sur le fait que les HRTF sont propres à chaque utilisateur, car liés aux déformations subies par l'onde sonore lorsqu'elle rencontre les différentes parties du corps humain. Une écoute avec des filtres non individuels comporte des artéfacts perceptibles. Il est donc nécessaire d'acquérir des HRTF individuelles. La mesure ou le calcul numérique sont des méthodes couramment utilisées pour l'estimation de ces dernières, mais sont trop coûteuse en temps et en moyen pour être employées dans des applications grand public. D'autres procédés de personnalisation des HRTF tentent de modéliser le lien entre la morphologie d'un auditeur et les indices de localisation qui lui sont associés, en se basant sur des mesures anthropométriques. Cependant, l'estimation correcte des paramètres morphologiques ne peut être garantie que via l'utilisation d'outils de mesure robuste et souvent onéreux, notamment pour les dimensions liées aux pavillons d'oreille. Cette thèse propose une nouvelle approche d'individualisation des HRTF, fondée sur une séparation des indices de localisation liés au torse et à la tête de ceux liés aux pavillons. La composante tête/torse est modélisée numériquement alors que la composante pavillonnaire est recrée à l'aide de réseaux de haut-parleurs entourant chacun des pavillons d'oreille de l'auditeur. L'idée de cette méthode est d'essayer d'exciter les véritables indices acoustiques induits par la diffraction du front d'onde reconstruit sur les pavillons. Ce nouveau concept, que nous appellerons " holophonie binaurale ", car dérivé de techniques holophonique et binaurale, est développé dans ce manuscrit : différentes simulations ont été menées dans des cas de figure idéaux, et différentes optimisations sont proposées pour améliorer le fonctionnement du procédé pour un nombre réaliste de transducteurs. Ces études ont conduit à la conception et à l'évaluation d'un prototype de casque multi-haut-parleur dédié.
|
7 |
Manipulations spatiales de sons spectrauxMouba Ndjila, Joan 09 November 2009 (has links)
Dans les applications d'écoute active, il est primordial de pouvoir interagir avec les sources individuelles présentes dans le mix, par exemple en changeant leur position spatiale. Dans cette thèse, nous avons proposé des techniques binaurales pour la localisation et la spatialisation, basées sur les différences interaurales en amplitude et en temps d'arrivée. Les techniques sont développées dans le plan temps-fréquence. Elles permettent de localiser et de projeter toute source dans l'espace environnant un auditeur. aussi nous avons mis au point des techniques de séparation binaurale de source basées sur le Maximum de vraisemblance et de masques spatiaux probabilistes. Enfin nous avons étendu les techniques binaurales à des techniques multi-diffusion utilisant un ensemble de haut-parleurs. Les techniques proposées sont éprouvées et comparées à des techniques de référence de la littérature. Pour des performances similaires aux techniques existantes, nos propositions ont un avantage significatif en terme de complexité qui les rendent appropriées aux applications temps-réel. / In active listening applications, it is important to be able to interact with individual sources present in the mix, for example by changing their spatial position. In this thesis, we proposed techniques for binaural localization and spatialization, based on interaural differences in amplitude and in time of arrival. The techniques are developed in the time-frequency plane. They can locate and project sources in the space surrounding a listener. We also developed binaural source separation methods based on the Maximum Likelihood and on spatial probabilistic masks. Finally, we extended binaural spatialization techniques to multi-diffusion techniques which use a set of speakers for diffusion. The proposed techniques are tested and compared to referenced, well-known techniques. For similar performance with the existing ones, our proposed techniques highlight complexity advantages and are suitable for real-time applications.
|
8 |
L'individualisation des indices spectraux pour la spatialisation acoustique : étude perceptive de la variabilité inter-individuelle dans les fonctions de transfert relatives à la têteSchönstein, David 12 September 2012 (has links) (PDF)
Cet ensemble de travaux porte sur les effets acoustiques de filtrage de la tête et du corps, ou la fonction de transfert acoustique (HRTF), et son rôle dans la perception des sources sonores dans l'espace. Des méthodes pour créer une illusion auditive haute fidélité, ce qu'on appelle un espace acoustique virtuel, en utilisant l'HRTF sont explorées. Un facteur essentiel pour générer une illusion convaincante est l'utilisation des HRTFs propres à l'auditeur. À cet effet, et dans l'intérêt de produire une solution adaptée pour le marché des consommateurs, une technique permettant de sélectionner un HRTF personnalisé à partir d'une base de données à l'aide d'un ensemble de dimensions de la tête et du corps a été évaluée. La validation a utilisé des jugements perceptifs d'un test d'écoute, et la fiabilité de ces jugements a été analysée. Une étude sur l'impact du type de casque utilisé a également été effectuée.
|
9 |
Dynamic sound rendering of complex environmentsLoyet, Raphaël 18 December 2012 (has links) (PDF)
De nombreuses études ont été menées lors des vingt dernières années dans le domaine de l'auralisation.Elles consistent à rendre audible les résultats d'une simulation acoustique. Ces études se sont majoritairementfocalisées sur les algorithmes de propagation et la restitution du champ acoustique dans desenvironnements complexes. Actuellement, de nombreux travaux portent sur le rendu sonore en tempsréel.Cette thèse aborde la problématique du rendu sonore dynamique d'environnements complexes selonquatre axes : la propagation des ondes sonores, le traitement du signal, la perception spatiale du son etl'optimisation informatique. Dans le domaine de la propagation, une méthode permettant d'analyser lavariété des algorithmes présents dans la bibliographie est proposée. A partir de cette méthode d'analyse,deux algorithmes dédiés à la restitution en temps réel des champs spéculaires et diffus ont été extraits.Dans le domaine du traitement du signal, la restitution est réalisée à l'aide d'un algorithme optimisé despatialisation binaurale pour les chemins spéculaires les plus significatifs et un algorithme de convolutionsur carte graphique pour la restitution du champ diffus. Les chemins les plus significatifs sont extraitsgrace à un modèle perceptif basé sur le masquage temporel et spatial des contributions spéculaires.Finalement, l'implémentation de ces algorithmes sur des architectures parallèles récentes en prenant encompte les nouvelles architectures multi-coeurs et les nouvelles cartes graphiques est présenté.
|
10 |
Dynamic sound rendering of complex environments / Rendu sonore dynamique d'environnements complexesLoyet, Raphaël 18 December 2012 (has links)
De nombreuses études ont été menées lors des vingt dernières années dans le domaine de l’auralisation.Elles consistent à rendre audible les résultats d’une simulation acoustique. Ces études se sont majoritairementfocalisées sur les algorithmes de propagation et la restitution du champ acoustique dans desenvironnements complexes. Actuellement, de nombreux travaux portent sur le rendu sonore en tempsréel.Cette thèse aborde la problématique du rendu sonore dynamique d’environnements complexes selonquatre axes : la propagation des ondes sonores, le traitement du signal, la perception spatiale du son etl’optimisation informatique. Dans le domaine de la propagation, une méthode permettant d’analyser lavariété des algorithmes présents dans la bibliographie est proposée. A partir de cette méthode d’analyse,deux algorithmes dédiés à la restitution en temps réel des champs spéculaires et diffus ont été extraits.Dans le domaine du traitement du signal, la restitution est réalisée à l’aide d’un algorithme optimisé despatialisation binaurale pour les chemins spéculaires les plus significatifs et un algorithme de convolutionsur carte graphique pour la restitution du champ diffus. Les chemins les plus significatifs sont extraitsgrace à un modèle perceptif basé sur le masquage temporel et spatial des contributions spéculaires.Finalement, l’implémentation de ces algorithmes sur des architectures parallèles récentes en prenant encompte les nouvelles architectures multi-coeurs et les nouvelles cartes graphiques est présenté. / During the past twenty years many studies have been conducted in the field of auralization, which aimsat rendering audible the results of an acoustic simulation. These studies have mainly focused on thepropagation algorithms and the sound field audio rendering for complex environments. Currently, muchresearch concentrates on real-time audio rendering.This thesis addresses the problematic of real-time audio rendering of complex environments accordingto four axes: sound propagation, Digital Signal Processing (DSP), spatial perception of sound andcomputational optimizations. In the field of propagation, a method that aims at analyzing the varietyof existing algorithms is proposed. This method yields two algorithms dedicated to the real-time propagationof both specular and diffuse information. In the field of DSP, the auralization is performed withan efficient binaural spatialization module for the most significant specular information, and a GPUconvolution algorithm for the diffuse sound field auralization. The most significant paths are extractedthanks to a perceptive model based on temporal and spatial masking of the specular contributions.Finally, the implementation of these algorithms on recent computer architectures, taking advantage ofthe parallel processing of the new CPUs, and the benefits of GPUs for DSP calculations is presented.
|
Page generated in 0.0616 seconds