• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • 3
  • 2
  • Tagged with
  • 7
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Auralização de fontes sonoras móveis usando HRTFs / Auralisation of moving sound sources using HRTFs

Sousa, Gustavo Henrique Montesião de 29 April 2010 (has links)
Este trabalho tem por objetivo desenvolver ferramentas que permitam gerar em fones-de-ouvido o efeito psicoacústico de fontes sonoras locomovendo-se no espaço, por meio da auralização do sinal monofônico original. Embora a auralização binaural possa ser feita empregando variações de atraso (chamadas ITD interaural time difference, ou diferença de tempo interaural) e de intensidade (chamadas ILD interaural level difference, ou diferença de nível interaural) entre os canais, melhores resultados psicoacústicos podem ser obtidos ao se utilizar filtros digitais conhecidos como HRTFs (head related transfer functions, ou funções de transferência relativas à cabeça). Uma HRTF insere no sinal monofônico informações que possibilitam ao sistema auditivo identificá-lo como proveniente de uma direção específica, direção esta que é única para cada HRTF. Para posicionar uma fonte estática em uma direção específica, bastaria, então, filtrar o sinal original pela HRTF da direção desejada. Se, no entanto, for desejável que a fonte se locomova em uma trajetória contínua, um número infinitamente grande de filtros seria necessário. Como eles são, normalmente, obtidos empiricamente, um número arbitrariamente alto deles não está disponível. Disso surge a necessidade de técnicas de interpolação de HRTFs, que possibilitem gerar os filtros intermediários não disponíveis. Este trabalho apresenta três novas técnicas de interpolação de HRTFs, para assim alcançar o objetivo de auralizar fontes sonoras móveis: a interpolação triangular, que é uma técnica de interpolação linear baseada na técnica de panorama sonoro VBAP (vector-based amplitude panning, ou panorama sonoro baseado em vetores); o método das movimentações discretas, que busca explorar o limiar de percepção do nosso sistema auditivo para, com isso, gerar uma técnica extremamente barata computacionalmente; e a interpolação espectral, que altera continuamente as estruturas das HRTFs para gerar filtros interpolados. São apresentadas também as implementações feitas dessas novas técnicas desenvolvidas, bem como os testes numéricos realizados para medir sua eficácia. / The goal of this work is the development of tools that allow simulating through headphones the psychoacoustic effect of sound sources moving in space, by the auralisation of the original monophonic signals. Although binaural auralisation can be implemented using variations in delays (called ITD interaural time difference) and in intensities (called ILD interaural level difference) among channels, better psychoacoustic results can be achieved using digital filters known as HRTFs (head related transfer functions). A HRTF inserts in the monophonic signal information that allow the auditory system to perceive this signal to be as if coming from a specific direction, which is unique for each single HRTF. Thus, to position a static sound source at a specific direction, filtering the original signal with the HRTF from the desired direction would be enough. Nevertheless, if it is desired that the sound source moves in a continuous trajectory, an infinitely large amount of filters would be necessary. Since they are usually obtained by measurements, such an arbitrarily large amount of them is not available. In this case, HRTF interpolation techniques that generate intermediary filters must be used. This work presents three new HRTF interpolation techniques in order to auralise moving sound sources: the triangular interpolation, a linear interpolation technique based on the VBAP amplitude panning technique; the discrete movements method, an extremely efficient technique that exploits the auditory systems limitations in perceiving very small changes in direction; and the spectral interpolation, that alters continuously the structures of the HRTFs to generate interpolated filters. Implementations of these techniques are discussed and numerical tests are also presented.
2

Auralização de fontes sonoras móveis usando HRTFs / Auralisation of moving sound sources using HRTFs

Gustavo Henrique Montesião de Sousa 29 April 2010 (has links)
Este trabalho tem por objetivo desenvolver ferramentas que permitam gerar em fones-de-ouvido o efeito psicoacústico de fontes sonoras locomovendo-se no espaço, por meio da auralização do sinal monofônico original. Embora a auralização binaural possa ser feita empregando variações de atraso (chamadas ITD interaural time difference, ou diferença de tempo interaural) e de intensidade (chamadas ILD interaural level difference, ou diferença de nível interaural) entre os canais, melhores resultados psicoacústicos podem ser obtidos ao se utilizar filtros digitais conhecidos como HRTFs (head related transfer functions, ou funções de transferência relativas à cabeça). Uma HRTF insere no sinal monofônico informações que possibilitam ao sistema auditivo identificá-lo como proveniente de uma direção específica, direção esta que é única para cada HRTF. Para posicionar uma fonte estática em uma direção específica, bastaria, então, filtrar o sinal original pela HRTF da direção desejada. Se, no entanto, for desejável que a fonte se locomova em uma trajetória contínua, um número infinitamente grande de filtros seria necessário. Como eles são, normalmente, obtidos empiricamente, um número arbitrariamente alto deles não está disponível. Disso surge a necessidade de técnicas de interpolação de HRTFs, que possibilitem gerar os filtros intermediários não disponíveis. Este trabalho apresenta três novas técnicas de interpolação de HRTFs, para assim alcançar o objetivo de auralizar fontes sonoras móveis: a interpolação triangular, que é uma técnica de interpolação linear baseada na técnica de panorama sonoro VBAP (vector-based amplitude panning, ou panorama sonoro baseado em vetores); o método das movimentações discretas, que busca explorar o limiar de percepção do nosso sistema auditivo para, com isso, gerar uma técnica extremamente barata computacionalmente; e a interpolação espectral, que altera continuamente as estruturas das HRTFs para gerar filtros interpolados. São apresentadas também as implementações feitas dessas novas técnicas desenvolvidas, bem como os testes numéricos realizados para medir sua eficácia. / The goal of this work is the development of tools that allow simulating through headphones the psychoacoustic effect of sound sources moving in space, by the auralisation of the original monophonic signals. Although binaural auralisation can be implemented using variations in delays (called ITD interaural time difference) and in intensities (called ILD interaural level difference) among channels, better psychoacoustic results can be achieved using digital filters known as HRTFs (head related transfer functions). A HRTF inserts in the monophonic signal information that allow the auditory system to perceive this signal to be as if coming from a specific direction, which is unique for each single HRTF. Thus, to position a static sound source at a specific direction, filtering the original signal with the HRTF from the desired direction would be enough. Nevertheless, if it is desired that the sound source moves in a continuous trajectory, an infinitely large amount of filters would be necessary. Since they are usually obtained by measurements, such an arbitrarily large amount of them is not available. In this case, HRTF interpolation techniques that generate intermediary filters must be used. This work presents three new HRTF interpolation techniques in order to auralise moving sound sources: the triangular interpolation, a linear interpolation technique based on the VBAP amplitude panning technique; the discrete movements method, an extremely efficient technique that exploits the auditory systems limitations in perceiving very small changes in direction; and the spectral interpolation, that alters continuously the structures of the HRTFs to generate interpolated filters. Implementations of these techniques are discussed and numerical tests are also presented.
3

Contrôle du champ acoustique en milieu réverbérant et applications à la communication

Yon, Sylvain 08 October 2001 (has links) (PDF)
Le travail présenté dans ce manuscrit trouve son origine dans l'ensemble des recherches menées au laboratoire ondes et acoustique sur la technique du retournement temporel dans le cadre de l'acoustique ultrasonore. C'est dans le but d'appliquer cette technique à la gamme des fréquences audibles que j'ai tout d'abord effectué un stage de DEA, puis ma thèse, sous la direction de Mathias Fink. Une des principales propriétés du retournement temporel est de permettre d'obtenir une focalisation de bonne qualité même lorsque le milieu est complexe, comme cela est le cas par exemple lorsque la propagation est perturbée par un grand nombre de réflexions. Pour cette raison, la première motivation de ces travaux était de concevoir un système capable d'émettre des messages sonores, de parole ou de musique, focalisés spatialement. Ce genre de système aurait par exemple permis d'envoyer des messages dans des langues différentes à différents endroits, serait capable de fonctionner dans des pièces réverbérantes, comme peuvent l'être la plupart des lieux de conférence ou de travail. Malheureusement, les caractéristiques physiques des signaux rencontrés dans le monde de l?audio, qu?il s?agisse de parole ou de musique, rendent délicate, voire impossible, l?utilisation d?un tel système, comme nous pourrons le voir au cours des deux premiers chapitres. Cette observation nous a inspiré deux réflexions : tout d?abord, quelles applications pratiques peut-on trouver à une technique de focalisation en acoustique audible ; ensuite, ces techniques principalement étudiées à des fins d?imagerie dans le domaine ultrasonore, et pas du tout dans le but de transmettre de l?information. Notre deuxième réflexion sera alors de tenter de mesurer la capacité d?une technique de focalisation à transmettre de l?information, y compris dans un milieu complexe du point de vue de la propagation.
4

Reproduction sonore de modèles vibroacoustiques 3D de plaques par wave field synthesis

Bolduc, Anthony January 2015 (has links)
Bien que l'évaluation perceptive et les tests de qualité sonore soient maintenant reconnus comme des parties essentielles du processus de développement de produit dans plusieurs domaines, ils sont rarement mis en oeuvre en utilisant des techniques de reproduction sonore spatiale. À la place, différentes présentations auditives (par exemple: stéréophoniques, Surround ou binaurales) sont utilisées. Ce mémoire propose une méthode pour utiliser des modèles vibroacoustiques courants en ingénierie pour commander des systèmes audio basés sur la Wave Field Synthesis 2.5D et formés de plusieurs réseaux linéaires de haut-parleurs. Des opérateurs pour Wave Field Synthesis (WFS) 2.5D améliorés sont proposés, pour une application dans un contexte d'ingénierie. Les opérateurs sont étudiés pour plusieurs cas de reproduction de modèles analytiques vibroacoustiques 3D de plaques (sources primaires étendues extérieures ou focalisées). La méthode accepte aussi en intrant d'autres types de modèles (méthode des éléments finis, méthode des éléments frontière). Des simulations de reproduction en champ libre démontrent que les opérateurs développés permettent une reproduction physique acceptable. Des reproductions physiques mesurées dans une salle WFS suggèrent que les nombreux effets de salle (réflexions et diffractions) modifient les caractéristiques reproduites du modèle. Globalement, de nombreuses similitudes existent entre les mesures et les simulations, soit les amplitudes globales, les distributions spatiales et temporelles, ainsi que les directions d'arrivée des fronts d'onde. Les caractéristiques spatiales et sonores des modèles sont bien reproduites, soit le patron de directivité, l'étendue spatiale perçue et le timbre. Cette validité est limitée dans le plan horizontal de reproduction, choix inhérent à la WFS 2.5D. On peut tirer du travail de l'étudiant quelques contributions originales: 1) Un opérateur WFS 2.5D qui permet des sources primaires étendues focalisées et extérieures pour une configuration formée de plusieurs réseaux linéaires de haut-parleurs. 2) Un facteur de compensation d'amplitude et de phase pour les sources primaires hors du plan de reproduction, adapté au nouveau concept de ligne de référence. 3) Une proposition pour ne pas utiliser la simplification traditionnelle en WFS qui suppose que la source virtuelle est suffisamment loin des haut-parleurs. 4) Un facteur de correction d'énergie, ce qui permet l'obtention des bons niveaux physiques pour la reproduction. 5) L'application de la Wave Field Synthesis telle que développée dans une partie d'un processus de développement de produit acoustique, c'est-à-dire l'auralisation d'une mesure de perte par transmission ou de perte par insertion de panneaux, afin d'illustrer le potentiel d'utilisation en ingénierie.
5

Simulation de champs sonores de haute qualité pour des applications graphiques interactives

Tsingos, Nicolas 04 December 1998 (has links) (PDF)
Ce travail porte sur la simulation de champs sonores de haute qualité pour des applications graphiques interactives. Dans ce cadre, nous nous sommes intéressé à trois problèmes : le calcul interactif des effets de l'occultation des ondes sonores par des obstacles, l'intégration du son dans un système d'animation et de réalité virtuelle et la simulation adaptative des réflections du son dans des environnements réverbérants. Nous présentons une méthode originale permettant d'approcher les effets des obstacles sur la propagation des ondes sonores. Cette méthode qualitative est fondée sur le calcul de l'obstruction des premiers ellipsoïdes de Fresnel. Pour cela nous utilisons le rendu câblé des cartes graphiques spécialisées pour effectuer un calcul interactif entre une source et un récepteur ponctuels dans des environnements généraux. Une extension plus quantitative, basée sur la théorie de Fresnel-Kirchhoff est également décrite. Nous décrivons également un système interactif de simulation acoustique. Il permet le rendu synchronisé du son et de l'image dans le cadre d'applications d'animation de synthèse et de réalité virtuelle. Nous y avons intégré notre approche de traitement des occultations sonores. Nous présentons comment d'autres effets, comme les réflections spéculaires du son ou l'effet Doppler sont également pris en compte. Enfin, nous introduisons une technique originale de simulation adaptative fondée sur un formalisme proche de la radiosité hiérarchique utilisée en synthèse d'images. Elle permet de prendre en compte efficacement des réflections globales spéculaires et diffuses dans le cadre d'échanges énergétiques dépendants du temps. La solution obtenue est indépendante du point d'écoute et ouvre la porte à des applications de parcours interactifs de l'environnement virtuel. En outre, la complexité du processus peut être contrôlée, permettant des applications plus quantitatives, comme la prévision des qualités acoustiques de lieux d'écoute. Ces trois contributions peuvent permettre de réaliser un système de simulation complet d'une scène sonore virtuelle pouvant être utilisé dans une variété d'applications. Celles-ci ne se limitent toutefois pas à l'acoustique, mais peuvent être étendues à la simulation de propagation d'ondes radioélectriques pour la téléphonie mobile ou les réseaux sans fils.
6

Dynamic sound rendering of complex environments

Loyet, Raphaël 18 December 2012 (has links) (PDF)
De nombreuses études ont été menées lors des vingt dernières années dans le domaine de l'auralisation.Elles consistent à rendre audible les résultats d'une simulation acoustique. Ces études se sont majoritairementfocalisées sur les algorithmes de propagation et la restitution du champ acoustique dans desenvironnements complexes. Actuellement, de nombreux travaux portent sur le rendu sonore en tempsréel.Cette thèse aborde la problématique du rendu sonore dynamique d'environnements complexes selonquatre axes : la propagation des ondes sonores, le traitement du signal, la perception spatiale du son etl'optimisation informatique. Dans le domaine de la propagation, une méthode permettant d'analyser lavariété des algorithmes présents dans la bibliographie est proposée. A partir de cette méthode d'analyse,deux algorithmes dédiés à la restitution en temps réel des champs spéculaires et diffus ont été extraits.Dans le domaine du traitement du signal, la restitution est réalisée à l'aide d'un algorithme optimisé despatialisation binaurale pour les chemins spéculaires les plus significatifs et un algorithme de convolutionsur carte graphique pour la restitution du champ diffus. Les chemins les plus significatifs sont extraitsgrace à un modèle perceptif basé sur le masquage temporel et spatial des contributions spéculaires.Finalement, l'implémentation de ces algorithmes sur des architectures parallèles récentes en prenant encompte les nouvelles architectures multi-coeurs et les nouvelles cartes graphiques est présenté.
7

Dynamic sound rendering of complex environments / Rendu sonore dynamique d'environnements complexes

Loyet, Raphaël 18 December 2012 (has links)
De nombreuses études ont été menées lors des vingt dernières années dans le domaine de l’auralisation.Elles consistent à rendre audible les résultats d’une simulation acoustique. Ces études se sont majoritairementfocalisées sur les algorithmes de propagation et la restitution du champ acoustique dans desenvironnements complexes. Actuellement, de nombreux travaux portent sur le rendu sonore en tempsréel.Cette thèse aborde la problématique du rendu sonore dynamique d’environnements complexes selonquatre axes : la propagation des ondes sonores, le traitement du signal, la perception spatiale du son etl’optimisation informatique. Dans le domaine de la propagation, une méthode permettant d’analyser lavariété des algorithmes présents dans la bibliographie est proposée. A partir de cette méthode d’analyse,deux algorithmes dédiés à la restitution en temps réel des champs spéculaires et diffus ont été extraits.Dans le domaine du traitement du signal, la restitution est réalisée à l’aide d’un algorithme optimisé despatialisation binaurale pour les chemins spéculaires les plus significatifs et un algorithme de convolutionsur carte graphique pour la restitution du champ diffus. Les chemins les plus significatifs sont extraitsgrace à un modèle perceptif basé sur le masquage temporel et spatial des contributions spéculaires.Finalement, l’implémentation de ces algorithmes sur des architectures parallèles récentes en prenant encompte les nouvelles architectures multi-coeurs et les nouvelles cartes graphiques est présenté. / During the past twenty years many studies have been conducted in the field of auralization, which aimsat rendering audible the results of an acoustic simulation. These studies have mainly focused on thepropagation algorithms and the sound field audio rendering for complex environments. Currently, muchresearch concentrates on real-time audio rendering.This thesis addresses the problematic of real-time audio rendering of complex environments accordingto four axes: sound propagation, Digital Signal Processing (DSP), spatial perception of sound andcomputational optimizations. In the field of propagation, a method that aims at analyzing the varietyof existing algorithms is proposed. This method yields two algorithms dedicated to the real-time propagationof both specular and diffuse information. In the field of DSP, the auralization is performed withan efficient binaural spatialization module for the most significant specular information, and a GPUconvolution algorithm for the diffuse sound field auralization. The most significant paths are extractedthanks to a perceptive model based on temporal and spatial masking of the specular contributions.Finally, the implementation of these algorithms on recent computer architectures, taking advantage ofthe parallel processing of the new CPUs, and the benefits of GPUs for DSP calculations is presented.

Page generated in 0.1349 seconds