Return to search

Inteligência computacional aplicada na geração de respostas impulsivas bi-auriculares e em aurilização de salas / Computational intelligence applied to binaural impulse responses generation and room auralization

Fundação Carlos Chagas Filho de Amparo a Pesquisa do Estado do Rio de Janeiro / Neste trabalho é apresentada uma nova abordagem para obter as respostas impulsivas
biauriculares (BIRs) para um sistema de aurilização utilizando um conjunto de
redes neurais artificiais (RNAs). O método proposto é capaz de reconstruir as respostas
impulsivas associadas à cabeça humana (HRIRs) por meio de modificação espectral e de
interpolação espacial. A fim de cobrir todo o espaço auditivo de recepção, sem aumentar
a complexidade da arquitetura da rede, uma estrutura com múltiplas RNAs (conjunto) foi
adotada, onde cada rede opera uma região específica do espaço (gomo). Os três principais
fatores que influenciam na precisão do modelo arquitetura da rede, ângulos de abertura
da área de recepção e atrasos das HRIRs são investigados e uma configuração ideal é
apresentada. O erro de modelagem no domínio da frequência é investigado considerando
a natureza logarítmica da audição humana. Mais ainda, são propostos novos parâmetros
para avaliação do erro, definidos em analogia com alguns dos bem conhecidos parâmetros
de qualidade acústica de salas. Através da metodologia proposta obteve-se um ganho computacional,
em redução do tempo de processamento, de aproximadamente 62% em relação
ao método tradicional de processamento de sinais utilizado para aurilização. A aplicabilidade
do novo método em sistemas de aurilização é reforçada mediante uma análise
comparativa dos resultados, que incluem a geração das BIRs e o cálculo dos parâmetros
acústicos biauriculares (IACF e IACC), os quais mostram erros de magnitudes reduzidas. / This work presents a new approach to obtain the Binaural Impulse Responses
(BIRs) for an auralization system by using a committee of artificial neural networks
(ANNs). The proposed method is capable to reconstruct the desired modified Head
Related Impulse Responses (HRIRs) by means of spectral modification and spatial interpolation.
In order to cover the entire auditory reception space, without increasing the
networks architecture complexity, a structure with multiple RNAs (group) was adopted,
where each network operates in a specific reception region (bud). The three major
parameters that affect the models accuracy the networks architecture, the reception
regions aperture angles and the HRIRs time shifts are investigated and an optimal
setup is presented. The modeling error, in the frequency domain, is investigated considering
the logarithmic nature of the human hearing. Moreover, new parameters are
proposed for error evaluation in the time domain, defined in analogy with some of the
well known acoustical quality parameters in rooms. It was observed that the proposed
methodology obtained a computational gain of approximately 62%, in terms of processing
time reduction, compared to the classical signal processing method used to obtain
auralizations. The applicability of the new method in auralizations systems is validated by
comparative analysis, which includes the BIRs generation and calculation of the binaural
acoustic parameters (IACF and IACC), showing very low magnitude errors.

Identiferoai:union.ndltd.org:IBICT/urn:repox.ist.utl.pt:UERJ:oai:www.bdtd.uerj.br:5220
Date19 May 2014
CreatorsJosé Francisco Lucio Naranjo
ContributorsRoberto Aizik Tenenbaum, Julio Cesar Boscher Torres, Luiz Biondi Neto, Jose Roberto de Franca Arruda, Roberto Pinheiro Domingos, Ricardo Eduardo Musafir
PublisherUniversidade do Estado do Rio de Janeiro, Programa de Pós-Graduação em Modelagem Computacional, UERJ, BR
Source SetsIBICT Brazilian ETDs
LanguagePortuguese
Detected LanguagePortuguese
Typeinfo:eu-repo/semantics/publishedVersion, info:eu-repo/semantics/doctoralThesis
Formatapplication/pdf, application/pdf
Sourcereponame:Biblioteca Digital de Teses e Dissertações da UERJ, instname:Universidade do Estado do Rio de Janeiro, instacron:UERJ
Rightsinfo:eu-repo/semantics/openAccess

Page generated in 0.0023 seconds