• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 52
  • 30
  • 11
  • 11
  • 9
  • 4
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 143
  • 143
  • 143
  • 41
  • 40
  • 39
  • 32
  • 31
  • 26
  • 25
  • 24
  • 22
  • 19
  • 17
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Aplicação da análise de componentes independentes em estudo de eventos em finanças / Independent component analysis application on events study in finance

Franco, Alexandre Lerch January 2008 (has links)
Nas últimas duas décadas, estudos empíricos em finanças têm utilizado o método de estudo de eventos para detectar retornos anormais no entorno de eventos que, teoricamente, deveriam ser incorporados instantaneamente no preço dos títulos. O método de estudo de eventos, a partir da década de 90, com a massificação das planilhas eletrônicas e dos pacotes estatísticos, se popularizou no meio acadêmico brasileiro, sendo um dos principais métodos de pesquisa em finanças com ênfase em mercado de capitais ou finanças corporativas. Apesar da eficácia do método em detectar a anormalidade dos retornos, comprovada em diversos estudos empíricos, acredita-se que o método seja pouco eficiente em determinar a verdadeira amplitude do retorno anormal, uma vez que são necessários pressupostos estatísticos e argumentos econômico-financeiros que podem não ser válidos. O fato de que cada modelo apresenta um desempenho diferente de captura dos retornos anormais contribui com a tese de que os modelos utilizados atualmente não conseguem filtrar totalmente o retorno anormal da série normal. Portanto, este estudo teve como objetivo principal testar a aplicabilidade do método de Análise de Componentes Independentes - ICA - em detectar retornos anormais em séries temporais e comparar o seu desempenho com os modelos geradores de retornos anormais mais utilizados em testes empíricos. Com este objetivo, foram realizadas milhares de simulações envolvendo parâmetros semelhantes aos do mercado de ações brasileiro, com o uso de algoritmos de simulação elaborados exclusivamente para esta finalidade. Os resultados sugerem que o método ICA é capaz de detectar anormalidades em séries temporais, fornecendo, desta forma, a descoberta do real impacto do retorno anormal nos elementos da amostra, necessitando apenas de uma modelagem prévia em função do tamanho da amostra e sua variância. / In the last two decades financial empiric studies have used the event study method to detect abnormal return on events that in theory should be instantly incorporated on securities price. This method became popular to Brazilian academic environment through the intensification usage of electronic worksheet and statistic packages in the 90`s turning into one of the main research methods for financial studies with emphasis on stock market and corporative financing. Despite the efficiency of the method in detecting abnormalities it`s believed that it`s least effective on establishing the real amplitude of the abnormal return considering that statistics presupposed and economic and financial arguments may not be valid. The fact that each model shows a different performance on capturing abnormal returns contributes to the idea that today`s models can`t completely filter the abnormal return on a normal series. Therefore this study has as a main objective to test the applicability of the Independent Component Analysis method – ICA – in detecting abnormal returns in time series and comparing its performance against abnormal return generating models more used on empiric tests. With this objective, thousands of simulations involving parameters similar to the Brazilian stock market with the usage of simulation algorisms elaborated exclusively for this purpose. The results suggest that ICA method is capable of detecting abnormalities in time series supplying in this form a discovery on the real impact of abnormal return on sample elements needing only a previous molding due to the size of its sample and variance.
82

Um estudo sobre separação cega de fontes e contribuições ao caso de misturas não-lineares / A study on blind source separation and contributions to the nonlinear case

Duarte, Leonardo Tomazeli, 1982- 08 February 2006 (has links)
Orientadores: João Marcos Travassos Romano, Romis Ribeiro de Faissol Attux / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-06T23:03:11Z (GMT). No. of bitstreams: 1 Duarte_LeonardoTomazeli_M.pdf: 2778720 bytes, checksum: ff42018b4aa2d824cd1f001655a42ddf (MD5) Previous issue date: 2006 / Resumo: O presente trabalho tem como objetivo a realização de um estudo sobre o problema de separação cega de fontes. Em uma primeira parte, considera-se o caso clássico em que o sistema misturador é de natureza linear. Na seqüência, a extensão ao caso não-linear é tratada. Em particular, enfatizamos uma importante classe de modelos não-lineares, os modelos com não-linearidade posterior (PNL). Com o intuito de contornar uma dificuldade relacionada à convergência para mínimos locais no treinamento de sistemas separadores PNL, uma nova técnica é proposta. Tal solução se baseia no uso de um algoritmo evolutivo na etapa de treinamento e de um estimador de entropia baseado em estatísticas de ordem. A eficácia do algoritmo proposto é verificada através de simulações em diferentes cenários / Abstract: The aim of this work is to study the problem of blind source separation (BSS). In a first part, the classical case in which the mixture system is of linear nature is considered. Afterwards, the nonlinear extension of the BSS problem is addressed. In special, an important class of nonlinear models, the post-nonlinear (PNL) models, is emphasized. In order to overcome a problem related to the convergence to local minima in the training of a PNL separating system, a novel technique is proposed. The bases of such solution are the application of an evolutionary algorithm in the training stage and the use of an entropy estimator based on order statistics. The efficacy of the proposal is attested by simulations conducted in different scenarios / Mestrado / Telecomunicações e Telemática / Mestre em Engenharia Elétrica
83

Uma metodologia para extrair e avaliar padrões em imagens de ressonância magnética funcional na dimensão temporal

Prata, Marlon Santos 05 December 2013 (has links)
This work presents a methodology to extract and evaluate signals in functional magnetic resonance imaging (fMRI) in the temporal dimension. It is assumed that it is possible to separate the signals from brain activations of a given protocol of other signals such as breathing, heartbeat, involuntary eye movements, and others. This paper proposes a methodological way, get through simulated and controlled measure the efficiency of the Model of Independent Component Analysis (ACI) for fMRI images to separate these signals experiments. To validate the experiments it was necessary to generate simulated data. The data generated were formed for three (3) signs that did not have a Gaussian distribution, in an array of temporal dimension 80 x 80 x 64. Within this set of signs have been added three (3) signal blocks of size 5 x 5 x 64 that simulated activations of FRH protocols. After this process, an array of mixture was added so that the signals could not be identified. Only after the data gave mixed-if the process of completing the pre-processing with the bleaching and centering of the variables to the model following ACI was performed to separate the signals that were mixed, thereby finding the estimated component signals. Different amounts of Gaussian signals were added until no more would be possible to extract the component which would correspond to a signal FRH testing the theory that ACI has efficiency in extracting components of non-Gaussian data. The model was run in real signals, where a volunteer performing a hearing protocol, the results data of each slice extracted resonance are evident throughout this work, in some slices was possible to extract the expected component with a degree of correlation between the acceptable component and signal protocol FRH, as in other slices could not perform the extraction of these signals. As a final result a statistical correlation map for each slice resulting from the estimated component and the raw data was generated, the signals were evaluated on the assumption of acceptance only to greater than 0.72 correlation with statistical significance at 95% confidence. / Este trabalho apresenta uma metodologia para extrair e avaliar sinais em imagens de ressonância magnética funcional (fMRI) na dimensão temporal. Assume-se que é possível separar os sinais de ativações cerebrais de um determinado protocolo dos demais sinais como respiração, batimentos cardíacos, movimentos involuntários dos olhos e outros. Este trabalho propõe de forma metodológica, buscar através de experimentos simulados e controlados medir a eficiência do Modelo de Análise de Componentes Independentes (ACI) em imagens de fMRI para separar esses sinais. Para validar os experimentos foi necessário gerar dados simulados. Os dados gerados foram formados por 3 (três) sinais que não possuíam distribuição gaussiana, em uma matriz temporal de dimensão 80 x 80 x 64. Dentro desse conjunto de sinais foram adicionados 3 (três) blocos de sinais de dimensão 5 x 5 x 64 que simulavam ativações de protocolos da FRH. Após esse processo uma matriz de mistura foi adicionada para que os sinais não pudessem ser identificados. Somente após os dados misturados deu-se o processo da realização do pré-processamento, com a centralização e o branqueamento das variáveis, para que na sequência o modelo de ACI fosse executado para separar os sinais que estavam misturados, encontrando assim as componentes estimadas dos sinais. Foram adicionadas diferentes quantidades de sinais gaussianos, até que não mais fosse possível extrair a componente que teria um sinal que correspondesse a FRH, testando a teoria de que ACI tem eficiência em extrair componentes de dados não gaussianas. O modelo foi executado em sinais reais, onde um voluntário executava um protocolo auditivo, os dados dos resultados de cada fatia extraída da ressonância estão evidenciados ao longo deste trabalho, em algumas fatias foi possível extrair a componente esperada com um grau de correlação aceitável entre a componente e o sinal do protocolo da FRH, já em outras fatias não foi possível realizar a extração desses sinais. Como resultado final foi gerado um mapa estatístico de correlação para cada fatia, resultante entre a componente estimada e os dados brutos, os sinais foram avaliados sobre a hipótese de aceitação apenas para correlação maior que 0,72 com significância estatística de 95% de confiança.
84

Proposta de metodos de separação cega de fontes para misturas convolutivas e não-lineares / Proposal of blind source separation methods for convolutive and nonlinear mixtures

Suyama, Ricardo 09 August 2018 (has links)
Orientador: João Marcos Travassos Romano / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-09T16:56:34Z (GMT). No. of bitstreams: 1 Suyama_Ricardo_D.pdf: 28793623 bytes, checksum: cf06bdad425402b4624bbd169bfad249 (MD5) Previous issue date: 2007 / Resumo: O problema de separação cega de fontes (BSS - Blind Source Separation) vem despertando o interesse de um número crescente de pesquisadores. Esse destaque é devido, em grande parte, à formulação abrangente do problema, que torna possível o uso das técnicas desenvolvidas no contexto de BSS nas mais diversas áreas de aplicação. O presente trabalho tem como objetivo propor novos métodos de solução do problema de separação cega de fontes, nos casos de mistura convolutiva e mistura não-linear. Para o primeiro caso propomos um método baseado em predição não-linear, cujo intuito é eliminar o caráter convolutivo da mistura e, dessa forma, separar os sinais utilizando ferramentas bem estabelecidas no contexto de misturas lineares sem memória. No contexto de misturas não-lineares, propomos uma nova metodologia para separação de sinais em um modelo específico de mistura denominado modelo com não-linearidade posterior (PNL - Post Nonlinear ). Com o intuito de minimizar problemas de convergência para mínimos locais no processo de adaptação do sistema separador, o método proposto emprega um algoritmo evolutivo como ferramenta de otimização, e utiliza um estimador de entropia baseado em estatísticas de ordem para avaliar a função custo. A eficácia de ambos os métodos é verificada através de simulações em diferentes cenários / Abstract: The problem of blind source separation (BSS) has attracted the attention of agrowing number of researchers, mostly due to its potential applications in a significant number of different areas. The objective of the present work is to propose new methods to solve the problem of BSS in the cases of convolutive mixtures and nonlinear mixtures. For the first case, we propose a new method based on nonlinear prediction filters. The nonlinear structure is employed to eliminate the convolutive character of the mixture, hence converting the problem into an instantaneous mixture, to which several well established tools may be used to recover the sources. In the context of nonlinear mixtures, we present a new methodology for signal separation in the so-called post-nonlinear mixing models (PNL). In order to avoid convergence to local minima, the proposed method uses an evolutionary algorithm to perform the optimization of the separating system. In addition to that, we employ an entropy estimator based on order-statistics to evaluate the cost function. The effectiveness of both methods is assessed through simulations in different scenarios / Doutorado / Telecomunicações e Telemática / Doutor em Engenharia Elétrica
85

Classificação de Lesões em Mamografias Digitais Utilizando Análise de Componentes Independentes e Perceptron Multicamadas / Classification of Digital Injuries in examination of breast cancer Using Analysis of Components Independentes and multilayers Perceptron

Campos, Lucio Flavio de Albuquerque 24 March 2006 (has links)
Made available in DSpace on 2016-08-17T14:52:50Z (GMT). No. of bitstreams: 1 Lucio Flavio de Albuquerque Campos.pdf: 558329 bytes, checksum: 1be43a8cd03ed147f8b5187d7e538e5a (MD5) Previous issue date: 2006-03-24 / We propose a method for discrimination and classification of mammograms with benign, malignant and normal tissues using independent component analysis and neural networks. The method was tested for a mammogram set from MIAS database, and multilayer perceptron. The method obtained a success rate of 97.83% , with 97.5% of specificity and 98% of sensitivity. / Neste trabalho, propomos um método para discriminação e classificação de mamogramas, com diagnóstico maligno, benigno e normal, usando análise de componentes independentes e redes neurais. O método foi testado com mamogramas da MIAS database, e com redes perceptron multicamadas. O método obteve uma taxa de sucesso média de 97.83%, com 97.5% de especificidade, e 98% de sensibilidade.
86

Compressão de imagens utilizando análise de componentes independentes / COMPRESSION FOR IMAGE ANALYSIS USING INDEPENDENT COMPONENTS

Sousa Junior, Carlos Magno 20 March 2007 (has links)
Made available in DSpace on 2016-08-17T14:53:09Z (GMT). No. of bitstreams: 1 Carlos Magno.pdf: 663844 bytes, checksum: a783e1b5874266e0e7bca44dc3f315ae (MD5) Previous issue date: 2007-03-20 / Redundancy is an old issue in data compression research. Compression methods that use statistics have been heavily influenced by neuroscience research. In this work, we propose an image compression system based on the efficient coding concept derived from neural information processing models. The system performance is compared with discrete cosine transform (DCT) and principal components analysis (PCA) results at several compression ratios (CR). Evaluation through both objective measurements and visual inspection showed that the proposed system is more robust to distortions such as blocking artifacts than DCT and PCA. / A redundância é um assunto antigo em pesquisa sobre compressão de dados. Os métodos de compressão de dados que usam estatísticas foram recentemente influenciados pelas pesquisas em neurociência. Neste trabalho, propomos um sistema de compressão de imagem baseado no conceito de codificação eficiente derivado dos modelos de processamento da informação neural. O desempenho do sistema é comparado aos resultados da transformada discreta cosseno (DCT) e análise de componentes principais (PCA) com a mesma taxa de compressão (CR). A avaliação através das medidas objetiva e visual mostrou que o sistema proposto apresentou menos distorções, tais como artefatos de blocos do que a DCT e PCA.
87

IMPLEMENTAÇÃO DE UM SISTEMA DE TELEDIAGNÓSTICO PARA CLASSIFICAÇÃO DE MASSAS EM IMAGENS MAMOGRÁFICAS USANDO ANÁLISE DE COMPONENTES INDEPENDENTES / IMPLEMENTATION OF A SYSTEM OF TELEDIAGNOSIS FOR CLASSIFICATION OF MASSES IN MAMMOGRAPHIC IMAGES USING INDEPENDENT COMPONENT ANALYSIS

Silva, Luis Claudio de Oliveira 24 July 2012 (has links)
Made available in DSpace on 2016-08-17T14:53:22Z (GMT). No. of bitstreams: 1 dissertacao Luis Claudio.pdf: 2055680 bytes, checksum: 4e51c93fd4aa6edfad51ab54ad4044f6 (MD5) Previous issue date: 2012-07-24 / This thesis proposes the modeling and implementation of a telediagnostic system for analysis and detection of lesions in mammographic images based on independent component analysis and support vector machine. The system analyzes images from digital mammography sent over the Internet and provides a diagnostic, indicating the presence of suspicious regions, which can be confirmed by a specialist in mammographic images. Besides presenting the methodology for the development of the proposed system, a prototype was developed for testing and to measure its efficiency. The database used for training and testing of the algorithms is the mini-MIAS, and was employed independent component analysis to extract the filters used in segmenting the regions of interest, as well support vector machine to classify regions of interest in normal or suspicious. From tests with the database used, we obtained an average accuracy of 87.8% for images containing lesions. / Este trabalho propõe a modelagem e implementação de um sistema de telediagnóstico para análise e detecção automática de lesões em imagens mamográficas, baseado em análise de componentes independentes e máquina de vetor de suporte. O sistema analisa imagens de mamografia digital enviadas pela Internet e fornece um diagnóstico da imagem, indicando a presença de regiões suspeitas, que podem ser confirmadas por um especialista em imagens mamográficas. Além de apresentar a metodologia para o desenvolvimento do sistema proposto, foi desenvolvido um protótipo para a realização de testes objetivando medir sua eficiência. A base de dados usada para treinamento e teste dos algoritmos foi a mini-MIAS, e foi empregada análise de componentes independentes para extrair os filtros usados na segmentação das regiões de interesse, bem como máquina de vetor de suporte para classificar as regiões de interesse em normais ou suspeitas. A partir de testes realizados com a base de dados utilizada, obteve-se média de acerto de 87,8% para imagens que contém lesões.
88

Blind source separation in the context of polynomial mixtures = Separação cega de fontes no contexto de misturas polinomiais / Separação cega de fontes no contexto de misturas polinomiais

Ando, Rafael Assato, 1986- 23 August 2018 (has links)
Orientadores: Romis Ribeiro de Faissol Attux, Leonardo Tomazeli Duarte / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-23T17:30:21Z (GMT). No. of bitstreams: 1 Ando_RafaelAssato_M.pdf: 1700685 bytes, checksum: 9befef5632e55e27a24af3e73c648c47 (MD5) Previous issue date: 2013 / Resumo: Neste trabalho, estudamos o problema de BSS no contexto de misturas polinomiais sob três perspectivas: uma teórica - voltada ao estudo de separabilidade estrutural -, uma ligada à proposta de novas abordagens - especialmente como extensões de metodologias baseadas em redes recorrentes - e uma relacionada ao tratamento de problemas práticos como redução do efeito show-through na digitalização de documentos. A primeira dessas perspectivas levou à proposta de uma nova abordagem do problema de separação não-linear baseada numa formulação do problema instantâneo de inversão como uma tarefa de solução de um sistema de equações algébricas não-lineares. Essa abordagem levou à proposição de novos métodos para lidar com o problema LQ e também pode ser aplicada a outros modelos de mistura. A segunda perspectiva levou à construção de um arcabouço para tratamento do problema LQ baseado numa rede imunológica artificial, o qual trouxe uma menor demanda por informação a priori sobre o problema e provê maior robustez em termos de convergência global. Por fim, a aplicação do ferramental desenvolvido a problemas práticos de tratamento de imagens levou a um desempenho bastante satisfatório, encorajando a extensão futura para outros cenários de teste (como sensores químicos) / Abstract: In this work, the BSS problem in the context of polynomial mixtures will be studied under three perspectives: a theoretical one, regarding the structural separability analysis; another related to the proposal of new methodologies - especially as extensions of algorithms based on recurrent networks - and finally, one regarding the solutions to real world problems, such as the reduction of the show-through effect produced by digitally scanning documents. The first such perspectives led to the proposal of a new approach to the nonlinear BSS problem, based on a formulation to the instantaneous inversion problem as the solution of a non-linear algebraic equation system. This approach led to the proposal of new methods to deal with the LQ problem, which may also be applied to other mixing models. The second perspective led to the development of an algorithm based on artificial immune system (AIS) to solve the LQ model, requiring less a priori information about the problem and providing better robustness in terms of global convergence. Finally, the application of the pro-posed methods to the practical problem of image treatment presented a very satisfactory performance, encouraging the possible extension to other test scenarios in the future, such as chemical sensors / Mestrado / Engenharia de Computação / Mestre em Engenharia Elétrica
89

Aprendizado de máquina baseado na teoria da informação : contribuições à separação de sinais em corpos finitos e inversão de sistemas de Wiener / Information theoretic learning : contributions to signal separation over finite fields and inversion of Wiener systems

Silva, Daniel Guerreiro e, 1983- 23 August 2018 (has links)
Orientadores: Romis Ribeiro de Faissol Attux, Jugurta Rosa Montalvão Filho / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-23T23:31:44Z (GMT). No. of bitstreams: 1 Silva_DanielGuerreiroe_D.pdf: 5960509 bytes, checksum: febb8228109537e82dfcce66fca8aae8 (MD5) Previous issue date: 2013 / Resumo: Esta tese de doutorado possui como tema geral o desenvolvimento de algoritmos de Aprendizado de Máquina Baseado na Teoria da Informação (ITL - Information Theoretic Learning). O paradigma de ITL propõe o uso de critérios de treinamento baseados em medidas como entropia e informação mútua, em substituição aos tradicionais critérios baseados em estatísticas de segunda ordem. Os problemas de inversão cega de sistemas de Wiener e separação cega de sinais em corpos de Galois são os objetos de estudo e desenvolvimento dessas ferramentas. Estes problemas apresentam características marcantes quanto à necessidade de descritores estatísticos de ordem superior, por isso, apresenta-se uma série de contribuições que se baseiam em critérios de ITL e empregam algoritmos imuno-inspirados (ou heurísticas de busca) para adaptar os parâmetros dos modelos envolvidos. As propostas desenvolvidas abrem a perspectiva de futuras aplicações em áreas como genômica, codificação e geofísica. Espera-se também que os resultados apresentados fortaleçam um entendimento mais amplo de ITL, a fim de abranger estratégias mais genéricas de busca, de estimação de informação e de modelagem de dados / Abstract: The main theme of this thesis is the development of Information Theoretic Learning (ITL) algorithms. The ITL paradigm proposes the adoption of training criteria based on information measures such as entropy and mutual information, instead of traditional criteria based on second order statistics. The problems of blind inversion of Wiener systems and blind separation of signals over Galois fields are the tasks over which these tools are applied. Such problems present key aspects that establish a demand for higher order statistics, hence we present several contributions that are based on ITL criteria and employ immune-inspired algorithms (or heuristic-based methods) to perform the adaptation of the parameters of each related model. The developed proposals open the perspective of future applications in genomic, coding theory and geophysics. Furthermore, we expect that the presented results support a wider understanding of ITL, in order to comprise more general strategies of search, information estimation and data modeling / Doutorado / Engenharia de Computação / Doutor em Engenharia Elétrica
90

Analyse de scène sonore multi-capteurs : un front-end temps-réel pour la manipulation de scène / Multi-sensor sound scene analysis : a real-time front-end for scene manipulation

Baque, Mathieu 09 June 2017 (has links)
La thèse s’inscrit dans un contexte d’essor de l’audio spatialisé (5.1, Dolby Atmos...). Parmi les formats audio 3D existants, l’ambisonie permet une représentation spatiale homogène du champ sonore et se prête naturellement à des manipulations : rotations, distorsion du champ sonore. L’objectif de cette thèse est de fournir un outil d’analyse et de manipulation de contenus audio (essentiellement vocaux) au format ambisonique. Un fonctionnement temps-réel et en conditions acoustiques réelles sont les principales contraintes à respecter. L’algorithme mis au point est basé sur une analyse en composantes indépendantes (ACI) appliquée trame à trame qui permet de décomposer le champ acoustique en un ensemble de contributions, correspondant à des sources (champ direct) ou à de la réverbération. Une étape de classification bayésienne, appliquée aux composantes extraites, permet alors l’identification et le dénombrement des sources sonores contenues dans le mélange. Les sources identifiées sont localisées grâce à la matrice de mélange obtenue par ACI, pour fournir une cartographie de la scène sonore. Une étude exhaustive des performances est menée sur des contenus réels en fonction de plusieurs paramètres : nombre de sources, environnement acoustique, longueur des trames, ou ordre ambisonique utilisé. Des résultats fiables en terme de localisation et de comptage de sources ont été obtenus pour des trames de quelques centaines de ms. L’algorithme, exploité comme prétraitement dans un prototype d’assistant vocal domestique, permet d’améliorer significativement les performances de reconnaissance, notamment en prise de son lointaine et en présence de sources interférentes. / The context of this thesis is the development of spatialized audio (5.1 contents, Dolby Atmos...) and particularly of 3D audio. Among the existing 3D audio formats, Ambisonics and Higher Order Ambisonics (HOA) allow a homogeneous spatial representation of a sound field and allows basics manipulations, like rotations or distorsions. The aim of the thesis is to provides efficient tools for ambisonics and HOA sound scene analyse and manipulations. A real-time implementation and robustness to reverberation are the main constraints to deal with. The implemented algorithm is based on a frame-by-frame Independent Component Analysis (ICA), wich decomposes the sound field into a set of acoustic contributions. Then a bayesian classification step is applied to the extracted components to identify the real sources and the residual reverberation. Direction of arrival of the sources are extracted from the mixing matrix estimated by ICA, according to the ambisonic formalism, and a real-time cartography of the sound scene is obtained. Performances have been evaluated in different acoustic environnements to assess the influence of several parameters such as the ambisonic order, the frame length or the number of sources. Accurate results in terms of source localization and source counting have been obtained for frame lengths of a few hundred milliseconds. The algorithm is exploited as a pre-processing step for a speech recognition prototype and allows a significant increasing of the recognition results, in far field conditions and in the presence of noise and interferent sources.

Page generated in 0.134 seconds