• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 694
  • 38
  • 15
  • 4
  • 4
  • 4
  • 3
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 759
  • 759
  • 305
  • 301
  • 288
  • 195
  • 135
  • 124
  • 122
  • 117
  • 86
  • 82
  • 80
  • 78
  • 73
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Melhoria do codificador de fala G.722.1 atraves do uso de um modelo perceptual

Leite, Silvio Batista 03 August 2018 (has links)
Orientador : Luis Geraldo Pedroso Meloni / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-03T21:34:24Z (GMT). No. of bitstreams: 1 Leite_SilvioBatista_M.pdf: 2002615 bytes, checksum: 13a0c80ca9caf835ecc0a43a1992ff4d (MD5) Previous issue date: 2003 / Mestrado
202

Analise teorica e experimental de metodo de estimação de DOA e de estimação de frequencia com alta resolução

Alves, Carlos Antonio 03 August 2018 (has links)
Orientador : Amauri Lopes / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-03T22:14:24Z (GMT). No. of bitstreams: 1 Alves_CarlosAntonio_D.pdf: 2279301 bytes, checksum: 64c39ed5268190d16fc354802241711d (MD5) Previous issue date: 2004 / Doutorado
203

Redução de estados em receptores MLSE para comunicações ópticas / State reduction of MLSE receivers for optical communications

Covre, Marcos Ricardo 07 April 2011 (has links)
Orientador: Renato da Rocha Lopes / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-18T18:36:46Z (GMT). No. of bitstreams: 1 Covre_MarcosRicardo_M.pdf: 1171170 bytes, checksum: c54296df40738ea9241917f550660426 (MD5) Previous issue date: 2011 / Resumo: Sistemas ópticos são afetados pelas dispersões cromática e de modo de polarização que causam interferência intersimbólica. Para mitigar essas dispersões é utilizado um receptor de sequência de máxima verossimilhança, com uma métrica subótima adequada para esse sistema. Nesta dissertação uma técnica de redução de estados da treliça do algoritmo de Viterbi é descrita e adaptada para um sistema óptico de modulação por intensidade e detecção direta. A métrica é adaptada para compensar o efeito da redução de estados pela técnica de delayed-decision feedback sequence estimation. Resultados são apresentados em sistemas com dispersão cromática e de modo de polarização / Abstract: Optical systems are affected by chromatic and polarization mode dispersion causing intersymbol interference. To mitigate these dispersions a maximumlikelihood sequence estimation receiver is used, with an appropriate suboptimal metric for this system. In this thesis a technique for reducing the number of states of the trellis of the Viterbi algorithm is described and adapted to an optical intensity modulation and direct detection. The metric is adapted to compensate for the effect of reducing the number of states by the technique of delayed-decision feedback sequence estimation. Results are presented for a system with chromatic and polarization mode dispersions / Mestrado / Telecomunicações e Telemática / Mestre em Engenharia Elétrica
204

Restauração de gravações fonograficas por meio de processamento digital de sinais

Souza, Kenia Pena de 11 March 1991 (has links)
Orientador: Jose Geraldo Chiquito / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica / Made available in DSpace on 2018-07-13T22:51:48Z (GMT). No. of bitstreams: 1 Souza_KeniaPenade_M.pdf: 5124577 bytes, checksum: 70fd51e18a0489cd06e185453a868d52 (MD5) Previous issue date: 1991 / Resumo: Este trabalho descreve algumas técnicas digitais empregadas na recuperação de gravações antigas realizadas em discos de 78 rpm. Nestas gravações podem ser encontrados, basicamente, dois tipos de ruídos: impulsivo, produzido pelos defeitos na superfície do disco, e do tipo gaussiano, produzido pelas micro-irregularidades dos plásticos utilizados nos discos de 78 rpm. Para a redução do ruído foi utilizado um sistema de aquisição de dados para digitalizar o sinal de música a uma taxa de amostragem 40 kHz, com 12 bits/amostra. O processamento foi realizado em um microcomputador do tipo IBM-PC. A eliminação do ruído impulsivo foi realizada através de um esquema de detecção de impulsos e restauração não linear. A redução do ruído gaussiano aproveitou-se do fenômeno de mascaramento apresentado pelo ouvido humano que é incapaz de ouvir um sinal fraco na presença de outro sinal forte. Fundamentado neste princípio, foi implementado um filtro digital dinâmico com a freqüência de corte controlada pela energia do sinal de áudio acima de 1 kHz. Também foi empregada a técnica da divisão do espectro de áudio em bandas de freqüência, através de um banco de filtros. Cada banda recebia uma amplificação controlada pela energia do sinal na saída da secção correspondente do banco de filtros. Foi também implementada uma técnica mista, empregando-se um filtro digital dinâmico para as freqüências acima de 1 kHz e um banco de filtros para as freqüências abaixo de 1 kHz / Mestrado / Mestre em Engenharia Elétrica
205

Teoria Estatística da Informação para Dados de Radar de Abertura Sintética Univariados e Polarimétricos

NASCIMENTO, Abraão David Costa do 29 February 2012 (has links)
Submitted by Alexandra Feitosa (alexandra.feitosa@ufpe.br) on 2017-07-21T13:10:19Z No. of bitstreams: 1 2012-Tese-AbraãoDoNascimento.pdf: 56935975 bytes, checksum: 0abf608b7bdbccc73399e9281448e6b2 (MD5) / Made available in DSpace on 2017-07-21T13:10:20Z (GMT). No. of bitstreams: 1 2012-Tese-AbraãoDoNascimento.pdf: 56935975 bytes, checksum: 0abf608b7bdbccc73399e9281448e6b2 (MD5) Previous issue date: 2012-02-29 / A tecnologia de radar de abertura sintética polarimétrico (Polarimetric Synthetic Aper-ture Radar– PolSAR) vem sendo apontada como um indispensável ferramental paracapturar e analisar informações aeroespaciais, em particular, da superfície da terra[Freitas, C. C., Frery, A. C. & Correia, A. H. (2005), ‘The polarimetricGdistributionfor SAR data analysis’.Environmetrics16(1), 13–31]. O objetivo desta tese é a pro-posta de métodos inferenciais baseados em Teoria da Informação para dados polari-métricos. Assim, o trabalho de investigação desta tese está dividido em duas áreas deestudo. Primeiramente, propor distâncias estocásticas bem como investigar seus com-portamentos assintóticos para as diferentes distribuições voltadas a imagens PolSAR.Adicionalmente, visa propor outras medidas dentro da Teoria da Informação direcio-nadas aos contextos de imagens PolSAR, tal como entropia [Zografos, K. & Nadarajah,S. (2005), ‘Expressions for Rényi and Shannon entropies for multivariate distributions’,Statistics & Probability Letters71(1), 71–84]. Em segundo lugar, realizar aplicações dosferramentais derivados aos contextos de classificação, segmentação e detecção de bor-das em tais imagens.Inicialmente, na Seção“Testes paramétricos e não paramétrico para dados speckle”, umaimagem SAR é o resultado de observar uma variável aleatória com distribuiçãoG0I.Desta forma, recursos de Inferência Estatística (tais como estimação por máxima ve-rossimilhança - EMV, teste de hipótese e medidas descritivas das estimativas) tentammapear comportamentos e comparações entre as ferramentas desenvolvidas dentrode uma imagem SAR. Ainda, os resultados são submetidos a um modelo de contami-nação paramétrico espelho do fenômeno de reflexão de canto.Como um segundo estudo, a Seção“Estimações melhoradas no modelo Wishart com-plexo escalonado”apresenta dois métodos de EMV melhorados para o número de equi-valente de looks. Tais metodologias são baseadas na expressão para o viés de segundaordem em EMV e em uma fórmula para a verossimilhança perfilada modificada. Fi-nalmente, seus desempenhos são comparados com outros métodos clássicos.Um terceiro estudo é apresentado na Seção“Expressões para distâncias em dados Pol-SAR”. Neste caso, os pixels são matrizes aleatórias pertencentes a família de distribui-ções Wishart complexa escalonada. Nesta perspectiva, esta seção propõe ferramentasestocásticas baseadas na Teoria da Informação (com respeito ao funcional (h,f), pro-posto por Salicrú, Menéndez, Pardo & Morales [(1994), ‘On the applications of diver-gence type measures in testing statistical hypothesis’,Journal of Multivariate Analysis 51, 372–391]) para o contexto da distribuição Wishart complexa escalonada.Posteriormente, na Seção“Novas propostas de deteção de bordas em imagens PolSAR”,nós aplicamos o ferramental derivado na Seção“Expressões para distâncias em dadosPolSAR”ao contexto de detecção de borda em imagens PolSAR. Como resultado prin-cipal, as ferramentas derivadas são propostas como quatro novos detectores de bordase comparadas a uma abordagem usual.Na Seção“Análise estatística para dados PolSAR baseada em medidas de entropia”, umquinto estudo considera a proposta de testes de homogeneidade em imagens PolSARpor meio de entropias estocásticas. Esta metodologia é uma especificação da classe(h,f) de entropias proposta por Salicrú, Mendéndez & Pardo [(1993), ‘Asymptotic dis-tribution of (h,f)-entropy’,Communications in Statistics - Theory Methods22(7), 2015–2031] para a distribuição Wishart complexa escalonada e as entropias de Shannon eRényi.Finalmente, na Seção“Comparação entre testes de homogeneidade em dados PolSAR”,discute-se a comparação de três testes de homogeneidade envolvendo ferramentas daTeoria da Informação com a abordagem baseada na razão de verossimilhanças pro-posta por Conradsen, Nielsen, Schou & Skriver [(2003), ‘A test statistic in the complexWishart distribution and its application to change detection in polarimetric SAR data’,IEEE Transactions on Geoscience and Remote Sensing41(1), 4–19]. O desempenho dos tes-tes é avaliado tendo como critérios de comparação seus poderes e tamanhos estimadosassim como outras medidas descritivas. / The technology of Polarimetric Synthetic Aperture Radar (PolSAR) has been indicatedas an essential tool for capturing and analyzing aerospace informations, in particular,obtained from the earth’s surface [Freitas, C. C., Frery, A. C. & Correia, A. H. (2005),‘The polarimetricGdistribution for SAR data analysis’.Environmetrics16(1), 13–31].The aim of this thesis is the proposal of statistical inference methods based on Infor-mation Theory for polarimetric data. Thus, its research work is organized into twosegments. Firstly, propose stochastic distances and investigate its asymptotic beha-viors for different distributions of PolSAR images. Additionally, others InformationTheory measures were considered and applied on PolSAR scenarios, such as entropy[Zografos, K. & Nadarajah, S. (2005), ‘Expressions for Rényi and Shannon entropies formultivariate distributions’,Statistics & Probability Letters71(1), 71–84]. On the otherhand, propose methodologies of PolSAR image processing by means of the derivedtools, such as classification, segmentation, and edge detection methods.Initially, in Section“Parametric and nonparametric tests for data speckle”, a SAR imageis a realization of a scalar random variable withG0Idistribution. In this context, statis-tical inference techniques (such as maximum likelihood estimation - MLE, hypothesistest, and performance descriptive measures) are performed in order to identify beha-vior as well as to compare different methods on SAR images. Moreover, the results aresubmitted to a parametric contamination model which represents the corner reflectionphenomenon.As a second study, two improved MLE methods for the equivalent number of lo-oks are presented in the section“Modified profile likelihood and bias correction on the scaledcomplex Wishart distribution”. Such methodologies are based on the expression for se-cond order bias correction in MLE and on a formula for modified profile likelihood.Finally, their performance are compared with others classical methods.A third study is presented in Section“Expressions for distances in PolSAR data”. Inthis case, the pixels are random matrices which belong the family of scaled complexWishart distributions. In this perspective, such section proposes stochastic tools basedon Information Theory (with respect to the (h,f) functional, proposed by Salicrú, Me-néndez, Pardo & Morales [(1994), ‘On the applications of divergence type measuresin testing statistical hypothesis’,Journal of Multivariate Analysis51, 372–391]) for thecontext of the scaled complex Wishart distribution.Subsequently, in the section“New proposals of edge detection in PolSAR images”, we apply the derived tools in Section“Expressions for distances in PolSAR data”to edgedetection in PolSAR images. As main result, we propose four new edge detectors andcompare with an usual approach.In Section“Statistical analysis for data PolSAR based on entropy measures”, a fifth studyconsiders the proposal of homogeneity tests in PolSAR images by means of stochasticentropies. This methodology is a specification of the (h,f) class of entropies proposedby Salicrú, Mendéndez & Pardo [(1993), ‘Asymptotic distribution of (h,f)-entropy’,Communications in Statistics - Theory Methods22(7), 2015–2031] to the scaled complexWishart distribution and Shannon and Rényi entropies.Finally, in Section“Homogeneity hypothesis tests on PolSAR images: Information Theoryvs. Likelihood Ratio”, it discusses a comparison of three homogeneity tests based onTheory Information measures with the approach based on likelihood ratio proposedby Conradsen, Nielsen, Schou & Skriver [(2003), ‘A test statistic in the complex Wishartdistribution and its application to change detection in polarimetric SAR data’,IEEETransactions on Geoscience and Remote Sensing41(1), 4–19]. The performance of tests isquantified and compared, considering as comparison criteria their estimated sizes andpowers as well as others descriptive measures.
206

Metodos de alta resolução com restrição de subespaço para detecção de frequencias

Lemos, Rodrigo Pinto 24 March 1995 (has links)
Orientador: Amauri Lopes / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica, Departamento de Comunicações / Made available in DSpace on 2018-07-20T04:49:50Z (GMT). No. of bitstreams: 1 Lemos_RodrigoPinto_M.pdf: 4789381 bytes, checksum: 77ad429b8da1357b123ef0b27aefbf47 (MD5) Previous issue date: 1995 / Resumo: Este trabalho estuda a aplicação de predição linear forward-backward para a detecção de freqüências em meio ruidoso. Aqui é detalhada a estrutura de subespaços de sinal e de ruído, associada aos dados, através da decomposição em valores singulares, buscando compreender a extensão da atuação ruidosa, de forma a reduzi-Ia à mínima possível. Estudamos comparativamente a resposta de amplitude e a derivada da resposta de fase do filtro de erro de predição como meios de estimar as freqüências do sinal. Mostramos que a derivada da fase fornece uma alternativa competitiva com as técnicas conhecidas. Analisamos ainda a solução da equação normal de predição linear pelos critérios de mínimos quadrados e de mínimos quadrados totais. Este último permitiu desenvolver um novo -método de detecção, utilizando a predição linear forward-backward'- Estabelecemos comparações e terminamos com a apresentação de resultados de simulações minuciosas que mostraram o excelente desempenho do novo método e trouxeram à luz detalhes ainda não explorados do desempenho do método FBLP Modificado, proposto por Tufts e Kumaresan / Mestrado / Eletronica e Comunicações / Mestre em Engenharia Elétrica
207

Análise de séries temporais de eletromiografia de superfície e acelerometria e cães

Negrão, Roberta Rocha. January 2019 (has links)
Orientador: Sheila Canevese Rahal / Resumo: O estudo analisou sinais de eletromiografia de superfície (EMGs), relacionados com sensores inerciais (acelerometria), com o objetivo de realizar uma padronização reproduzível em cães. Estes sinais foram obtidos em dois diferentes músculos, bíceps femoral e vasto lateral, em duas raças de cães (Labrador Retriever e Golden Retriever), durante a locomoção ao caminhar em velocidade padronizada. A partir destes dados foram realizados dois experimentos para os processamentos. No experimento 1, foi realizada filtragem com Butterworth de segunda ordem passa-banda de 0,8 a 5 Hz no sinal de EMGs e também no sinal do acelerômetro, gerando dados para análise em funções de correlação e assimetria. Como resultado foi verificada a eficácia do emprego dessas funções para determinação de padrões nos sinais analisados, sendo possível a identificação de sinais de cães saudáveis e com displasia coxofemoral. No experimento 2, a filtragem foi realizada com filtro Butterworth de segunda ordem passa-baixa de 6Hz, apenas no sinal de EMGs. Aplicou-se algoritmo para identificação das fases da locomoção, por meio da determinação de um limiar, e foram estabelecidas correlações entre os sinais provenientes de ambos transdutores. Como resultado do processamento dos sinais coletados em cães saudáveis, foram gerados dados do ciclo de passada, porcentagem de atividade muscular, funções de correlação e assimetria, bem como definido o tempo de apoio e balanço durante a locomoção. Ao realizar o mesmo tratamento... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: This study analyzed Surface Electromyography (sEMG) signals, related to inertial sensors (accelerometry), aiming to perform a reproducible standard in dogs. These signs were obtained from two different muscles, biceps femoris and vastus lateralis muscles, from two breeds of dogs (Labrador Retriever and Golden Retriever), during walking gait in a controlled velocity. Two methodologies were applied for EMGs signal processing. The first one used a second-order band-pass Butterworth filter with a cut-off frequency between 0.8 and 5 Hz in both EMG signal and accelerometer signal. Data generated were analyzed in correlation and asymmetry functions, which were effective in identifying sign patterns in healthy dogs as well as in dogs with hip dysplasia. The second methodology used a second-order low-pass Butterworth filter with a cut-off frequency of 6 Hz. An algorithm was applied to determine a threshold value of the gait cycle phases. Then, correlations between signals from both transducers were determined. Data related to percentage of muscle activity, correlation function and asymmetry function, as well as stance time and swing during gait cycle were generated after processing of the signs collected from healthy dogs. The signs collected from dogs with hip dysplasia were not within of the interval patterns established in healthy dogs. In conclusion, both methods applied signal analysis and processing allowed the identification of structures of muscular activity during the gait cy... (Complete abstract click electronic access below) / Mestre
208

Avaliação de projetos de filtros digitais de ponto-fixo usando teorias do módulo da satisfatibilidade

Abreu, Renato Barbosa 17 June 2014 (has links)
Submitted by Geyciane Santos (geyciane_thamires@hotmail.com) on 2015-07-23T14:25:32Z No. of bitstreams: 1 Dissertação - Renato Barbosa Abreu.pdf: 745859 bytes, checksum: aedacf2a1901d7a7fb83eb1ddb429e77 (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2015-07-23T15:35:05Z (GMT) No. of bitstreams: 1 Dissertação - Renato Barbosa Abreu.pdf: 745859 bytes, checksum: aedacf2a1901d7a7fb83eb1ddb429e77 (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2015-07-23T15:38:02Z (GMT) No. of bitstreams: 1 Dissertação - Renato Barbosa Abreu.pdf: 745859 bytes, checksum: aedacf2a1901d7a7fb83eb1ddb429e77 (MD5) / Made available in DSpace on 2015-07-23T15:38:02Z (GMT). No. of bitstreams: 1 Dissertação - Renato Barbosa Abreu.pdf: 745859 bytes, checksum: aedacf2a1901d7a7fb83eb1ddb429e77 (MD5) Previous issue date: 2014-06-17 / Não Informada / Currently, digital filters are employed in a wide variety of signal processing applications, using floating- and fixed-point processors. Regarding the latter, some filter implementations may be prone to errors, due to problems related to finite word-length. In particular, signal processing modules present in such realizations can produce overflows and unwanted noise caused by the quantization and round-off effects, during accumulativeaddition and multiplication operations. The present work addresses this problem and proposes a new methodology to verify digital filters, based on a state-of-the-art bounded model checker called ESBMC, which supports full C/C++ and employs satisfiabilitymodulo- theories solvers. In addition to verifying overflow and limit-cycle occurrences, the present approach can also check design properties, like stability and frequency response, as well as output errors and time constraints, based on discrete-time models implemented in C. The experiments conducted during this work show that the proposed methodology is effective, when finding realistic design errors related to fixed-point implementations of digital filters. It is worth noting that the proposed method, in addition to helping the designer to determine the number of bits for fixedpoint representations, can also aid to define details of filter realization and structure. / Atualmente, os filtros digitais são empregados em uma ampla variedade de aplicações para processamento de sinais, utilizando tanto processadores de ponto flutuante quanto de ponto fixo. No que diz respeito a este último, algumas implementações de filtro podem estar mais propensas a erros, devido a problemas relacionados com a palavra de dados de comprimento finito. Em particular, o processamento de sinais utilizando tais realizações pode produzir o problema de estouro aritmético e ruídos indesejados causados pela quantização e efeitos de arredondamento, durante operações acumulativas de adição e multiplicação. O presente trabalho aborda este problema e propõe uma nova metodologia para a verificação de filtros digitais, com base em um verificador de modelos no estado da arte, chamado ESBMC, que suporta linguagens C/C++ e emprega solucionadores baseados em teoria do módulo da satisfatibilidade. Além de verificar a ocorrência de estouro aritmético e ciclo limite, a presente abordagem também pode verificar propriedades de projeto, como estabilidade e resposta em frequência, bem como restrições temporais e erro de saída, com base em modelos de tempo discreto implementados em C. Os experimentos realizados durante este trabalho mostram que a metodologia proposta é eficaz, pois encontra erros de projeto realistas, que estão relacionados a implementações de filtros digitais em ponto fixo. Vale ressaltar que os resultados apresentados evidenciam que o método proposto, além de auxiliar o projetista a determinar o número de bits da representação de ponto fixo, também pode ajudar a definir detalhes de realização e estrutura de filtro.
209

Combinations of adaptive filters. / Combinações de filtros adaptativos.

Chamon, Luiz Fernando de Oliveira 30 March 2015 (has links)
Adaptive filtering has grown to become a fundamental topic in signal processing, increasingly attracting attention from the community. Important factors in this popularization were their low computational complexity and model-free nature, adapting even to nonstationary characteristics of the systems and/or signals under study. Nevertheless, many adaptive algorithms introduce trade-offs, for instance, between convergence rate, nonstationary signals tracking, and steady-state error, which can hinder their use in practical applications. Furthermore, some adaptive filters can become unstable when word length is reduced and/or the input data are highly correlated. Recently, combination of adaptive filters was put forward as a solution for such issues. This approach consists in combining a pool of filters by means of a supervisor that attempts to make the overall system at least as good (usually in the mean-square sense) as the best filter in the set. Examples of these structures have been shown to successfully solve this problem, although well-known limitations remain to be addressed. Moreover, due to the relative novelty of this topic, developments in combination of adaptive filters are difficult to accommodate into a common theoretical framework. This work studies combination of adaptive filters and addresses the aforementioned issue by (i) classifying the existing combinations and proposing a taxonomy that exposes the similarities and differences in their forms; (ii) proposing new combinations; (iii) devising a general framework for studying combinations of adaptive filters and using such framework in performance analyses. / Filtragem adaptativa vem ganhando destaque desde seu surgimento tornando-se um tópico de estudo fundamental em processamento de sinais. A versatilidade de dispensarem total conhecimento das propriedades estatísticas dos sinais, aliada à simplicidade computacional de seus métodos, foram importantes fatores em sua consagração. Apesar disto, muitos filtros adaptativos apresentam compromissos envolvendo, por exemplo, velocidade de convergência, rastreamento de sinais não-estacionários e erro em regime, que podem dificultar sua aplicação na prática. Ademais, alguns algoritmos adaptativos são instáveis quando suas entradas são altamente correlacionados e/ou a precisão dos cálculos é reduzida. Uma solução recente para estes problemas é o uso de combinações de filtros adaptativos. Esta abordagem baseia-se em combinar um conjunto de filtros por meio de um supervisor que procura fazer com que o sistema global seja pelo menos tão bom (em geral no sentido quadrático médio) quanto o melhor filtro do conjunto. Exemplos destas estruturas já mostraram a eficácia deste método, apesar de ainda existirem reconhecida limitações. Além disso, em se tratando de um tópico relativamente recente, os desenvolvimentos na área de combinação de filtros adaptativos não possuem uma estrutura teórica unificada. Este trabalho propõe abordar estas questões (i) classificando as combinações existentes e criando uma taxonomia que explicite semelhanças e diferenças entre elas; (ii) introduzindo novas combinações; e (iii) desenvolvendo uma forma unificada de descrever combinações de filtros adaptativos e usando-a em análises de desempenho.
210

Filtragem adaptativa de baixa complexidade computacional. / Low-complexity adaptive filtering.

Almeida Neto, Fernando Gonçalves de 20 February 2015 (has links)
Neste texto são propostos algoritmos de filtragem adaptativa de baixo custo computacional para o processamento de sinais lineares no sentido amplo e para beamforming. Novas técnicas de filtragem adaptativa com baixo custo computacional são desenvolvidas para o processamento de sinais lineares no sentido amplo, representados por números complexos ou por quaternions. Os algoritmos propostos evitam a redundância de estatísticas de segunda ordem na matriz de auto correlação, o que é obtido por meio da substituição do vetor de dados original por um vetor de dados real contendo as mesmas informações. Dessa forma, evitam-se muitas operações entre números complexos (ou entre quaternions), que são substituídas por operações entre reais e números complexos (ou entre reais e quaternions), de menor custo computacional. Análises na media e na variância para qualquer algoritmo de quaternions baseados na técnica least-mean squares (LMS) são desenvolvidas. Também é obtido o algoritmo de quaternions baseado no LMS e com vetor de entrada real de mais rápida convergência. Uma nova versão estável e de baixo custo computacional do algoritmo recursive least squares (RLS) amplamente linear também é desenvolvida neste texto. A técnica é modificada para usar o método do dichotomous coordinate descent (DCD), resultando em uma abordagem de custo computacional linear em relação ao comprimento N do vetor de entrada (enquanto o algoritmo original possui custo computacional quadrático em N). Para aplicações em beamforming, são desenvolvidas novas técnicas baseadas no algoritmo adaptive re-weighting homotopy. As novas técnicas são aplicadas para arrays em que o número de fontes é menor do que o número de sensores, tal que a matriz de auto correlação se torna mal-condicionada. O algoritmo DCD é usado para obter uma redução adicional do custo computacional. / In this text, low-cost adaptive filtering techniques are proposed for widely-linear processing and beamforming applications. New reduced-complexity versions of widely-linear adaptive filters are proposed for complex and quaternion processing. The low-cost techniques avoid redundant secondorder statistics in the autocorrelation matrix, which is obtained replacing the original widely-linear data vector by a real vector with the same information. Using this approach, many complex-complex (or quaternion-quaternion) operations are substituted by less costly real-complex (or real-quaternion) computations in the algorithms. An analysis in the mean and in the variance is performed for quaternion-based techniques, suitable for any quaternion least-mean squares (LMS) algorithm. The fastest-converging widely-linear quaternion LMS algorithm with real-valued input is obtained. For complex-valued processing, a low-cost and stable version of the widely-linear recursive least-squares (RLS) algorithm is also developed. The widely-linear RLS technique is modified to apply the dichotomous coordinate descent (DCD) method, which leads to an algorithm with computational complexity linear on the data vector length N (in opposition to the original WL technique, for which the complexity is quadratic in N). New complex-valued techniques based on the adaptive re-weighting homotopy algorithm are developed for beamforming. The algorithms are applied to sensor arrays in which the number of interferer sources is less than the number of sensors, so that the autocorrelation matrix is ill-conditioned. DCD iterations are applied to further reduce the computational complexity.

Page generated in 0.0718 seconds