• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 43081
  • 597
  • 483
  • 363
  • 324
  • 324
  • 292
  • 255
  • 74
  • 68
  • 16
  • 14
  • 13
  • 12
  • 10
  • Tagged with
  • 4632
  • 3849
  • 2580
  • 2171
  • 2052
  • 1971
  • 1935
  • 1680
  • 1641
  • 1525
  • 1333
  • 1269
  • 1236
  • 1198
  • 1190
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
381

Aprendizado transdutivo baseado em teoria dainformação e teoria do aprendizado estatístico

Thiago Turchetti Maia 13 July 2007 (has links)
The machine learning problem is most frequently proposed and solved under the inductive inference paradigm, based on classical inductive principles such as the Empirical Risk Minimization (ERM) and Structural Risk Minimization (SRM). These principles are based on the attempt to create a learning rule given some finite training data. They rely on two assumptions: first, that there are enough observations in the training data and that these data are drawn independently and identically distributed (i.i.d.) with respect to the original data distribution of the problem, and second, that one actually needs to determine a general rule able to estimate points anywhere in the space of the problem. Transductive learning challenges these assumptions, breaking the concept of inducing a general rule and using it to deduce unknown values of a functional dependence. In a transductive setting, one estimates particular values of a functional dependence directly, without necessarily having to estimate the general function itself and, implicitly, all of its possible evaluations in a continuum of points. Furthermore, transductive learninggenerally takes advantage of the information available at the points of interest to enhance its estimate of the problems underlying probability distributions and improve its accuracy. Following Occams Razor principle, transductive learning not only avoids solving a harder problem when there may not be enough information to do so, but it also inherently uses all information available a priori, including that given by the points ofinterest. In this work, we propose a new approach to transductive learning based on a variation of statistical learning theory, where risk functionals are directly estimated in a semi-supervised transductive framework. From that, a new parameter-free method, the essentially-transductive entropic classifier (ETEC), is proposed using concepts from information theory, where the learning problem is solved as a constrained optimizationproblem. In selected contexts identifiable using proposed information indicators, we show that our method outperforms other popular inductive and transductive methods for binary classification problems, such as support vector machines (SVMs) and transductive support vector machines (TSVMs). / O problema de aprendizado de máquinas normalmente é proposto e resolvido dentro do paradigma da inferência indutiva, através de princípios clássicos como a minimização do risco empírico (ERM) ou a minimização do risco estrutural (SRM). Estes princípios se baseiam na criação de regras através de uma quantidade finita de dados, e assumem duas premissas fundamentais. Primeiro, que há pontos suficientes nos dados de treinamento e estes são amostrados i.i.d. (independentemente e identicamente distribuídos) emrelação à distribuição do problema original. Segundo, que é necessário criar uma regra geral para estimar pontos desconhecidos em qualquer parte do espaço do problema. O modelo de aprendizado transdutivo desafia essas premissas, quebrando o conceito de indução de uma regra genérica que é então utilizada para deduzir pontos desconhecidos de uma dada função. Em uma abordagem transdutiva, valores de pontosdesconhecidos são estimados diretamente, sem a necessidade de se estimar a própria função genérica e, implicitamente, todas as suas possíveis avaliações no espaço contínuo do problema. Além disso, o apredizado transdutivo geralmente utiliza a informação contida nos próprios pontos de interesse para melhorar sua estimativa das distribuições de probabilidades do problema e aumentar seu desempenho. De acordo com o princípio da Navalha de Occam, o apredizado transdutivo não só evita a solução de umproblema mais difícil para o qual pode-se não haver informações suficientes, mas ele também inerentemente utiliza toda informação disponível a priori, incluindo a contida nos próprios pontos de interesse. Neste trabalho, uma nova abordagem para o aprendizado transdutivo é proposta baseada em uma variação da teoria de aprendizado estatístico, onde funcionais risco são diretamente estimados em um arcabouço de aprendizado semi-supervisionado e transdutivo. A partir desta abordagem, um novo método livre de parâmetros, o classificadorentrópico essencialmente transdutivo (ETEC), é proposto utilizando conceitos da teoria da informação, onde o problema de aprendizado é resolvido como um problema de otimização. Os resultados apresentados indicam que este método supera outros métodosindutivos e transdutivos usuais, como máquinas de vetores de suporte (SVMs) e máquinas de vetores de suporte transdutivas (TSVMs), para problemas de classificação binária em contextos selecionados, identificados através de indicadores de informação propostos.
382

Boas práticas estatísticas em estudos de bioequivalência para o delineamento crossover 2 x 2

Paula Rocha Chelini 22 June 2007 (has links)
Estudos de bioequivalência são exigidos para a liberação de medicamentos genéricos para o mercado. Freqüentemente o delineamento crossover 2x2 é utilizado com a administração a voluntários sadios de duas formulações (T= teste e R= referência). Seguindo um cronograma previamente estabelecido, são coletadas amostras de sangue e determinadas as concentrações do fármaco para gerar as seguintes medidas farmacocinéticas: área sob a curva de concentração plasmática versus tempo (ABC), o pico de concentração plasmática (C Max) e o tempo no qual a concentração máxima foi alcançada (T Max). Para declarar que dois medicamentos são bioequivalentes os intervalos de 90% de confiança para a razão ou diferença das médias tanto para ASC quanto para Cmax devem estar totalmente dentro do intervalo de bioequivalência. Há exigência em termos de Tmax somente quando este for clinicamente relevante. A equipe estatística tem um papel importante em estudos de bioequivalência, tanto no planejamento como na análise dos dados, seguindo uma metodologia especifica. No planejamento destacam-se a determinação do cronograma de coleta e o cálculo do número de voluntários. Na prática aparecem vários problemas, tais como a violação de pressupostos dos métodos estatísticos, além da ocorrência de não-conformidades. Outro questionamento recorrente é se as regras vigentes dos órgãos reguladores são realmente razoáveis, se podem ser flexibilizados ou devem ser adaptadas em certas circunstâncias. Nesse trabalho, várias situações com incidentes que podem ou não ser evitados, foram abordadas através de estudos de simulação de Monte Carlo visando aprofundar o conhecimento sobre o planejamento e a análise dos dados. Foram realizadas dois tipos de estudos: no primeiro foi gerada a medida farmacocinética diretamente e no segundo a curva de concentração individual. Alguns fatores podem prejudicar a conclusão de bioequivalência, tais como, a utilização de um número de voluntários menor que o necessário e a ocorrência de observação atípicas. Em geral, o coeficiente de variação de Cmax tente a ser maior que o de ASC e os percentuais de conclusões de bioequivalencia para Cmax não são superiores aos percentuais para ASC. Um aspecto fundamental do planejamento é o cronograma de coleta. Não existe um cronograma padrão, mas a recomendação é que as características das medidas farmacocinéticas devem ser consideradas. Uma opção interessante é simular possíveis cronogramas e juntamente com as informações sobre o fármaco elaborar o cronograma de coleta. Se os fármacos são realmente bioeuivalentes e o estudo for bem conduzido, espera-se que o resultado seja favorável. Entretanto, na prática não se pode ignorar dois possíveis erros: (i) apesar de haver bioequivalência entre T e R, a conclusão é de não bioequivalência; (ii) T e R são bioequivalentes, mas a conclusão é pela bioequivalência. O primeiro erro é relacionar ao patrocinador e o segundo ao paciente. Como o compromisso de um centro de bioequivalência, e em particular da equipe estatística, é com a verdade e não com interesses do patrocinador do estudo, torna-se fundamental a observância das boas práticas estatísticas, tema deste trabalho.
383

Estimação e análise estatística de distorções harmônicas em usinas eólicas a velocidade variável

Otavio Ferreira Machado 25 August 2008 (has links)
The harmonic distortions generated by wind turbines have not been reported as it should by the technical literature, despite the obligation of these studies by standards for interconnecting wind farms to the electrical grid. As a consequence, great part of the softwareused for studies involving harmonic penetration on electrical systems doesnt include mathematical models for simulating wind generators connected to the grid. The most common method for harmonic content estimation of voltage and current signals is the FFT algorithm (fast Fourier transform). This algorithm has the disadvantage ofnot describing the harmonic content as a function of time. Representing the harmonics along the time has a fundamental importance for studying the distortions emitted by wind turbines, once they are dependent on the operational conditions, which has a time varying behavior. System identification techniques for harmonic estimation have been successfullyapplied in many areas, such as electrical power systems and acoustics. Apart from estimating harmonics along the time, these techniques are more appropriate for estimating time varying harmonics. Furthermore, they are able to filter measurement noise. In this work, the author aims to describe the harmonic injections of a variable speed wind turbine that applies the DFIG (doubly fed induction generator) topology as a function of operational conditions. This aim will be reached by the application of system identification techniques for tracking harmonics along the time. The studies are made on a simulation environment, using ADTDraw® for time domain models implementations, and MATLAB® for frequency domain simulations and for implementing the estimators. Finally, this work represents the harmonic distortion generated in a wind farm using a stochastic approach. / As distorções harmônicas geradas por turbinas eólicas têm sido pouco tratadas pela literatura, apesar da obrigatoriedade de sua análise para a interconexão das usinas às redes de transmissão. Por ser um tema pouco abordado, a grande maioria dos softwares utilizados parao estudo de penetração harmônica nos sistemas elétricos não possui modelos matemáticos para a simulação dos aerogeradores conectados à rede. O método mais comum aplicado para a estimação do conteúdo harmônico dos sinais de corrente e tensão é a FFT (transformada rápida de Fourier). Esse algoritmo tem o inconveniente de não representar o conteúdo harmônico ao longo do tempo. A representação temporal tem importância fundamental no estudo das distorções geradas por usinas eólicas, uma vez que elas são dependentes das condições operativas do sistema, que têm comportamento variante no tempo. Técnicas de identificação de sistemas para a estimação de harmônicos têm sidoaplicadas com êxito em diversos campos do conhecimento, como em sistemas elétricos de potência e em acústica. Além de estimar os sinais ao longo do tempo, esses algoritmos são mais adequados para a estimação de harmônicos variantes no tempo, além de serem capazesde filtrar o ruído de medição. Neste trabalho, pretende-se caracterizar as injeções de harmônicos de uma usina eólica a velocidade variável que utiliza a topologia DFIG (gerador de indução duplamente excitado) em função das suas condições operativas. Para isso, serão utilizadas técnicas de estimação recursivas para garantir o rastreamento dos harmônicos ao longo do tempo. Todo o estudo é realizado em ambiente de simulação, utilizando o ATPDraw® para a implementaçãodos modelos no domínio do tempo, e o MATLAB® para os estudos no domínio da freqüência e para a implementação dos estimadores. Finalmente, este trabalho representa as distorções harmônicas geradas em uma usina eólica usando uma abordagem estocástica.
384

Otimização do índice de qualidade da água por meio de análise estatística multivariada.

Maia, Kelly do Prado January 2014 (has links)
Programa de Pós-Graduação em Engenharia Ambiental. PROÁGUA, Pró-Reitoria de Pesquisa e Pós Graduação, Universidade Federal de Ouro Preto. / Submitted by Maurílio Figueiredo (maurilioafigueiredo@yahoo.com.br) on 2015-01-06T16:40:29Z No. of bitstreams: 2 license_rdf: 22190 bytes, checksum: 19e8a2b57ef43c09f4d7071d2153c97d (MD5) DISSERTAÇÃO_OtimizaçãoIndiceQualidade.pdf: 4310779 bytes, checksum: d13eb947bbb5bff523d8a1e8cbd26af4 (MD5) / Approved for entry into archive by Gracilene Carvalho (gracilene@sisbin.ufop.br) on 2015-01-21T18:22:56Z (GMT) No. of bitstreams: 2 license_rdf: 22190 bytes, checksum: 19e8a2b57ef43c09f4d7071d2153c97d (MD5) DISSERTAÇÃO_OtimizaçãoIndiceQualidade.pdf: 4310779 bytes, checksum: d13eb947bbb5bff523d8a1e8cbd26af4 (MD5) / Made available in DSpace on 2015-01-21T18:22:56Z (GMT). No. of bitstreams: 2 license_rdf: 22190 bytes, checksum: 19e8a2b57ef43c09f4d7071d2153c97d (MD5) DISSERTAÇÃO_OtimizaçãoIndiceQualidade.pdf: 4310779 bytes, checksum: d13eb947bbb5bff523d8a1e8cbd26af4 (MD5) Previous issue date: 2014 / O principal objetivo deste trabalho foi reduzir o número de parâmetros compõem o Índice de Qualidade da Água (IQA), desenvolvido pela National Sanitation Foundation, por meio da aplicação de análise estatística multivariada. Para isto, foram utilizados os resultados fornecidos pelo Instituto Mineiro de Gestão das Águas - IGAM de cada parâmetro integrante do IQA (oxigênio dissolvido, coliformes termotolerantes, pH, DBO, nitrato, fosfato, temperatura, turbidez e sólidos totais) e os respectivos valores de IQA, de cada estação de monitoramento da Bacia do Rio das Velhas, no período de 2000 a 2010. Para a redução do número de dados avaliados foi primeiramente investigada a aplicação da análise de componentes principais (PCA), cuja aplicação não foi satisfatória para a avaliação do conjunto de dados estudado. Desta forma, a rede neural de Kohonen foi utilizada, proporcionando a redução do conjunto de dados inicial composto por 1834 resultados para 524. A viabilidade da aplicação da redução do número de resultados foi avaliada pela comparação entre a correlação dos dados originais e os dados reduzidos. A redução do número de conjuntos de dados também mostrou que a frequência de avaliação das estações de monitoramento poderia ser reduzida, em relação a frequência atualmente praticada pelo IGAM, culminando em redução de custos com monitoramento. O novo conjunto de dados formado por 524 resultados foi avaliado pela técnica OPS (ordered predictors selection), visando obter a redução do número de parâmetros do IQA. Nesta análise verificou-se a possibilidade da criação de um novo modelo para determinação do IQA, formado pelos parâmetros coliformes termotolerantes, DBO, fosfato, oxigênio dissolvido e turbidez. A calibração do novo modelo se deu com a aplicação da ferramenta PLS (partial least squares), prevendo os valores de IQA gerados pelo novo modelo e comparando-os aos valores originais de IQA, para o conjunto de dados, calculados pela fórmula tradicional. A calibração indicou que os dados se ajustaram ao modelo, cujo coeficiente de determinação (R2) foi igual a 0,96, e o gráfico de resíduos apresentou distribuição aleatória, com valores dos resíduos bem próximos de zero. O modelo ainda foi avaliado estimando os resultados de IQA, com o uso de cinco parâmetros, e a aplicação dos resultados de monitoramento de qualidade da água do ano de 2011. Os resultados obtidos na validação retratam a previsão do IQA pelo modelo muito próxima aos resultados obtidos por meio do cálculo tradicional, apontando R2 igual a 0,92, confirmando a aplicabilidade do novo modelo construído. ____________________________________________________________________________________________ / ABSTRACT: The main objective of this work was to reduce the number of parameters comprising the Water Quality Index (WQI) by the application of multivariate statistical analysis. For this, the results of monitoring conducted by the Water Management Institute of Minas Gerais (IGAM) for each parameter of the WQI (dissolved oxygen, fecal coliform, pH, BOD, nitrate, phosphate, temperature, turbidity and total solids) and the respect WQI score obtained at each monitoring station in the Velhas River Basin, in the period between 2000 and 2010. The reduction of the number of evaluated data was first investigated by means of application of principal component analysis (PCA), whose implementation is not suitable for evaluating the data set studied. Thus, the Kohonen`s neural network was used, providing a reduction in the initial data set from 1834 to 524 results of analyses. The viability of this data reduction was assessed by comparing the correlation between the original data and the reduced data. The reduction of the number of data sets also showed that the monitoring frequency of all stations could be reduced, compared to currently practiced by IGAM, culminating in important cost savings with monitoring. The new data set formed by 524 results were evaluated by the OPS (Ordered Predictors Selection) to reduce the number of parameters of WQI. In this analysis there was the possibility of creating a new model for determining the WQI. This model was formed by five parameters: thermotolerant coliform, BOD, phosphate, dissolved oxygen and turbidity. The calibration of the new model was done by PLS (Partial Least Square) tool, predicting WQI values generated by the new model and comparing the results to the original forecast WQI values for the data set, calculated by the traditional formula. The calibration indicated that the data fitted the model, whose coefficient of determination (R2) was equal to 0.96, and the graph of residues showed a random distribution, with values close to zero. The model was further assessed for prediction of the results of WQI, using this model with five parameters, and applying the results of monitoring of water quality in the year 2011 carried out by IGAM. The results of the validation depicted very close to WQI results obtained by the traditional calculation and R2 was 0.92, confirming the applicability of the new model constructed
385

Automatização do controle estatistico da qualidade dimensional nos processos de fabricação mecanica

Sotuyo, Juan Carlos January 1987 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnologico / Made available in DSpace on 2016-01-08T15:42:16Z (GMT). No. of bitstreams: 1 81743.pdf: 2237225 bytes, checksum: 6b5a890de33a6af9bcf9ea0bdf9a93cc (MD5) Previous issue date: 1987 / A competitividade é uma característica natural da dinâmica do desenvolvimento industrial. Os mercados consumidores, cada vez mais exigentes com a qualidade dos bens produzidos, requerem a aplicação dos conceitos da Garantia da Qualidade, como uma necessidade indispensável de sobrevivência para as indústrias. Mesmo assumindo-se adequados projetos do produto e planejamento dos meios e métodos de produção, fatores indesejáveis agirão durante a fabricação nominal e o valor real de parâmetros do produto. As técnicas estatísticas, em especial o controle estatístico do processo (CEP), têm se mostrado de fundamental importância no controle da qualidade, auxiliando eficientemente na análise da estabilidade do processo, na determinação da capacidade de atender às exigências de produção e na identificação das causas de problemas específicos. São ações inerentes ao controle estatístico do processo de fabricação a coleta de informações, o processamento e a atuação corretiva sobre este processo. A execução manual de tais ações é limitada, uma vez que a atuação corretiva é retardada e sujeita a erros devido ao volume de informações envolvido. A automatização de tais ações, é pois de caráter imprescindível. Com base nas experiências auferidas no desenvolvimento de sistemas automatizados para o controle da qualidade dimensional na área metal-mecânica, o trabalho analisa os requisitos de um sistema automatizado para o controle estatístico na fabricação mecânica, e apresenta uma proposta detalhando aspectos estruturais e operacionais do sistema.
386

Diagnostico da qualidade, utilização de ferramentas estatisticas e modelo de relacionamento com fornecedores em uma industria ceramica

Petrus, Claudia Rita F. J. Souto January 1994 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnologico / Made available in DSpace on 2016-01-08T20:40:45Z (GMT). No. of bitstreams: 1 103865.pdf: 3080281 bytes, checksum: 84114d43a073bad0ac7878cc390d8154 (MD5) Previous issue date: 1994 / O objetivo deste trabalho, realizado em uma empresa do setor cerâmico e, a partir da realização de um diagnóstico sistêmico da qualidade estudar, selecionar e propor ferramentas de melhoria da qualidade. Inicilamente são apresentados a origem e estrutura do trabalho, seus principais objetivos e a metodologia aplicada. Para facilitar a compreensão do estudo desenvolvido, é apresentado um conjunto dos principais conceitos envolvidos no escopo do trabalho.A partir da definição e aplicação de um modelo de Diagnóstico da Qualidade, o qual seguiu o conceito sistêmico de Feigenbaum, são selecionados dois assuntos que dão seqüência ao trabalho.
387

Avaliação de imóveis rurais por inferência estatística e análise de superfície de tendência

Resener, Martin Carlos January 2005 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia Civil. / Made available in DSpace on 2013-07-15T22:46:07Z (GMT). No. of bitstreams: 0
388

Ambiente virtual inteligente aplicado em controle estatístico de qualidade STCEQ.Net

Santos, Antônio Venícius dos January 2005 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação / Made available in DSpace on 2013-07-15T23:25:49Z (GMT). No. of bitstreams: 1 225330.pdf: 3676563 bytes, checksum: db4408d95e985c247eb8ba5e59557715 (MD5) / O Controle Estatístico da Qualidade, CEQ, é uma ferramenta considerada indispensável quando se fala em qualidade de serviços e produtos nas organizações. Como os consumidores estão exigindo produtos com qualidade as empresas estão dando mais atenção a esta área para garantir a sua sobrevivência. Entretanto, apesar do fato de ser ensinado em vários cursos, existem evidências de que o CEQ vem sendo empregado de forma inadequada. Portanto, ao visualizar este cenário o presente trabalho tem por objetivo principal definir um modelo para a sanar esta deficiência. O modelo é composto de uma metodologia e um ambiente inteligente suportando um laboratório virtual. Objetiva-se também que o ambiente possa suprir as necessidades individuais de cada aprendiz, além de possibilitar a interação entre os vários usuários, resultando em um processo colaborativo de ensino-aprendizagem. Como mecanismo auxiliar no processo de ensino-aprendizagem o modelo possui um laboratório virtual inteligente, onde o aprendiz poder fazer suas experiências sobre o assunto de seu interesse, com o acompanhamento de um agente tutor. Assim, se tem um ambiente educacional onde os aprendizes podem aprender, refletir, e tirar suas dúvidas sobre CEQ.
389

Análise estatística do algoritmo LMS aplicado ao cancelamento de retroalimentação acústica em aparelhos auditivos

Maluenda, Yasmín Romina Montenegro 05 December 2013 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia Elétrica, Florianópolis, 2009 / Made available in DSpace on 2013-12-05T21:56:59Z (GMT). No. of bitstreams: 1 272198.pdf: 2747280 bytes, checksum: 8b16c8c1f58fba3e278ddea9c1fdd584 (MD5) / A tendência atual no projeto de aparelhos auditivos é a de reduzir o efeito de oclusão causado por moldes herméticos. Se, por um lado, a ventilação do aparelho alivia o desconforto causado pela oclusão, por outro lado permite o acoplamento acústico entre o alto-falante e o microfone do aparelho. Este acoplamento gera um processo de retroalimentação acústica que pode levar à instabilidade do sistema, gerando outro tipo de desconforto. A ocorrência de retroalimentação acústica é atualmente uma das queixas mais comuns entre os usuários de aparelhos auditivos. Várias soluções já foram propostas na literatura para a redução deste problema. Resultados de sistemas de cancelamento da retroalimentação acústica baseados no método do erro predição de identificação de laço fechado indicam que seu desempenho é melhor do que maioria das soluções alternativas. A maioria das análises propostas, entretanto, são limitadas a resultados em regime permanente. Esta tese de doutorado tem o propósito de contribuir para a modelagem do comportamento estatístico de algoritmos adaptativos quando aplicados ao cancelamento da retroalimentação acústica em aparelhos auditivos. Assim, esta tese apresenta uma análise transiente e em regime permanente de um sistema proposto recentemente. A estrutura é analisada para uma adaptação lenta e sinais de entradas autoregressivas. Modelos analíticos são derivados para momentos de primeira e segunda ordem. Isto inclui um modelo para o comportamento transiente da polarização da solução adaptativa. Simulações de Monte Carlo são presentadas para verificar a acurácia dos modelos derivados.
390

Análise estatística de algoritmos adaptativos estocásticos baseados em momentos de ordem elevada

Hubscher, Pedro Inacio January 2003 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia Elétrica. / Made available in DSpace on 2012-10-20T17:18:42Z (GMT). No. of bitstreams: 1 190309.pdf: 2355349 bytes, checksum: 63bd0e6b1b8724e720c66d29880586b3 (MD5) / Este trabalho apresenta um estudo sobre o comportamento de algoritmos adaptativos estocásticos baseados em momentos de ordem elevada. Os dois algoritmos estudados são o LMF (Least Mean Fourth) e o LMK (Least Mean Kurtosis). Equações recursivas não-lineares são deduzidas para descrever o comportamento dos momentos de primeira e de segunda ordens dos coeficientes para sinais de entrada gaussianos. Estas recursões podem ser usadas para prever o comportamento do erro médio quadrático. Os modelos descrevem o comportamento dos algoritmos durante os regimes transitório e permanente, para um ruído aditivo tendo qualquer função densidade de probabilidade par e de média zero e para qualquer relação sinal/ruído. Simulações Monte Carlo mostram a excelente concordância com o comportamento previsto pelos modelos teóricos. É também feito um estudo da estabilidade do algoritmo LMF, considerando-se um sinal de entrada gaussiano e branco e um ruído aditivo com qualquer função densidade de probabilidade par e de média zero. Esta análise melhora resultados prévios porque é explicitamente mostrado que a estabilidade depende das condições iniciais. Com o conjunto de equações e resultados obtidos, pretende-se fornecer informações que auxiliem no projeto de filtros adaptativos

Page generated in 0.1434 seconds