Spelling suggestions: "subject:"aritmética dde ponto fio"" "subject:"aritmética dde ponto fix""
1 |
Análise do efeito da precisão finita no algoritmo adaptativo sigmoidal / Analysis of the effect of finite precision on the sigmoidal adaptive algorithmFonseca, José de Ribamar Silva 16 February 2017 (has links)
Submitted by Rosivalda Pereira (mrs.pereira@ufma.br) on 2017-07-18T17:58:49Z
No. of bitstreams: 1
JoseRibamarFonseca.pdf: 2069580 bytes, checksum: 26f5e4becf41e81d4359f2bc5df171fa (MD5) / Made available in DSpace on 2017-07-18T17:58:49Z (GMT). No. of bitstreams: 1
JoseRibamarFonseca.pdf: 2069580 bytes, checksum: 26f5e4becf41e81d4359f2bc5df171fa (MD5)
Previous issue date: 2017-02-16 / Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPQ) / The adaptive filtering is currently an important tool in the statistical processing
of signals, especially when it is necessary to process signals from environments with
unknown statistics varying with time. The adaptive filtering study was driven by the development
of the Least Mean Square algorithm (LMS) in 1960. Since then other adaptive
algorithms have come up with a better performance than LMS algorithm with respect to
misadjustment and convergence rate. Among them, the Sigmoidal algorithm (SA) which
showed superior to the LMS, for the convergence rate and the mismatch in their implementations
infinite precision. In hardware devices such as DSPs, microcontrollers and
FPGAs, adaptive algorithms are implemented in finite precision, in general, fixed point
arithmetic. When the adaptive filters are implemented in finite precision some effects
can affect their performance. Ultimately lead to divergence due to quantization errors
specified in the approximation process of the variables involved in the adaptive processing
of their original values. Thus, this article aims to analyze the performance of the adaptive
algorithm Sigmoidal (SA) in finite precision when implemented using fixed-point arithmetic.
In particular, the analysis of its performance curve and mismatch, comparing them
in different word lengths (number of bits). The results presented in this article proposes
a series of Taylor Ln gradient of cost function (cosh αe) algorithm SA for implementation
in finite precision. We analyze its performance curve for different lengths of words. It
shows that the algorithm is stable in its performance compared to convergence to different
lengths of words, and that the increase in mismatch level at steady state is sensitive or
afected by the quantization of the variables involved in the calculations of this algorithm. / A filtragem adaptativa constitui atualmente uma ferramenta importante no
processamento estatístico de sinais, especialmente quando é necessário processar sinais
provenientes de ambientes com estatísticas desconhecidas que variam com o tempo. O estudo
de filtragem adaptativa foi impulsionado com o desenvolvimento do algoritmo Least
Mean Square (LMS) em 1960. Desde então outros algoritmos adaptativos têm surgido
com um desempenho superior ao algoritmo LMS em relação ao desajuste e à taxa de
convergência. Entre eles, o algoritmo Sigmoidal (SA) que se apresentou superior ao LMS,
em relação a taxa de convergência e o desajuste em suas implementações na forma analógica.
Nos dispositivos de hardware, tais como DSPs, Microcontroladores e FPGAs, os
algoritmos adaptativos são implementados na forma digital, onde a precisão é finita, em
geral, com aritmética de ponto fixo. Quando os filtros adaptativos são implementados
em precisão finita alguns efeitos podem afetar o seu desempenho. Em última análise,
levar à divergência devido aos erros de quantização especificados no processo de aproximação
dos valores das variáveis envolvidas no processamento adaptativo de seus valores
originais. Assim, este trabalho propõe analisar o desempenho do algoritmo adaptativo
Sigmoidal (SA) em precisão nita, quando implementado utilizando aritmética de ponto
xo. Em particular, a análise de sua curva de desempenho e o desajuste, comparando-os
em diferentes comprimentos de palavras (número de bits). Os resultados apresentados
neste trabalho propõe uma aproximação em série de Taylor do gradiente da função de
custo Ln(cosh αe) do algoritmo SA para implementação em precisão finita. Analisamos
a sua curva de desempenho para diferentes comprimentos de palavras. Mostra-se que
o algoritmo apresenta estabilidade em seu desempenho em relação à convergência, para
diferentes comprimentos de palavras, e que o aumento no nível do desajuste em estado estacionário
é sensível ou influenciado pela quantização dos valores das variáveis envolvidas
nos cálculos desse algoritmo.
|
2 |
Uma metodologia para a determinação da precisão numérica necessária á implementação do algoritmo RTMBARROS, Abner Corrêa 31 January 2014 (has links)
Submitted by Nayara Passos (nayara.passos@ufpe.br) on 2015-03-11T17:12:54Z
No. of bitstreams: 2
TESE Abner Correa Barros.pdf: 14913537 bytes, checksum: 00c434893f2196bab70791b8218a2bbe (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Approved for entry into archive by Daniella Sodre (daniella.sodre@ufpe.br) on 2015-03-13T13:03:45Z (GMT) No. of bitstreams: 2
TESE Abner Correa Barros.pdf: 14913537 bytes, checksum: 00c434893f2196bab70791b8218a2bbe (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-13T13:03:45Z (GMT). No. of bitstreams: 2
TESE Abner Correa Barros.pdf: 14913537 bytes, checksum: 00c434893f2196bab70791b8218a2bbe (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Previous issue date: 2014 / Cenpes, Petrobras, Finep. / Nestes últimos anos, com o início da prospecção de petróleo em regioões com litologias
complexas, tem se observado um crescente interesse no uso do algoritmo Reverse Time
Migration(RTM) como solução para o imageamento sísmico.
Devido ao seu elevado custo computacional, o algoritmo RTM exige o uso de sistemas
computacionais de alto desempenho, os quais demandam investimentos elevados em infraestrutura,
o que normalmente representa também um aumento substancial no consumo de
energia.
Neste cenário, o desenvolvimento de coprocessadores aritméticos de alto desempenho,
implementados por meio dos Field Programmable Gate Arrays(FPGAs), passou a ser considerado
uma alternativa viável no objetivo de aumentar o a capacidade de processamento de sistemas
computacionais já existentes, com impactos positivos tanto nos investimentos em infra-estrutura
quanto no consumo de energia.
Entretanto, o desenvolvimento destes coprocessadores normalmente exige um estudo
prévio minucioso das características do algoritmo a ser implementado e do conjunto de dados a
ser processado, a fim de determinar a precisão numérica mnima que deve ser empregada em sua
implementação.
O objetivo deste trabalho foi desenvolver uma metodologia que permita identificar
a precisão numérica mínima necessária à implementação do algoritmo RTM, baseado nos
fenômenos físicos envolvidos na propagação da onda sísmica e nas litologias prováveis da região
a ser imageada.
Para chegar a este objetivo foi desenvolvido um método analítico, capaz de predizer
a atenuação esperada para as ondas sísmicas durante os processos de modelagem e migração
presentes no algoritmo RTM. Esse método foi baseado em uma nova abordagem no tratamento
da atenuação por espalhamento geométrico para modelos com múltiplas camadas, denominada
de Raio Efetivo.
Como estudo de caso de validação dessa metodologia, foram feitas predições e analisados
os resultados de imageamento de diversos modelos sintéticos propostos por um especialista em
geologia, os quais eram formados apenas por camadas horizontais, planas e paralelas. Além
desses modelos mais simples, foi também utilizado um modelo reconhecidamente complexo,
conhecido como modelo de marmousi. Os resultados obtidos em todos os estudos se mostraram
dentro de uma margem de segurança de 1 bit de precisão.
|
Page generated in 0.0654 seconds