• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 37
  • Tagged with
  • 37
  • 27
  • 9
  • 7
  • 7
  • 6
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Metodos não-parametricos para a analise de curvas de resposta

Silvestre, Miriam Rodrigues 11 December 1992 (has links)
Orientador: Belmer Garcia Negrillo / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Ciencia da Computação / Made available in DSpace on 2018-07-18T06:19:16Z (GMT). No. of bitstreams: 1 Silvestre_MiriamRodrigues_M.pdf: 3403733 bytes, checksum: 637d48bbb81588c197ace53eb49befb7 (MD5) Previous issue date: 1992 / Resumo: Não informado. / Abstract: Not informed. / Mestrado / Mestre em Estatística
2

Proposta para uso do erro de suavização na classificação de recursos minerais / Not available.

Bertossi, Leandro Guedes 27 October 2011 (has links)
A classificação de recursos minerais depende do conhecimento do depósito mineral. Tal conhecimento envolve volume, teores, densidade e medições de outras variáveis para ter uma melhor descrição do corpo mineralizado como sua geometria e variação espacial de teores. Como podemos ver, existem diversos dados quantitativos que devem ser apropriadamente analisados para estimar os recursos minerais. A geoestatística é um ramo da estatística que vem sendo utilizado desde a década de 1960 para a avaliação de recursos minerais. A krigagem ordinária se tornou a técnica mais popular na indústria mineral para esse tipo de avaliação porque as estimativas apresentam boa relação com os dados da vizinhança. Além disso, a geoestatística foi a primeira técnica a fornecer uma medida de incerteza associada à estimativa. Essa incerteza nos dá uma ideia sobre o quanto conhecemos do depósito mineral e, portanto, temos que utilizá-la para fins de classificação dos recursos. Durante muitos anos a variância de krigagem foi utilizada para a classificação de recursos minerais. Entretanto, a variância de krigagem não poderia ser utilizada devido à sua natureza homoscedástica, pois depende apenas da configuração espacial entre as amostras. Assim, uma alternativa para o cálculo da incerteza de uma estimativa realizada por krigagem foi proposta e chamada de variância de interpolação. A variância de interpolação depende não só da configuração espacial, mas também dos valores das amostras utilizadas na estimativa. Nesse sentido, essa medida de incerteza foi considerada mais confiável do que a variância de krigagem. Além disso, foi demonstrado que a variância de interpolação poderia ser combinada com o erro real, derivado do processo de validação cruzada para corrigir o efeito de suavização das estimativas realizadas pela krigagem. Essa dissertação examina o uso do erro de suavização para a classificação de recursos minerais. Uma aproximação clássica em geoestatística para a classificação dos recursos minerais é baseada no erro derivado do intervalo de confiança em torno das estimativas da krigagem ordinária. Esses dois métodos foram comparados e verificados com dados exaustivos. O erro de suavização provou ser superior à aproximação clássica para a classificação dos recursos minerais. / Classification of mineral resources depends on the knowledge about the mineral deposit under study. Such knowledge involves volume, grades, density and other measurements made in order to have a better description of the ore body, including its geometry and spatial distribution of ore grades. As we can see there are a lot of quantitative data that has to be analyzed conveniently to estimate the mineral resources. Geostatistics is a branch of statistics that has been used since 60\'s for mineral resource evaluation. Ordinary kriging is the most popular technique used in the mineral industry for mineral resource estimation because estimates present a good correlation with neighbor data points. Besides, geostatistics was the first procedure concerned to give the associated uncertainty with the estimate. The uncertainty gives an idea about the knowledge about the mineral deposit and therefore we have to consider this variable for the purpose of mineral resource classification. However, the kriging variance could not be used because its homoscedastic nature, that is it only depends on the spatial configuration of neighbor data points. Thus, an alternative uncertainty associated with the kriging estimate was proposed and named as interpolation variance. The interpolation variance depends on both spatial distribution and values of neighbor data points. In this sence, this measure of uncertainty was considered more reliable than the kriging variance. Moreover, it was shown that the interpolation variance could be combined with actual errors derived from the cross-validation procedure to correct the smoothing in kriging. This dissertation examines the use of the smoothing error for mineral resource classification. The classical approach for geostatistical mineral resource classification is based on the error derived from the confidence interval around the ordinary kriging estimate. These two approaches are compared and checked against exhaustive data. The smoothing error proved to be superior to the classical approach for mineral resource classification.
3

Proposta para uso do erro de suavização na classificação de recursos minerais / Not available.

Leandro Guedes Bertossi 27 October 2011 (has links)
A classificação de recursos minerais depende do conhecimento do depósito mineral. Tal conhecimento envolve volume, teores, densidade e medições de outras variáveis para ter uma melhor descrição do corpo mineralizado como sua geometria e variação espacial de teores. Como podemos ver, existem diversos dados quantitativos que devem ser apropriadamente analisados para estimar os recursos minerais. A geoestatística é um ramo da estatística que vem sendo utilizado desde a década de 1960 para a avaliação de recursos minerais. A krigagem ordinária se tornou a técnica mais popular na indústria mineral para esse tipo de avaliação porque as estimativas apresentam boa relação com os dados da vizinhança. Além disso, a geoestatística foi a primeira técnica a fornecer uma medida de incerteza associada à estimativa. Essa incerteza nos dá uma ideia sobre o quanto conhecemos do depósito mineral e, portanto, temos que utilizá-la para fins de classificação dos recursos. Durante muitos anos a variância de krigagem foi utilizada para a classificação de recursos minerais. Entretanto, a variância de krigagem não poderia ser utilizada devido à sua natureza homoscedástica, pois depende apenas da configuração espacial entre as amostras. Assim, uma alternativa para o cálculo da incerteza de uma estimativa realizada por krigagem foi proposta e chamada de variância de interpolação. A variância de interpolação depende não só da configuração espacial, mas também dos valores das amostras utilizadas na estimativa. Nesse sentido, essa medida de incerteza foi considerada mais confiável do que a variância de krigagem. Além disso, foi demonstrado que a variância de interpolação poderia ser combinada com o erro real, derivado do processo de validação cruzada para corrigir o efeito de suavização das estimativas realizadas pela krigagem. Essa dissertação examina o uso do erro de suavização para a classificação de recursos minerais. Uma aproximação clássica em geoestatística para a classificação dos recursos minerais é baseada no erro derivado do intervalo de confiança em torno das estimativas da krigagem ordinária. Esses dois métodos foram comparados e verificados com dados exaustivos. O erro de suavização provou ser superior à aproximação clássica para a classificação dos recursos minerais. / Classification of mineral resources depends on the knowledge about the mineral deposit under study. Such knowledge involves volume, grades, density and other measurements made in order to have a better description of the ore body, including its geometry and spatial distribution of ore grades. As we can see there are a lot of quantitative data that has to be analyzed conveniently to estimate the mineral resources. Geostatistics is a branch of statistics that has been used since 60\'s for mineral resource evaluation. Ordinary kriging is the most popular technique used in the mineral industry for mineral resource estimation because estimates present a good correlation with neighbor data points. Besides, geostatistics was the first procedure concerned to give the associated uncertainty with the estimate. The uncertainty gives an idea about the knowledge about the mineral deposit and therefore we have to consider this variable for the purpose of mineral resource classification. However, the kriging variance could not be used because its homoscedastic nature, that is it only depends on the spatial configuration of neighbor data points. Thus, an alternative uncertainty associated with the kriging estimate was proposed and named as interpolation variance. The interpolation variance depends on both spatial distribution and values of neighbor data points. In this sence, this measure of uncertainty was considered more reliable than the kriging variance. Moreover, it was shown that the interpolation variance could be combined with actual errors derived from the cross-validation procedure to correct the smoothing in kriging. This dissertation examines the use of the smoothing error for mineral resource classification. The classical approach for geostatistical mineral resource classification is based on the error derived from the confidence interval around the ordinary kriging estimate. These two approaches are compared and checked against exhaustive data. The smoothing error proved to be superior to the classical approach for mineral resource classification.
4

Estudo do efeito de suavização da krigagem ordinária em diferentes distribuições estatísticas / A study of ordinary kriging smoothing effect using diferent statistics distributions

Anelise de Lima Souza 12 July 2007 (has links)
Esta dissertação apresenta os resultados da investigação quanto à eficácia do algoritmo de pós-processamento para a correção do efeito de suavização nas estimativas da krigagem ordinária. Foram consideradas três distribuições estatísticas distintas: gaussiana, lognormal e lognormal invertida. Como se sabe, dentre estas distribuições, a distribuição lognormal é a mais difícil de trabalhar, já que neste tipo de distribuição apresenta um grande número de valores baixos e um pequeno número de valores altos, sendo estes responsáveis pela grande variabilidade do conjunto de dados. Além da distribuição estatística, outros parâmetros foram considerados: a influencia do tamanho da amostra e o numero de pontos da vizinhança. Para distribuições gaussianas e lognormais invertidas o algoritmo de pós-processamento funcionou bem em todas a situações. Porém, para a distribuição lognormal, foi observada a perda de precisão global. Desta forma, aplicou-se a krigagem ordinária lognormal para este tipo de distribuição, na realidade, também foi aplicado um método recém proposto de transformada reversa de estimativas por krigagem lognormal. Esta técnica é baseada na correção do histograma das estimativas da krigagem lognormal e, então, faz-se a transformada reversa dos dados. Os resultados desta transformada reversa sempre se mostraram melhores do que os resultados da técnica clássica. Além disto, a as estimativas de krigagem lognormal se provaram superiores às estimativas por krigagem ordinária. / This dissertation presents the results of an investigation into the effectiveness of the post-processing algorithm for correcting the smoothing effect of ordinary kriging estimates. Three different statistical distributions have been considered in this study: gaussian, lognormal and inverted lognormal. As we know among these distributions, the lognormal distribution is the most difficult one to handle, because this distribution presents a great number of low values and a few high values in which these high values are responsible for the great variability of the data set. Besides statistical distribution other parameters have been considered in this study: the influence of the sample size and the number of neighbor data points as well. For gaussian and inverted lognormal distributions the post-processing algorithm worked well in all situations. However, it was observed loss of local accuracy for lognormal data. Thus, for these data the technique of ordinary lognormal kriging was applied. Actually, a recently proposed approach for backtransforming lognormal kriging estimates was also applied. This approach is based on correcting the histogram of lognormal kriging estimates and then backtransforming it to the original scale of measurement. Results of back-transformed lognormal kriging estimates were always better than the traditional approach. Furthermore, lognormal kriging estimates have provided better results than the normal kriging ones.
5

Estudo do efeito de suavização da krigagem ordinária em diferentes distribuições estatísticas / A study of ordinary kriging smoothing effect using diferent statistics distributions

Souza, Anelise de Lima 12 July 2007 (has links)
Esta dissertação apresenta os resultados da investigação quanto à eficácia do algoritmo de pós-processamento para a correção do efeito de suavização nas estimativas da krigagem ordinária. Foram consideradas três distribuições estatísticas distintas: gaussiana, lognormal e lognormal invertida. Como se sabe, dentre estas distribuições, a distribuição lognormal é a mais difícil de trabalhar, já que neste tipo de distribuição apresenta um grande número de valores baixos e um pequeno número de valores altos, sendo estes responsáveis pela grande variabilidade do conjunto de dados. Além da distribuição estatística, outros parâmetros foram considerados: a influencia do tamanho da amostra e o numero de pontos da vizinhança. Para distribuições gaussianas e lognormais invertidas o algoritmo de pós-processamento funcionou bem em todas a situações. Porém, para a distribuição lognormal, foi observada a perda de precisão global. Desta forma, aplicou-se a krigagem ordinária lognormal para este tipo de distribuição, na realidade, também foi aplicado um método recém proposto de transformada reversa de estimativas por krigagem lognormal. Esta técnica é baseada na correção do histograma das estimativas da krigagem lognormal e, então, faz-se a transformada reversa dos dados. Os resultados desta transformada reversa sempre se mostraram melhores do que os resultados da técnica clássica. Além disto, a as estimativas de krigagem lognormal se provaram superiores às estimativas por krigagem ordinária. / This dissertation presents the results of an investigation into the effectiveness of the post-processing algorithm for correcting the smoothing effect of ordinary kriging estimates. Three different statistical distributions have been considered in this study: gaussian, lognormal and inverted lognormal. As we know among these distributions, the lognormal distribution is the most difficult one to handle, because this distribution presents a great number of low values and a few high values in which these high values are responsible for the great variability of the data set. Besides statistical distribution other parameters have been considered in this study: the influence of the sample size and the number of neighbor data points as well. For gaussian and inverted lognormal distributions the post-processing algorithm worked well in all situations. However, it was observed loss of local accuracy for lognormal data. Thus, for these data the technique of ordinary lognormal kriging was applied. Actually, a recently proposed approach for backtransforming lognormal kriging estimates was also applied. This approach is based on correcting the histogram of lognormal kriging estimates and then backtransforming it to the original scale of measurement. Results of back-transformed lognormal kriging estimates were always better than the traditional approach. Furthermore, lognormal kriging estimates have provided better results than the normal kriging ones.
6

Influência das informações tributárias na previsão dos analistas financeiros do mercado de capitais brasileiro

Carvalho, Valdemir Galvão de 06 November 2015 (has links)
Tese (doutorado)—Universidade de Brasília, Universidade Federal da Paraíba, Universidade Federal do Rio Grande do Norte, Programa Multi-Institucional e Inter-Regional de Pós-Graduação em Ciências Contábeis, 2015. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2016-01-18T13:05:27Z No. of bitstreams: 1 2015_ValdemirGalvaoCarvalho.pdf: 3763866 bytes, checksum: 01b8274ee269881024002bbd266003ab (MD5) / Approved for entry into archive by Marília Freitas(marilia@bce.unb.br) on 2016-01-26T11:33:14Z (GMT) No. of bitstreams: 1 2015_ValdemirGalvaoCarvalho.pdf: 3763866 bytes, checksum: 01b8274ee269881024002bbd266003ab (MD5) / Made available in DSpace on 2016-01-26T11:33:14Z (GMT). No. of bitstreams: 1 2015_ValdemirGalvaoCarvalho.pdf: 3763866 bytes, checksum: 01b8274ee269881024002bbd266003ab (MD5) / No Brasil a literatura sugere vidências da maior influência do sistema tributário sobre os procedimentos contábeis e que usuários da Contabilidade têm utilizado informações contábeis reportadas nas demonstrações financeiras na tomada de decisões à alocação de recursos no mercado de capitais. Este estudo analisa como as informações tributárias, representadas por meio de proxies, reportadas nas demonstrações contábeis trimestrais (IANs) e anuais (ITRs), influencia sobre a previsão do lucro por ação (LPA) pelos analistas de valores mobiliários das companhias brasileiras. As informações foram coletadas no sistema I/B/E/S, entre 1999 e 2014, de 651 firmas (excluído o setor financeiro). O suporte teórico encontra amparo nas Teorias da Agência e da Sinalização. A pesquisa é descritiva e empírica, utilizando dados em painel de efeito fixo e efeito aleatório, não balanceado, sendo que a amostra varia em número de observações e quantidade de firmas de acordo com o tipo de painel. Os resultados sugerem que informações tributárias divulgadas são úteis para prever lucros futuros e retorno acionário e serve de sinal à previsão do LPA. Portanto, as informações tributárias devem ser consideradas na tomada de decisão acerca da avaliação de firmas no mercado de capitais. Especificamente, para níveis positivos e mais elevados das BTDs, o consenso da previsão torna-se mais elevado, sugerindo previsões mais otimistas nos períodos futuros. Grandes BTDs positivas e grandes BTDs negativas influenciam as previsões do LPA de forma mais tendenciosa e otimista. Os gastos com tributos são maiores para as companhias com previsões mais otimistas e com maiores variações nas previsões. Além disso, foi verificada a presença de agressividade tributária pelos gestores, reduzindo a qualidade informacional do lucro, sinalizando resultados menos favoráveis de ganhos futuros e menor persistência. Observa-se que os gestores gerenciam informações tributárias trimestrais para cima aumentando o erro da previsão do LPA pelos analistas. A suavização de tributos afeta a qualidade da previsão dos analistas de mercado, representada pelo erro e pela acurácia, sendo o efeito mais pronunciado para a acurácia. Verifica-se que quanto maior for a suavização das proxies BTD, ETR, Cash Tax Paid e Lucro Tributável, menor o consenso da previsão dos analistas. Por fim, observa-se que as métricas desenvolvidas neste trabalho, para mensurar a suavização de tributos, baseadas em Eckel (1981) e Leuz, Nanda e Wisocky (2003), demonstraram-se mais adequadas para capturar a suavização de tributos sobre a previsão e a qualidade da previsão do LPA do que o Tax Smooth 1 e Tax Smooth 2. / In Brazil the literature suggests evidence of the greater influence of the tax system on accounting and accounting have used financial information reported in the financial statements when making decisions on resource allocation in the capital market. This study analyzes withe tax information reported in the quarterly financial statements (ITRs) and annual (IANs), represented by proxies influences on the estimates of earnings per share (EPS) by securities analysts of Brazilian companies. Information was collected on the system I/B/E/S, between 1999 and 2014, of 651 companies (excluding the financial sector). The theoretical basis is upheld by the Agency Theory and Signaling Theory. The search is an empirical and descriptive, and use the data on fixed effect panel and random effect unbalanced, the sample varies in many observations and amount of companies according to the type of panel. The results suggest that tax disclosures are useful to predict future stock returns and profits and serves as the EPSMean expected to sign. Therefore, tax information should be considered in making decisions about the valuation firms in the capital markets. Specifically, for positive and higher levels of BTDs, a consensus forecast becomes higher, suggesting most optimistic predictions in future periods. Large positive BTD and large negative BTD, positively influence on subsequent earnings with forecasts more biased and optimistic. The tax expenses are higher in companies with more optimistic forecasts and greater variations in predictions. In addition, it was verified the presence of aggressive tax by managers, reducing the informational quality of earnings, signaling less favorable results of future earnings and lower persistence. It is observed that managers manage quarterly tax information up increasing the error of the forecast of analysts. Smoothing of taxes affects the quality forecast of market analysts, represented by error and accuracy, the most pronounced effect on accuracy. It appears that the greater smoothing of proxies BTD, ETR, Cash Paid Tax and Tax Income, less the consensus forecast of analysts. Finally, it is noted that the metrics developed in this work to measure the Tax Smoothing, based on Eckel (1981) and Leuz, Nanda and Wisocky (2003), have proved more appropriate to capture the tax smoothing on forecasting and predicting the quality of LPA than the Tax Smooth 1 and Tax Smooth 2.
7

Técnicas de suavização aplicadas à caracterização de fontes sísmicas e à análise probabilística de ameaça sísmica

Pirchiner, Marlon 15 July 2014 (has links)
Submitted by Marlon Pirchiner (marlon.pirchiner.work@gmail.com) on 2014-09-09T12:41:58Z No. of bitstreams: 1 dissertacao_biblioteca.pdf: 20168048 bytes, checksum: 06f8b607a56d91eecc737ff55933780a (MD5) / Approved for entry into archive by Janete de Oliveira Feitosa (janete.feitosa@fgv.br) on 2015-09-09T18:43:32Z (GMT) No. of bitstreams: 1 dissertacao_biblioteca.pdf: 20168048 bytes, checksum: 06f8b607a56d91eecc737ff55933780a (MD5) / Approved for entry into archive by Marcia Bacha (marcia.bacha@fgv.br) on 2015-09-11T12:21:49Z (GMT) No. of bitstreams: 1 dissertacao_biblioteca.pdf: 20168048 bytes, checksum: 06f8b607a56d91eecc737ff55933780a (MD5) / Made available in DSpace on 2015-09-11T12:22:02Z (GMT). No. of bitstreams: 1 dissertacao_biblioteca.pdf: 20168048 bytes, checksum: 06f8b607a56d91eecc737ff55933780a (MD5) Previous issue date: 2014-07-15 / Seismic risk assesment is crucial to make better decisions about engineering structures and loss mitigation. It involves, mainly, the evaluation of seismic hazard. Seismic hazard assesment is the computation of probability which the level of some ground motion intensity measure, in a given site, which, in some time window, will be exceeded. Depending on geological and tectonic complexity, the seismic hazard evaluation becomes more sofisticated. At sites with low seismicity, which is the brazilian case, the relative (geolo- gically) low observation time and the lack of earthquake and tectonic information, increases the uncertainties and makes more difficult the standard analysis, which in general, consider expert opinions, to characterize the seismicity into disjoint zones. This text discusses some smoothing seismicity techniques and their theoretical foundati- ons as alternative methods for seismicity characterization. Next, the methods are exemplified in the brazilian context. / A avaliação de risco sísmico, fundamental para as decisões sobre as estruturas de obras de engenharia e mitigação de perdas, envolve fundamentalmente a análise de ameaça sísmica. Calcular a ameaça sísmica é o mesmo que calcular a probabilidade de que certo nível de determinada medida de intensidade em certo local durante um certo tempo seja excedido. Dependendo da complexidade da atividade geológica essas estimativas podem ser bas- tante sofisticadas. Em locais com baixa sismicidade, como é o caso do Brasil, o pouco tempo (geológico) de observação e a pouca quantidade de informação são fontes de muitas incer- tezas e dificuldade de análise pelos métodos mais clássicos e conhecidos que geralmente consideram, através de opiniões de especialistas, determinadas zonas sísmicas. Serão discutidas algumas técnicas de suavização e seus fundamentos como métodos al- ternativos ao zoneamento, em seguida se exemplifica suas aplicações no caso brasileiro.
8

Uma comparação entre modelos de previsão de preços do boi gordo paulista / A comparison between São Paulo\'s live cattle prices forecasting models

Lanzetta, Vitor Bianchi 23 February 2018 (has links)
O estudo comparou o desempenho preditivo dos modelos de previsão de redes neurais e de suavização exponencial, empregando dados diários do preço da arroba do boi gordo futuro (BM&FBOVESPA) entre janeiro de 2010 até dezembro de 2015. Os resultados mostram que modelos relativamente mais complexos como redes neurais não necessariamente apresentam melhor desempenho se comparados a modelos mais simples, e também mostram que a classificação relativa muda conforme variam as medidas de ajuste e/ou horizonte de previsão além de vantagens associadas a combinação de diversos modelos. / This study compared the predictive performance between neural network models and exponential smoothing, using daily data of live cattle future price (BM&FBOVESPA) from January 2010 to December 2015. The results show that relatively more complex models like neural networks do not necessarily display better performance compared to simpler ones. Results also shows that relative classification changes with respect to adjust measures and/or forecast horizons changes besides advantages achieved by model combinaion.
9

Uma comparação entre modelos de previsão de preços do boi gordo paulista / A comparison between São Paulo\'s live cattle prices forecasting models

Vitor Bianchi Lanzetta 23 February 2018 (has links)
O estudo comparou o desempenho preditivo dos modelos de previsão de redes neurais e de suavização exponencial, empregando dados diários do preço da arroba do boi gordo futuro (BM&FBOVESPA) entre janeiro de 2010 até dezembro de 2015. Os resultados mostram que modelos relativamente mais complexos como redes neurais não necessariamente apresentam melhor desempenho se comparados a modelos mais simples, e também mostram que a classificação relativa muda conforme variam as medidas de ajuste e/ou horizonte de previsão além de vantagens associadas a combinação de diversos modelos. / This study compared the predictive performance between neural network models and exponential smoothing, using daily data of live cattle future price (BM&FBOVESPA) from January 2010 to December 2015. The results show that relatively more complex models like neural networks do not necessarily display better performance compared to simpler ones. Results also shows that relative classification changes with respect to adjust measures and/or forecast horizons changes besides advantages achieved by model combinaion.
10

Filtro de difusão anisotrópica anômala como método de melhoramento de imagens de ressonância magnética nuclear ponderada em difusão / Anisotropic anomalous filter as image enhancement method to nuclear magnetic resonance diffusion weighted imaging

Senra Filho, Antonio Carlos da Silva 25 July 2013 (has links)
Métodos de suavização através de processos de difusão é frequentemente utilizado como etapa prévia em diferentes procedimentos em imagens. Apesar da difusão anômala ser um processo físico conhecido, ainda não é aplicada à suavização de imagens como a difusão clássica. Esta dissertação propõe e relata a implementação e avaliação de filtros de difusão anômala, tanto isotrópico quanto anisotrópico, como um método de melhoramento em imagens ponderadas em difusão (DWI) e imagens de tensor de difusão (DTI) dentro do imageamento por ressonãncia magnética (MRI). Aqui propõe-se generalizar a difusão anisotrópica e isotrópica com o conceito de difusão anômala em processamento de imagens. Como metodologia implementou-se computacionalmente as equações de difusão bidimensional e aplicou às imagens MRI para avaliar o seu potencial como filtro de melhoramento. Foram utilizadas imagens de ressonância magnética de aquisição DTI em voluntários saudáveis. Os resultados obtidos neste estudo foram a verificação que métodos baseados em difusão anômala melhoram a qualidade em processamento das imagens DTI e DWI quando observadas medidas de qualidade como a relação sinal ruído (SNR) e índice de similaridade estrutural (SSIM), e assim determinou-se parâmetros ótimos para as diferentes imagens e situações que foram avaliadas em função dos seus parâmetros de controle, em especial o parâmetro anômalo, chamado de q. Os resultados apresentados aqui permitem prever não apenas uma melhora na qualidade das imagens DTI e DWI resultantes do processamento proposto, como também possível redução de repetições na sequência de aquisição de MRI para um SNR predeterminado. / Smoothing methods through diffusion processes is often used as a preliminary step in different procedures in images. Although the anomalous diffusion is a known physical process, it is not applied to image smoothing as the classical diffusion. This paper proposes and describes implementation and evaluation of anomalous diffusion filters, both isotropic and anisotropic, as a method of improving on diffusion-weighted images (DWI) and diffusion tensor images (DTI) within the magnetic resonance imaging (MRI). Hereby is proposed to generalize the isotropic and anisotropic diffusion with the concept of anomalous diffusion in image processing. The methodology is implemented computationally as bidimensional diffusion equations and applied to MRI images to evaluate its potential as a filter for quality improvement. We used DTI and DWI imaging to acquire from healthy volunteers as image set. The results of this study verified that methods based on anomalous diffusion improved DWI and DTI image processing when observed quality measures such as signal to noise ratio (SNR) and structural similarity index (SSIM), and determined filter optimal parameters for different images and situations evaluated in terms of their control parameters, particularly the anomalous parameter, called q. The results presented here can predict not only an improvement in the quality of DWI and DTI images resulting from the proposed method, and additionally the possible reduction of repetitions following acquisition of MRI for a predetermined SNR.

Page generated in 0.0558 seconds