• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 1
  • Tagged with
  • 7
  • 7
  • 7
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Alguns teoremas limites para sequências de variáveis aleatórias

Waiandt, Euclésio Rangel 16 October 2014 (has links)
Submitted by Patricia Barros (patricia.barros@ufes.br) on 2016-02-25T12:46:19Z No. of bitstreams: 2 license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Alguns teoremas limites para sequencias de variaveis aleatorias.pdf: 1159204 bytes, checksum: 558f1619d3c3f4ea03141551d3635c4c (MD5) / Approved for entry into archive by Patricia Barros (patricia.barros@ufes.br) on 2016-02-25T13:18:03Z (GMT) No. of bitstreams: 2 license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Alguns teoremas limites para sequencias de variaveis aleatorias.pdf: 1159204 bytes, checksum: 558f1619d3c3f4ea03141551d3635c4c (MD5) / Made available in DSpace on 2016-02-25T13:18:03Z (GMT). No. of bitstreams: 2 license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Alguns teoremas limites para sequencias de variaveis aleatorias.pdf: 1159204 bytes, checksum: 558f1619d3c3f4ea03141551d3635c4c (MD5) Previous issue date: 2014 / O Teorema Central do Limite e a Lei dos Grandes Números estão entre os mais importantes resultados da teoria da probabilidade. O primeiro deles busca condições sob as quais [fórmula] converge em distribuição para a distribuição normal com parâmetros 0 e 1, quando n tende ao infinito, onde Sn é a soma de n variáveis aleatórias independentes. Ao mesmo tempo, o segundo estabelece condições para que [fórmula] convirja a zero, ou equivalentemente, para que [fórmula] convirja para a esperança das variáveis aleatórias, caso elas sejam identicamente distribuídas. Em ambos os casos as sequências abordadas são do tipo [fórmula], onde [fórmula] e [fórmula] são constantes reais. Caracterizar os possíveis limites de tais sequências é um dos objetivos dessa dissertação, já que elas não convergem exclusivamente para uma variável aleatória degenerada ou com distribuição normal como na Lei dos Grandes Números e no Teorema Central do Limite, respectivamente. Assim, somos levados naturalmente ao estudo das distribuições infinitamente divisíveis e estáveis, e os respectivos teoremas limites, e este vem a ser o objetivo principal desta dissertação. Para as demonstrações dos teoremas utiliza-se como estratégia principal a aplicação do método de Lyapunov, o qual consiste na análise da convergência da sequência de funções características correspondentes às variáveis aleatórias. Nesse sentido, faremos também uma abordagem detalhada de tais funções neste trabalho. / The Central Limit Theorem and the Law of Large Numbers are among the most important results of probability theory. The first one seeks conditions under which [formula] converges in distribution to the normal distribution with parameters 0 and 1, when n tends to infinity, where Sn is the sum of n independent random variables. At the same time, the second gives conditions such that [formula] converges to zero, or equivalently, that [formula] converges to the expectation of the random variables,if they are identically distributed. In both cases, the sequences discussed are of the type [formula], where [formula] and [formula] are real constants. Characterizing the possible limits of such sequences is one of the goals of this dissertation, as they not only converge to a degenerated random variable or a random variable with normal distribution, as the Law of Large Numbers and the Central Limit Theorem, respectively. Thus, we are naturally led to the study of infinitely divisible and stable distributions and their limits theorems. This becomes the main objective of this dissertation. In order to prove the theorems, the method of Lyapunov is applied as the main strategy, which analyzes the convergence of the sequence of characteristic functions related to the random variables. So we carry out a detailed approach of such functions in this research.
2

Abordagens frequentista e bayesiana para descrição das curvas de acúmulo de matéria seca de plantas de alho / Frequentist and bayesian approaches for description of the accumulation curves of dry garlic plants

Macedo, Leandro Roberto de 03 December 2015 (has links)
Submitted by Reginaldo Soares de Freitas (reginaldo.freitas@ufv.br) on 2016-03-22T16:25:00Z No. of bitstreams: 1 texto completo.pdf: 569929 bytes, checksum: e0a970662b9100bcb56f042769964f0d (MD5) / Made available in DSpace on 2016-03-22T16:25:00Z (GMT). No. of bitstreams: 1 texto completo.pdf: 569929 bytes, checksum: e0a970662b9100bcb56f042769964f0d (MD5) Previous issue date: 2015-12-03 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Este trabalho teve como objetivo identificar modelos de regressão não linear que melhor descrevem as curvas de acúmulo de matéria seca em acessos de alho ao longo do tempo (60, 90, 120 e 150 dias após o plantio) utilizando as abordagens Frequentista e Bayesiana. Objetivou-se também agrupar os acessos similares em cada abordagem com relação às estimativas dos parâmetros e validar este agrupamento via inferência para a igualdade desses parâmetros entre os grupos formados. Para tal estudo foram utilizados 30 acessos de alho registrados no Banco de Germoplasma de Hortaliças da Universidade Federal de Viçosa (BGH/UFV). Os modelos Logístico, Gompertz e Von Bertalanffy mostraram-se bons representantes para este tipo de estudo, sendo o modelo Logístico o que melhor se ajustou aos dados. Após a escolha do melhor modelo em cada uma das abordagens, as estimativas dos parâmetros das curvas provenientes do ajuste deste modelo foram submetidas a análise de agrupamento, em que as estimativas foram consideradas como variáveis. Para o agrupamento foi utilizando o algoritmo de Ward e a distância generalizada de Mahalanobis como medida de proximidade. O número ótimo de grupos, segundo o método de Mojena, foi de três para a abordagem Frequentista e quatro para a Bayesiana. A inferência sobre igualdade de parâmetros das curvas entre os grupos formados indicou que o método Bayesiano mostrou-se eficiente e caracterizou-se como uma ferramenta útil para o estudo das curvas de acúmulo de matéria seca em plantas de alho visto que não apresentou problemas de convergência e reportou estimativas com baixos desvios padrão a posteriori, além de determinar de forma mais efetiva o número de grupos. / This thesis aimed to identify nonlinear regression models that best describe dry matter accumulation curves in garlic accessions over time (60, 90, 120, and 150 days after planting). When doing so, frequentist and Bayesian technics of estimation were analyzed. It was also intended to cluster similar garlic accessions according to their estimated parameters in each estimation approach, and to validate such clustering by means of tests for the equality of parameters. Dataset comprised 30 garlic accessions belonging to the Vegetable Germplasm Bank of Universidade Federal de Viçosa (BGH/UFV). Our results showed that Logistic, Gompertz, and Von Bertalanffy models are well-suited for studies in this research area, while the Logistic model presented the best goodness-of-fit indicators in both approaches. Next, we applied Ward’s clustering algorithm, with Mahalanobis’ generalized distances, in order to group Logistic curve estimated parameters for each garlic accessions. The optimal number of groups, according to Mojenas’ method, was three for the frequentist method, and four, when considering the Bayesian method. Finally, we were able to conclude that the Bayesian technic of estimation is well-suited for studies related to this one, since it has not presented convergence problems, has reported estimates with lower posterior standard deviations, and has discriminated in the most effective way the groups of garlic plants.
3

Monitoramento da média e da variabilidade ponderadas exponencialmente por gráficos de controle univariados / Monitoring of media and variability exponentially weighted by univariate control charts

Barbosa, Rafael Botelho 15 December 2015 (has links)
Submitted by Marco Antônio de Ramos Chagas (mchagas@ufv.br) on 2016-03-23T16:56:03Z No. of bitstreams: 1 texto completo.pdf: 772760 bytes, checksum: 1dfda33e428219d0265c84bf84a7cbdd (MD5) / Made available in DSpace on 2016-03-23T16:56:03Z (GMT). No. of bitstreams: 1 texto completo.pdf: 772760 bytes, checksum: 1dfda33e428219d0265c84bf84a7cbdd (MD5) Previous issue date: 2015-12-15 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Gráficos de controle são métodos utilizados no controle estatístico de processos (CEP), implantados nas situações em que o processo já se encontra sob controle estatístico e há necessidade de fazer com que a situação de estabilidade seja mantida. O presente trabalho analisou o desempenho de cinco tipos de gráficos de controle da ponderação exponencial, através da imposição de situações de deslocamento da média e, ou, do aumento da variabilidade, que são: média móvel ponderada exponencialmente (EWMA), erro quadrático médio móvel ponderado exponencialmente (EWMASD), amplitude móvel média móvel ponderada exponencialmente (EWMAMR), quadrado médio ponderado exponencialmente (EWMS) e variância amostral móvel ponderada exponencialmente (EWMSV). Foram geradas 1000 simulações, com 50 subgrupos racionais de tamanho n =], para cada combinação de média e variabilidade adotadas neste estudo. Cada gráfico de controle estudado possuiu dois fatores {A (λ) e B [k (EWMA), c (EWMASD), α (EWMAMR e EWMS) ou h * (EWMSV)]}, e foram escolhidos dois diferentes níveis para cada um deles. Os resultados foram interpretados através da utilização de diagramas de dispersão, de gráficos de Pareto para analisar os efeitos de cada fator e de testes de Tukey para comparação dos gráficos de controle. Para as situações em que o processo estava sob controle estatístico, foi adotado que os gráficos com bons desempenhos foram aqueles que apresentaram as probabilidades dos alarmes falsos inferiores ao valor 0,05, ou seja, α ≤ 0,05. Já para as situações de descontrole, foi considerado que os gráficos que possuíram probabilidades dos alarmes verdadeiros superiores a 0,90, ou seja, Pd ≥ 0,90, obtiveram desempenho satisfatório. Para o alarme falso, os gráficos de controle que atenderam a exigência foram: EWMA, EWMASD, EWMAMR e EWMS. No caso em que somente a média encontrava-se fora de controle, os gráficos de controle que satisfizeram a condição imposta para o alarme verdadeiro foram: EWMA, EWMASD, EWMS e EWMSV. Quando a variabilidade estava fora de controle, os gráficos que atenderam a exigência foram: EWMASD, EWMAMR, EWMS e EWMSV. Quando média e variabilidade estavam fora de controle, os gráficos que satisfizeram a exigência foram: EWMA, EWMASD, EWMAMR, EWMS e EWMSV. Como o gráfico de controle EWMSV não atendeu a exigência para a probabilidade do alarme falso, não foi recomendada a sua utilização. No entanto, alguns desses gráficos possuíram desempenhos superiores aos outros, logo, a recomendação para utilização dos gráficos foi que: para o monitoramento somente da média, os gráficos adequados foram EWMA, EWMASD e EWMS; para o monitoramento somente da variabilidade, recomenda- se a utilização dos gráficos EWMASD, EWMAMR e EWMS; e para o monitoramento da média e variabilidade, os gráficos sugeridos são EWMA, EWMASD, EWMAMR e EWMS. Quanto a análise do efeito dos fatores pelo diagrama de Pareto, concluiu-se que, na grande maioria das situações analisadas, o fator B foi o único responsável por acarretar mudanças significativas na probabilidade do alarme falso ou verdadeiro, de acordo com as combinações dos termos que foram utilizadas. / Control charts are methods used in statistical process control (SPC), deployed in situations Where the process is already under statistical control and no need to make the situation of stability is maintained. This study examined the performance of five types of exponential smoothing control charts, by imposing the average displacement situations and, or, the increased variability, Which are weighted moving average exponentially (EWMA), exponentially weighted moving average squared deviation (EWMASD), exponentially weighted moving average moving range (EWMAMR), exponentially weighted mean squared (EWMS) and exponentially weighted moving sample variance (EWMSV). 1000 simulations were run With 50 rational subgroup of size n = 1, for each combination of mean and variability adopted in this study. Each control chart possessed studied two factors {A ( λ) and B [k (EWMA), c (EWMASD), α (EWMAMR and EWMS) or h* (EWMSV)]}, and we chose two different levels for each of them. The results were interpreted using the dispersion diagrams, Pareto charts to analyze the effects of each factor and Tukey test for comparison of control charts. For situations Where the process was in statistical control, was adopted the charts With good performances were those showing the probabilities of false alarms below the value 0,05, or α ≤ 0,05. As for the uncontrolled situations, it was considered that the graphs of true alarms probabilities possessed higher than 0,90, or Pd ≥ 0,90, achieved satisfactory performance. For the false alarm, control charts that met the requirement were: EWMA, EWMASD, EWMAMR and EWMS. In the event that only the average found himself out of control, control charts that satisfy the condition imposed for the true alarm were: EWMA, EWMASD, EWMS and EWMSV. When the variability was out of control, the graphics that met the requirement were EWMASD, EWMAMR, EWMS and EWMSV. When average and variability were out of control, the graphics that met the requirement were: EWMA, EWMASD, EWMAMR, EWMS and EWMSV. As the EWMSV control chart did not meet the requirement for the probability of false alarm, it was not recommended for use. However, some of these performance graphs possessed superior to others, so the recommendation is to use graphics that: for monitoring only the average, the recommended graphics are EWMA, EWMASD and EWMS; for monitoring only the variability, it is recommended to use EWMASD, EWMAMR and EWMS graphics; and to monitor the average and variability, the graphics are suggested EWMA, EWMASD, EWMAMR and EWMS. The analysis of the effect of the factors by Pareto diagram, it was concluded that, in most situations analyzed, the factor B was solely responsible for cause significant changes in the probability of true or false alarm, according to the combinations of terms were used.
4

Determinação do número de toras comerciais destinadas à produção de celulose aplicando um modelo de distribuição diamétrica e equação de taper / Determining the number of commercial logs for the production of cellulose applying a diametric distribution model and taper equation

Gomide, Cintia Ribeiro 19 February 2016 (has links)
Submitted by Reginaldo Soares de Freitas (reginaldo.freitas@ufv.br) on 2016-08-19T13:24:11Z No. of bitstreams: 1 texto completo.pdf: 24313892 bytes, checksum: bc52ffd41b682b4b6f05cfcde760d14e (MD5) / Made available in DSpace on 2016-08-19T13:24:11Z (GMT). No. of bitstreams: 1 texto completo.pdf: 24313892 bytes, checksum: bc52ffd41b682b4b6f05cfcde760d14e (MD5) Previous issue date: 2016-02-19 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / O conhecimento da distribuição diamétrica de um povoamento de eucalipto, associado à aplicação de equações de afilamento do fuste propiciam informações acerca do número de toras vinculadas às dimensões especificadas de um determinado produto. O objetivo deste estudo foi obter a distribuição de diâmetros, bem como, ajustar um modelo de distribuição diamétrica e de taper, visando determinar o número de toras com dimensões comerciais relacionadas à produção de celulose. Ademais, identificar o dap mínimo, aos 84 meses, que permita obter pelo menos uma tora com as dimensões aludidas e testar modelos para a projeção do dap. Foram utilizados dados provenientes de parcelas permanentes de inventário florestal contínuo. A partir da classificação da capacidade produtiva, selecionaram-se 12 projetos, sendo um por classe de local (I, II e III) e um por região (A, B, C e D). Para estimar a distribuição diamétrica em idades atuais e futuras ajustou-se a função Weibull de dois parâmetros. Para correlacionar atributos do povoamento e parâmetros da função densidade de probabilidade foram ajustados modelos constituídos pelas seguintes variáveis: idade, diâmetro máximo, diâmetro mínimo, número de árvores, altura dominante e combinações dessas variáveis. O modelo de taper ajustado foi o proposto por Garay. Foram testados dois modelos para a projeção do dap. A distribuição diamétrica estimada seguiu a distribuição observada, assim como, o ajuste das equações do modelo de distribuição diamétrica mostrou-se adequado aos dados. A equação de afilamento ajustada forneceu estimativas precisas quanto à altura relativa aos diâmetros dos centros de classes da distribuição diamétrica, possibilitando calcular o número de toras comerciais por classe e, ainda, identificar o dap mínimo a partir do qual é possível obter pelo menos uma tora comercial. Os modelos testados para estimar o crescimento em dap ajustaram-se bem aos dados. A metodologia proposta revelou ser consistente e viabiliza estudos para melhorias de modelos de planejamento florestal. / Knowledge of the diameter distribution of a eucalyptus stand, associated with the application of taper functions provide information about the number of logs linked to a particular product dimensions. The objective of this study was to obtain the distribution of diameters as well, fit a model of diameter distribution and taper, in order to determine the number of logs with commercial aspects related to pulp production. Besides, identifying the minimum dap, at 84 months, able to provide at least a log with the aforementioned dimensions and test models for the projection of dap. The data used in this study were originated from permanent plots of continuous forest inventories. From the productive capacity rating, were selected 12 projects, one per class of site index (I, II and III) and one per region (A, B, C and D). To estimate the diameter distribution of current and future age the Weibull function of two parameters was adjusted. In order to correlate attributes of the stand and parameters of the probability density function were adjusted models consisting of the following variables: age, maximum diameter, minimum diameter, number of trees, dominant height and combinations of these variables. The adjusted taper model was proposed by Garay. Two models for the projection of dap were tested. The estimated diameter distribution followed the observed distribution as well as the adjustment of the diametric distribution model equations was adequate to the data. The taper equation provided accurate estimates of the height relative to diameter of center classes of the diameter distribution, making it possible to calculate the number of commercial logs per class and also to identify the minimum dap from which you can get at least one log commercial. The models tested to estimate the growth dap set up well to the data. The proposed methodology proved to be consistent and enables studies to improve forest planning models.
5

Uma nova proposta de cálculo do prêmio de risco: uma análise no mercado de capitais brasileiro

Roma, Carolina Magda da Silva 29 January 2013 (has links)
Submitted by Suethene Souza (suethene.souza@ufpe.br) on 2015-03-05T17:54:19Z No. of bitstreams: 2 DISSERTAÇÃO Carolina Magda da Silva Roma.pdf: 2200454 bytes, checksum: 5284fb965bb815a50d6895a8d2342228 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-05T17:54:19Z (GMT). No. of bitstreams: 2 DISSERTAÇÃO Carolina Magda da Silva Roma.pdf: 2200454 bytes, checksum: 5284fb965bb815a50d6895a8d2342228 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2013-01-29 / FACEPE / Com a presente pesquisa se propôs a apresentar uma nova maneira de mensurar o prêmio de risco e analisar qual a melhor distribuição de probabilidade contínua que modela os dados estudados para o período completo e segmentações. Mehra e Prescott (1985) analisaram o prêmio de risco histórico por quase um século e obtiveram um resultado não suportado pela teoria econômica financeira, o qual foi denominado Equity Premium Puzzle (EPP). O prêmio de risco é estudado por diversos pesquisadores ao redor do mundo, porém, ainda hoje, não há consenso sobre como mensurá-lo, sendo classicamente entendido como o retorno de um ativo mais arriscado sobre um ativo livre de risco. Ele é uma variável integrante no cálculo do Capital Asset Pricing Model, ou Modelo de Precificação de Ativos (CAPM), comumente utilizado em finanças. Assim, buscou-se uma nova maneira de obter o prêmio de risco a partir da equação diferencial estocástica do movimento browniano geométrico (MBG). Para tanto, o prêmio foi calculado pela razão entre a diferença no retorno do índice Ibovespa (IBOV), para duas ações com maior participação no respectivo índice, baseado na última carteira de 2012, a Vale do Rio Doce (VALE5) e a Petrobrás (PETR4) e também para a empresa com maior participação no índice de consumo, a AmBev (AMBV4) e o ativo livre de risco tendo, neste caso, sido escolhido o Certificado de Depósito Interfinanceiro (CDI), com volatilidade para janeiro de 1998 a julho de 2012. As distribuições do prêmio de risco utilizadas neste trabalho foram gaussiana, Gama, T de Student, Weibull e logística. A volatilidade foi mensurada pelo software Matlab, com uma rotina que altera o modelo ARMA+ família GARCH e a distribuição do termo de erro com a gaussiana e T de Student, para que fosse escolhido aquele que melhor captura as características das séries. Os resultados apontaram um prêmio de risco pela média aritmética para os períodos completos em torno de 5,4% para o IBOV, 8,6% para a AMBV4, 7,7% para a VALE5 e 5,8% para a PETR4. Quanto à distribuição de probabilidade, predominaram, em muitos dos períodos segmentados escolhido pelos testes de aderência Anderson-Darling (A-D), Kolmogorov-Smirnov (K-S) e Qui-Quadrado ( 2  ), em primeiro lugar, a logística e, em segundo, a T de Student. Palavras
6

Métodos de estimação de parâmetros em modelos geoestatísticos com diferentes estruturas de covariâncias: uma aplicação ao teor de cálcio no solo. / Parameter estimation methods in geostatistic models with different covariance structures: an application to the calcium content in the soil.

Oliveira, Maria Cristina Neves de 17 March 2003 (has links)
A compreensão da dependência espacial das propriedades do solo vem sendo cada vez mais requerida por pesquisadores que objetivam melhorar a interpretação dos resultados de experimentos de campo fornecendo, assim, subsídios para novas pesquisas a custos reduzidos. Em geral, variáveis como, por exemplo, o teor de cálcio no solo, estudado neste trabalho, apresentam grande variabilidade impossibilitando, na maioria das vezes, a detecção de reais diferenças estatísticas entre os efeitos de tratamentos. A consideração de amostras georreferenciadas é uma abordagem importante na análise de dados desta natureza, uma vez que amostras mais próximas são mais similares do que as mais distantes e, assim, cada realização desta variável contém informação de sua vizinhança. Neste trabalho, métodos geoestatísticos que baseiam-se na modelagem da dependência espacial, nas pressuposições Gaussianas e nos estimadores de máxima verossimilhança são utilizados para analisar e interpretar a variabilidade do teor de cálcio no solo, resultado de um experimento realizado na Fazenda Angra localizada no Estado do Rio de Janeiro. A área experimental foi dividida em três regiões em função dos diferentes períodos de adubação realizadas. Neste estudo foram utilizados dados do teor de cálcio obtidos das camadas 0-20cm e 20-40cm do solo, de acordo com as coordenadas norte e leste. Modelos lineares mistos, apropriados para estudar dados com esta característica, e que permitem a utilização de diferentes estruturas de covariâncias e a incorporação da região e tendência linear das coordenadas foram usados. As estruturas de covariâncias utilizadas foram: a exponencial e a Matérn. Para estimar e avaliar a variabilidade dos parâmetros utilizaram-se os métodos de máxima verossimilhança, máxima verossimilhança restrita e o perfil de verossimilhança. A identificação da dependência e a predição foram realizadas por meio de variogramas e mapas de krigagem. Além disso, a seleção do modelo adequado foi feita pelo critério de informação de Akaike e o teste da razão de verossimilhanças. Observou-se, quando utilizado o método de máxima verossimilhança, o melhor modelo foi aquele com a covariável região e, com o método de máxima verossimilhança restrita, o modelo com a covariável região e tendência linear nas coordenadas (modelo 2). Com o teor de cálcio, na camada 0-20cm e considerando-se a estrutura de covariância exponencial foram obtidas as menores variâncias nugget e a maior variância espacial (sill - nugget). Com o método de máxima verossimilhança e com o modelo 2 foram observadas variâncias de predição mais precisas. Por meio do perfil de verossimilhança pode-se observar menor variabilidade dos parâmetros dos variogramas ajustados com o modelo 2. Utilizando-se vários modelos e estruturas de covariâncias, deve-se ser criterioso, pois a precisão das estimativas, depende do tamanho da amostra e da especificação do modelo para a média. Os resultados obtidos foram analisados, com a subrotina geoR desenvolvida por Ribeiro Junior & Diggle (2000), e por meio dela pode-se obter estimativas confiáveis para os parâmetros dos diferentes modelos estimados. / The understanding of the spatial dependence of the properties of the soil becomes more and more required by researchers that attempt to improve the interpretation of the results of field experiments supplying subsidies for new researches at reduced costs. In general, variables as, for example, the calcium content in the soil, studied in this work, present great variability disabling, most of the time, the detection of real statistical differences among the treatment effects. The consideration of georeferenced samples is an important approach in the analysis of data of this nature, because closer samples are more similar than the most distant ones and, thus, each realization of this variable contains information of its neighborhood. In this work, geostatistics methods that are based on the modeling of the spatial dependence, under the Gaussian assumptions and the maximum likelihood estimators, are used to analyze and to interpret the variability of calcium content in the soil, obtained from an experiment carried on at Fazenda Angra, located in Rio de Janeiro, Brazil. The experimental area was divided in three areas depending on the different periods of fertilization. In this study, data of the calcium soil content from the layers 0-20cm and 20-40cm, were used, according to the north and east coordinates. Mixed linear models, ideal to study data with this characteristic, and that allow the use of different covariance structures, and the incorporation of the region and linear tendency of the coordinates, were used. The covariance structures were: the exponential and the Matérn. Maximum likelihood, maximum restricted likelihood and the profile of likelihood methods were used to estimate and to evaluate the variability of the parameters. The identification of the dependence and the prediction were realized using variograms and krigging maps. Besides, the selection of the appropriate model was made through the Akaike information criterion and the likelihood ratio test. It was observed that when maximum likelihood method was used the most appropriate model was that with the region covariate and, with the maximum restricted likelihood method, the best model was the one with the region covariate and linear tendency in the coordinates (model 2). With the calcium content, in the layer 0-20cm and considering the exponential covariance structure, the smallest nugget variances and the largest spatial variance (sill - nugget) were obtained. With the maximum likelihood method and with the model 2 more precise prediction variances were observed. Through the profile of likelihood method, smaller variability of the adjusted variogram parameters can be observed with the model 2. With several models and covariance structures being used, one should be very critical, because the precision of the estimates depends on the size of the sample and on the specification of the model for the average. The obtained results were analyzed, with the subroutine geoR developed by Ribeiro Junior & Diggle (2000), and through this subroutine, reliable estimates for the parameters of the different estimated models can be obtained.
7

Métodos de estimação de parâmetros em modelos geoestatísticos com diferentes estruturas de covariâncias: uma aplicação ao teor de cálcio no solo. / Parameter estimation methods in geostatistic models with different covariance structures: an application to the calcium content in the soil.

Maria Cristina Neves de Oliveira 17 March 2003 (has links)
A compreensão da dependência espacial das propriedades do solo vem sendo cada vez mais requerida por pesquisadores que objetivam melhorar a interpretação dos resultados de experimentos de campo fornecendo, assim, subsídios para novas pesquisas a custos reduzidos. Em geral, variáveis como, por exemplo, o teor de cálcio no solo, estudado neste trabalho, apresentam grande variabilidade impossibilitando, na maioria das vezes, a detecção de reais diferenças estatísticas entre os efeitos de tratamentos. A consideração de amostras georreferenciadas é uma abordagem importante na análise de dados desta natureza, uma vez que amostras mais próximas são mais similares do que as mais distantes e, assim, cada realização desta variável contém informação de sua vizinhança. Neste trabalho, métodos geoestatísticos que baseiam-se na modelagem da dependência espacial, nas pressuposições Gaussianas e nos estimadores de máxima verossimilhança são utilizados para analisar e interpretar a variabilidade do teor de cálcio no solo, resultado de um experimento realizado na Fazenda Angra localizada no Estado do Rio de Janeiro. A área experimental foi dividida em três regiões em função dos diferentes períodos de adubação realizadas. Neste estudo foram utilizados dados do teor de cálcio obtidos das camadas 0-20cm e 20-40cm do solo, de acordo com as coordenadas norte e leste. Modelos lineares mistos, apropriados para estudar dados com esta característica, e que permitem a utilização de diferentes estruturas de covariâncias e a incorporação da região e tendência linear das coordenadas foram usados. As estruturas de covariâncias utilizadas foram: a exponencial e a Matérn. Para estimar e avaliar a variabilidade dos parâmetros utilizaram-se os métodos de máxima verossimilhança, máxima verossimilhança restrita e o perfil de verossimilhança. A identificação da dependência e a predição foram realizadas por meio de variogramas e mapas de krigagem. Além disso, a seleção do modelo adequado foi feita pelo critério de informação de Akaike e o teste da razão de verossimilhanças. Observou-se, quando utilizado o método de máxima verossimilhança, o melhor modelo foi aquele com a covariável região e, com o método de máxima verossimilhança restrita, o modelo com a covariável região e tendência linear nas coordenadas (modelo 2). Com o teor de cálcio, na camada 0-20cm e considerando-se a estrutura de covariância exponencial foram obtidas as menores variâncias nugget e a maior variância espacial (sill – nugget). Com o método de máxima verossimilhança e com o modelo 2 foram observadas variâncias de predição mais precisas. Por meio do perfil de verossimilhança pode-se observar menor variabilidade dos parâmetros dos variogramas ajustados com o modelo 2. Utilizando-se vários modelos e estruturas de covariâncias, deve-se ser criterioso, pois a precisão das estimativas, depende do tamanho da amostra e da especificação do modelo para a média. Os resultados obtidos foram analisados, com a subrotina geoR desenvolvida por Ribeiro Junior & Diggle (2000), e por meio dela pode-se obter estimativas confiáveis para os parâmetros dos diferentes modelos estimados. / The understanding of the spatial dependence of the properties of the soil becomes more and more required by researchers that attempt to improve the interpretation of the results of field experiments supplying subsidies for new researches at reduced costs. In general, variables as, for example, the calcium content in the soil, studied in this work, present great variability disabling, most of the time, the detection of real statistical differences among the treatment effects. The consideration of georeferenced samples is an important approach in the analysis of data of this nature, because closer samples are more similar than the most distant ones and, thus, each realization of this variable contains information of its neighborhood. In this work, geostatistics methods that are based on the modeling of the spatial dependence, under the Gaussian assumptions and the maximum likelihood estimators, are used to analyze and to interpret the variability of calcium content in the soil, obtained from an experiment carried on at Fazenda Angra, located in Rio de Janeiro, Brazil. The experimental area was divided in three areas depending on the different periods of fertilization. In this study, data of the calcium soil content from the layers 0-20cm and 20-40cm, were used, according to the north and east coordinates. Mixed linear models, ideal to study data with this characteristic, and that allow the use of different covariance structures, and the incorporation of the region and linear tendency of the coordinates, were used. The covariance structures were: the exponential and the Matérn. Maximum likelihood, maximum restricted likelihood and the profile of likelihood methods were used to estimate and to evaluate the variability of the parameters. The identification of the dependence and the prediction were realized using variograms and krigging maps. Besides, the selection of the appropriate model was made through the Akaike information criterion and the likelihood ratio test. It was observed that when maximum likelihood method was used the most appropriate model was that with the region covariate and, with the maximum restricted likelihood method, the best model was the one with the region covariate and linear tendency in the coordinates (model 2). With the calcium content, in the layer 0-20cm and considering the exponential covariance structure, the smallest nugget variances and the largest spatial variance (sill - nugget) were obtained. With the maximum likelihood method and with the model 2 more precise prediction variances were observed. Through the profile of likelihood method, smaller variability of the adjusted variogram parameters can be observed with the model 2. With several models and covariance structures being used, one should be very critical, because the precision of the estimates depends on the size of the sample and on the specification of the model for the average. The obtained results were analyzed, with the subroutine geoR developed by Ribeiro Junior & Diggle (2000), and through this subroutine, reliable estimates for the parameters of the different estimated models can be obtained.

Page generated in 0.1245 seconds