• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 37
  • 5
  • 1
  • Tagged with
  • 47
  • 47
  • 28
  • 21
  • 17
  • 14
  • 13
  • 12
  • 10
  • 10
  • 10
  • 10
  • 10
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Avaliação dos modelos Probit e Logit com aplicação na longevidade de sementes de soja /

Faria, Rute Quelvia de January 2019 (has links)
Orientador: Maria Márcia Pereira Sartori / Resumo: O estudo da longevidade é uma ferramenta importante na análise da qualidade fisiológica em sementes. A modelagem da curva de sobrevivência em sementes permite a predição do seu período de vida, que baliza os mais variados estudos em conservação e tecnologia de sementes. O modelo de Probit foi inicialmente proposto como o modelo ideal para predição da longevidade das sementes, contudo, estudos têm reportado certa dificuldade de predição do modelo em diferentes condições de estresse e armazenagem a que as sementes são submetidas. A equação da viabilidade em sementes a partir do modelo de Probit permite calcular o valor do P50, que é o período em que um lote de sementes leva para perder 50% da sua viabilidade. O modelo de Logit é similar ao de Probit, com a vantagem de ser mais simples, e de se adequar melhor ao comportamento dos dados com caudas pesadas. Assim, o objetivo deste estudo foi avaliar os modelos de Probit e Logit quanto a sua robustez na predição da longevidade das sementes. Para tanto, sementes de soja foram selecionadas quanto ao seu vigor, em delineamento inteiramente casualizado, e armazenadas à 35°C e 75% de umidade relativa, até que fosse constatada sua morte, por meio de testes de germinação realizados periodicamente. A construção das curvas de sobrevivência, após o experimento encerrado, permitiu a análise dos modelos de Probit e Logit, por meio dos parâmetros R2, Rajustado, e do coeficiente de correlação de Pearson. O estudo da normalidade dos resíduos tamb... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: The study of longevity is an important tool in the analysis of physiological quality in seeds. The modeling of the survival curve in seeds allows the prediction of their half time life, which could be used to reference for the most varied studies on conservation and seed technology. The Probit model was initially proposed as the ideal model for seed longevity prediction, however, studies have reported about some errors found after applying the model under different stress and storage conditions in which seeds are submitted. The seed viability equation from the Probit model allows to calculate the value of P50, which is the period in which a seed lot loss 50% of its viability. The Logit model is similar to the Probit model, with the advantage of being simpler and better suited to heavy tails data, as occurs in seed longevity data. The aim of this study was to evaluate the Probit and Logit models for their robustness in predicting seed longevity. For this purpose, soybean seeds were selected according to their vigor, in a completely randomized design, and stored in 35 °C and 75% relative humidity until their death was verified by periodic germination tests. The construction of survival curves, after the experiment ended, allowed the analysis of Probit and Logit models, through the parameters R2 , Radjusted, and the Pearson correlation coefficient. The study of the normality of the residues was also performed to evaluate the models. The results showed the superiority of the Logi... (Complete abstract click electronic access below) / Doutor
32

Modelos de regressão para dados censurados sob distribuições simétricas / Regression models for censored data under symmetric distributions.

Garay, Aldo William Medina 30 April 2014 (has links)
Este trabalho tem como objetivo principal apresentar uma abordagem clássica e Bayesiana dos modelos lineares com observações censuradas, que é uma nova área de pesquisa com grandes possibilidades de aplicações. Aqui, substituimos o uso convencional da distribuição normal para os erros por uma família de distribuições mais flexíveis, o que nos permite lidar de forma mais adequada com observações censuradas na presença de outliers. Esta família é obtida através de um mecanismo de fácil construção e possui como casos especiais as distribuições t de Student, Pearson tipo VII, slash, normal contaminada e, obviamente, a normal. Para o caso de respostas correlacionadas e censuradas propomos um modelo de regressão linear robusto baseado na distribuição t de Student, desenvolvendo um algoritmo tipo EM que depende dos dois primeiros momentos da distribuição t de Student truncada. / This work aims to present a classical and Bayesian approach to linear models with censored observations, which is a new area of research with great potential for applications. Here, we replace the conventional use of the normal distribution for the errors of a more flexible family of distributions, which deal in more appropriately with censored observations in the presence of outliers. This family is obtained through a mechanism easy to construct and has as special cases the distributions Student t, Pearson type VII, slash, contaminated normal, and obviously normal. For the case of correlated and censored responses we propose a model of robust linear regression based on Student\'s t distribution and we developed an EM type algorithm based on the first two moments of the truncated Student\'s t distribution.
33

Desenvolvimento de um modelo estatístico para aplicação no estudo de fadiga em emendas dentadas de madeira / not available

Espinosa, Mariano Martinez 27 November 2001 (has links)
Madeira laminada colada (MLC) é um material de construção muito empregado em estruturas. Este produto é composto de lâminas classificadas de madeira, coladas horizontalmente, para formar peças estruturais de madeira grandes dimensões. A união das lâminas é realizada através de distintos tipos de emendas longitudinais, sendo as emendas dentadas as mais utilizadas. Considerando que os componentes estruturais de MLC, em geral, são solicitadas a carregamentos cíclicos, este trabalho tem por finalidade a proposta de um modelo estatístico para a determinação da vida à fadiga em menos dentadas de madeira. O trabalho foi realizado no Laboratório de Madeiras e de Estruturas de madeira (LaMEM), com o estudo teórico e experimental da fadiga em corpos-de-prova tracionados de ligações com emendas dentadas, baseado em um planejamento estatístico de experimentos e na NBR 7190/97. Os resultados contidos mostram que o modelo Polinomial Ortogonal Múltiplo da distribuição de Birnbaum-Saunders é de grande precisão e o mais adequado ao estudo da fadiga. O uso deste modelo pode ser de grande benefício, já que com ele se poderá estimar e caracterizar com maior confiabilidade e precisão a um menor custo a vida à fadiga em emendas dentadas de madeira, considerando as variáveis independentes de tensão e freqüência. / In the production of structural elements of Glued Laminated Timber (GLULAM), the horizontal union of lumbers are made with finger joints. Considering that the structural components of GLULAM need a great number of finger joints, and some of these structures are subject to cyclic loading, the objective of this work is to present a statistical model to estimate the fatigue life in lumber tension finger joints. The theoretical and experimental work was made in the Laboratory of Wood and Timber Structures (LaMEM), based on a statistical experiment design using tension tests and in agreement with the NBR 7190/97 code. The estimation procedure was based on the multiple orthogonal polynomial Birnbaum-Saunders model and the results show that the parameter estimates of the multiple orthogonal polynomial Birnbaum-Saunders model are obtained with at good accuracy and the most appropriate for the wood fatigue study. The use of the model can be of great benefit, since with it can be fit and characterize with greater reliability and precision at a smaller cost the fatigue life in finger joints of wood, considering the independent variables stress and frequency.
34

Estimação de estado: a interpretação geométrica aplicada ao processamento de erros grosseiros em medidas / Study of systems with optical orthogonal multicarrier and consistent

Breno Elias Bretas de Carvalho 22 March 2013 (has links)
Este trabalho foi proposto com o objetivo de implementar um programa computacional para estimar os estados (tensões complexas nodais) de um sistema elétrico de potência (SEP) e aplicar métodos alternativos para o processamento de erros grosseiros (EGs), baseados na interpretação geométrica dos erros e no conceito de inovação das medidas. Através da interpretação geométrica, BRETAS et al. (2009), BRETAS; PIERETI (2010), BRETAS; BRETAS; PIERETI (2011) e BRETAS et al. (2013) demonstraram matematicamente que o erro da medida se compõe de componentes detectáveis e não detectáveis, e ainda que a componente detectável do erro é exatamente o resíduo da medida. As metodologias até então utilizadas, para o processamento de EGs, consideram apenas a componente detectável do erro, e como consequência, podem falhar. Na tentativa de contornar essa limitação, e baseadas nos trabalhos citados previamente, foram estudadas e implementadas duas metodologias alternativas para processar as medidas portadoras de EGs. A primeira, é baseada na análise direta das componentes dos erros das medidas; a segunda, de forma similar às metodologias tradicionais, é baseada na análise dos resíduos das medidas. Entretanto, o diferencial da segunda metodologia proposta reside no fato de não considerarmos um valor limiar fixo para a detecção de medidas com EGs. Neste caso, adotamos um novo valor limiar (TV, do inglês: Threshold Value), característico de cada medida, como apresentado no trabalho de PIERETI (2011). Além disso, com o intuito de reforçar essa teoria, é proposta uma forma alternativa para o cálculo destes valores limiares, através da análise da geometria da função densidade de probabilidade da distribuição normal multivariável, referente aos resíduos das medidas. / This work was proposed with the objective of implementing a computer program to estimate the states (complex nodal voltages) in an electrical power system (EPS) and apply alternative methods for processing gross errors (GEs), based on the geometrical interpretation of the measurements errors and the innovation concept. Through the geometrical interpretation, BRETAS et al. (2009), BRETAS; PIERETI (2010), BRETAS; BRETAS; PIERETI (2011) and BRETAS et al. (2013) proved mathematically that the measurement error is composed of detectable and undetectable components, and also showed that the detectable component of the error is exactly the residual of the measurement. The methods hitherto used, for processing GEs, consider only the detectable component of the error, then as a consequence, may fail. In an attempt to overcome this limitation, and based on the works cited previously, were studied and implemented two alternative methodologies for process measurements with GEs. The first one is based on the direct analysis of the components of the errors of the measurements, the second one, in a similar way to the traditional methods, is based on the analysis of the measurements residuals. However, the differential of the second proposed methodology lies in the fact that it doesn\'t consider a fixed threshold value for detecting measurements with GEs. In this case, we adopted a new threshold value (TV ) characteristic of each measurement, as presented in the work of PIERETI (2011). Furthermore, in order to reinforce this theory, we propose an alternative way to calculate these thresholds, by analyzing the geometry of the probability density function of the multivariate normal distribution, relating to the measurements residuals.
35

Distribuição normal: uma introdução voltada ao ensino médio por simulações via planilha eletrônica e exercícios interativos

Lima, Osmar Antonio de 04 August 2009 (has links)
Made available in DSpace on 2016-04-27T16:58:55Z (GMT). No. of bitstreams: 1 Osmar Antonio de Lima.pdf: 2129827 bytes, checksum: e41fc4037496877bf659e92892dcbe21 (MD5) Previous issue date: 2009-08-04 / Secretaria da Educação do Estado de São Paulo / The purpose of this study was introducing the content of Normal Distribution to high school students, being an approach proposed, aiming at the interaction of two environments, classroom and computer lab. The study was held with 11 high school students, bearing in mind the presentation of Normal Distribution by data simulation, using an electronic worksheet (Excel). The theoretical referential was based on the Anthropological Theory of the Didactics ATD to accomplish the intended purpose by the researcher: ease the comprehension of the stochastic concepts involving Normal Distribution by the students, by means of experiment simulations, using the electronic worksheet (Excel) and, also, interactive exercises. With this proposal, it was realized that the High School students began to recognize the characteristics and the graphical representation of a Normal Distribution, and from the analyses held in the classroom, it was verified that it was possible to relate the descriptive statistical contents with the probability ones and, this way, the students began to bear a sense of the relation between statistics and probability. Summarizing everything, the use of the electronic worksheet (Excel) with the interactive exercises enabled to guide the students towards the identification of concepts involving Normal Distribution, easing its interaction with the study object. Therefore, the students realized the idea of the existing relation between statistics and probability, which in this essay, was named as stochastic / O objetivo deste estudo foi introduzir o conteúdo da Distribuição Normal para alunos do Ensino Médio, sendo proposta uma abordagem, buscando a interação de dois ambientes, sala de aula e laboratório de informática. O estudo foi realizado com 11 alunos egressos do ensino médio, tendo em vista apresentar a Distribuição Normal pela simulação de dados, utilizando uma planilha eletrônica (Excel). O referencial teórico apoiou-se na Teoria Antropológica do Didático TAD para alcançar o objetivo pretendido pelo pesquisador: facilitar a compreensão dos conceitos estocásticos envolvendo a Distribuição Normal pelos alunos, por meio de simulação de experimentos, utilizando a planilha eletrônica (Excel) e, também, exercícios interativos. Com essa proposta, percebeu-se que os alunos do Ensino Médio passaram a reconhecer as características e a representação gráfica de uma Distribuição Normal, e a partir das análises realizadas em sala de aula, verificou-se que foi possível relacionar os conteúdos da estatística descritiva com os de probabilidade e, dessa forma, os alunos passaram a ter uma noção da relação entre estatística e probabilidade. Em síntese, o uso da planilha eletrônica (Excel), com os exercícios interativos possibilitaram encaminhar os alunos a identificação dos conceitos envolvendo a Distribuição Normal, facilitando sua interação com o objeto de estudo. Assim, os alunos perceberam a idéia da relação existente entre a estatística e a probabilidade, que neste trabalho, foi denominado como estocástica
36

Estimação de estado: a interpretação geométrica aplicada ao processamento de erros grosseiros em medidas / Study of systems with optical orthogonal multicarrier and consistent

Carvalho, Breno Elias Bretas de 22 March 2013 (has links)
Este trabalho foi proposto com o objetivo de implementar um programa computacional para estimar os estados (tensões complexas nodais) de um sistema elétrico de potência (SEP) e aplicar métodos alternativos para o processamento de erros grosseiros (EGs), baseados na interpretação geométrica dos erros e no conceito de inovação das medidas. Através da interpretação geométrica, BRETAS et al. (2009), BRETAS; PIERETI (2010), BRETAS; BRETAS; PIERETI (2011) e BRETAS et al. (2013) demonstraram matematicamente que o erro da medida se compõe de componentes detectáveis e não detectáveis, e ainda que a componente detectável do erro é exatamente o resíduo da medida. As metodologias até então utilizadas, para o processamento de EGs, consideram apenas a componente detectável do erro, e como consequência, podem falhar. Na tentativa de contornar essa limitação, e baseadas nos trabalhos citados previamente, foram estudadas e implementadas duas metodologias alternativas para processar as medidas portadoras de EGs. A primeira, é baseada na análise direta das componentes dos erros das medidas; a segunda, de forma similar às metodologias tradicionais, é baseada na análise dos resíduos das medidas. Entretanto, o diferencial da segunda metodologia proposta reside no fato de não considerarmos um valor limiar fixo para a detecção de medidas com EGs. Neste caso, adotamos um novo valor limiar (TV, do inglês: Threshold Value), característico de cada medida, como apresentado no trabalho de PIERETI (2011). Além disso, com o intuito de reforçar essa teoria, é proposta uma forma alternativa para o cálculo destes valores limiares, através da análise da geometria da função densidade de probabilidade da distribuição normal multivariável, referente aos resíduos das medidas. / This work was proposed with the objective of implementing a computer program to estimate the states (complex nodal voltages) in an electrical power system (EPS) and apply alternative methods for processing gross errors (GEs), based on the geometrical interpretation of the measurements errors and the innovation concept. Through the geometrical interpretation, BRETAS et al. (2009), BRETAS; PIERETI (2010), BRETAS; BRETAS; PIERETI (2011) and BRETAS et al. (2013) proved mathematically that the measurement error is composed of detectable and undetectable components, and also showed that the detectable component of the error is exactly the residual of the measurement. The methods hitherto used, for processing GEs, consider only the detectable component of the error, then as a consequence, may fail. In an attempt to overcome this limitation, and based on the works cited previously, were studied and implemented two alternative methodologies for process measurements with GEs. The first one is based on the direct analysis of the components of the errors of the measurements, the second one, in a similar way to the traditional methods, is based on the analysis of the measurements residuals. However, the differential of the second proposed methodology lies in the fact that it doesn\'t consider a fixed threshold value for detecting measurements with GEs. In this case, we adopted a new threshold value (TV ) characteristic of each measurement, as presented in the work of PIERETI (2011). Furthermore, in order to reinforce this theory, we propose an alternative way to calculate these thresholds, by analyzing the geometry of the probability density function of the multivariate normal distribution, relating to the measurements residuals.
37

Análise bayesiana objetiva para as distribuições normal generalizada e lognormal generalizada

Jesus, Sandra Rêgo de 21 November 2014 (has links)
Made available in DSpace on 2016-06-02T20:04:53Z (GMT). No. of bitstreams: 1 6424.pdf: 5426262 bytes, checksum: 82bb9386f85845b0d3db787265ea8236 (MD5) Previous issue date: 2014-11-21 / The Generalized Normal (GN) and Generalized lognormal (logGN) distributions are flexible for accommodating features present in the data that are not captured by traditional distribution, such as the normal and the lognormal ones, respectively. These distributions are considered to be tools for the reduction of outliers and for the obtention of robust estimates. However, computational problems have always been the major obstacle to obtain the effective use of these distributions. This paper proposes the Bayesian reference analysis methodology to estimate the GN and logGN. The reference prior for a possible order of the model parameters is obtained. It is shown that the reference prior leads to a proper posterior distribution for all the proposed model. The development of Monte Carlo Markov Chain (MCMC) is considered for inference purposes. To detect possible influential observations in the models considered, the Bayesian method of influence analysis on a case based on the Kullback-Leibler divergence is used. In addition, a scale mixture of uniform representation of the GN and logGN distributions are exploited, as an alternative method in order, to allow the development of efficient Gibbs sampling algorithms. Simulation studies were performed to analyze the frequentist properties of the estimation procedures. Real data applications demonstrate the use of the proposed models. / As distribuições normal generalizada (NG) e lognormal generalizada (logNG) são flexíveis por acomodarem características presentes nos dados que não são capturadas por distribuições tradicionais, como a normal e a lognormal, respectivamente. Essas distribuições são consideradas ferramentas para reduzir as observações aberrantes e obter estimativas robustas. Entretanto o maior obstáculo para a utilização eficiente dessas distribuições tem sido os problemas computacionais. Este trabalho propõe a metodologia da análise de referência Bayesiana para estimar os parâmetros dos modelos NG e logNG. A função a priori de referência para uma possível ordem dos parâmetros do modelo é obtida. Mostra-se que a função a priori de referência conduz a uma distribuição a posteriori própria, em todos os modelos propostos. Para fins de inferência, é considerado o desenvolvimento de métodos Monte Carlo em Cadeias de Markov (MCMC). Para detectar possíveis observações influentes nos modelos considerados, é utilizado o método Bayesiano de análise de influência caso a caso, baseado na divergência de Kullback-Leibler. Além disso, uma representação de mistura de escala uniforme para as distribuições NG e logNG é utilizada, como um método alternativo, para permitir o desenvolvimento de algoritmos de amostrador de Gibbs. Estudos de simulação foram desenvolvidos para analisar as propriedades frequentistas dos processos de estimação. Aplicações a conjuntos de dados reais mostraram a aplicabilidade dos modelos propostos.
38

Modelos de resposta ao item com função de ligação t - assimétrica.

Pinheiro, Alessandra Noeli Craveiro 20 April 2007 (has links)
Made available in DSpace on 2016-06-02T20:05:59Z (GMT). No. of bitstreams: 1 DissANCP.pdf: 696592 bytes, checksum: 1733e6a92a2421365932309fcb98d372 (MD5) Previous issue date: 2007-04-20 / The Item Response Theory (IRT) is a set of mathematical models representing the probability of an individual to take a correct response of an item and its ability. The purpose of our research is to show the models formulated in the IRT under the skew-normal distributions and to develop flexible alternative models. With this goal in mind we introduced the t-skew distributions (Azzalini et al. 1999) and results similar to Bazan s results are obtained. Some applications using Bayesian methods are also considered. / A Teoria de Resposta ao Item (TRI) e um conjunto de modelos matematicos que representam a probabilidade de um indivıduo dar uma resposta certa a um item (questao) como funcao dos parametros do item e da habilidade do indivıduo. O objetivo de nossa pesquisa e apresentar os modelos propostos na TRI normal assimetrica e desenvolver modelos alternativos mais flexıveis. Com esta finalidade em mente, introduzimos a distribuicao t-assimetrica (Azzalini e Capitanio 1999) e obtemos resultados similares aos obtidos por Bazan (2005). Algumas aplicacoes utilizando metodos bayesianos sao consideradas.
39

Distribuição normal assimétrica para dados de expressão gênica

Gomes, Priscila da Silva 17 April 2009 (has links)
Made available in DSpace on 2016-06-02T20:06:02Z (GMT). No. of bitstreams: 1 2390.pdf: 3256865 bytes, checksum: 7ad1acbefc5f29dddbaad3f14dbcef7c (MD5) Previous issue date: 2009-04-17 / Financiadora de Estudos e Projetos / Microarrays technologies are used to measure the expression levels of a large amount of genes or fragments of genes simultaneously in diferent situations. This technology is useful to determine genes that are responsible for genetic diseases. A common statistical methodology used to determine whether a gene g has evidences to diferent expression levels is the t-test which requires the assumption of normality for the data (Saraiva, 2006; Baldi & Long, 2001). However this assumption sometimes does not agree with the nature of the analyzed data. In this work we use the skew-normal distribution described formally by Azzalini (1985), which has the normal distribution as a particular case, in order to relax the assumption of normality. Considering a frequentist approach we made a simulation study to detect diferences between the gene expression levels in situations of control and treatment through the t-test. Another simulation was made to examine the power of the t-test when we assume an asymmetrical model for the data. Also we used the likelihood ratio test to verify the adequability of an asymmetrical model for the data. / Os microarrays são ferramentas utilizadas para medir os níveis de expressão de uma grande quantidade de genes ou fragmentos de genes simultaneamente em situações variadas. Com esta ferramenta é possível determinar possíveis genes causadores de doenças de origem genética. Uma abordagem estatística comumente utilizada para determinar se um gene g apresenta evidências para níveis de expressão diferentes consiste no teste t, que exige a suposição de normalidade aos dados (Saraiva, 2006; Baldi & Long, 2001). No entanto, esta suposição pode não condizer com a natureza dos dados analisados. Neste trabalho, será utilizada a distribuição normal assimétrica descrita formalmente por Azzalini (1985), que tem a distribuição normal como caso particular, com o intuito de flexibilizar a suposição de normalidade. Considerando a abordagem clássica, é realizado um estudo de simulação para detectar diferenças entre os níveis de expressão gênica em situações de controle e tratamento através do teste t, também é considerado um estudo de simulação para analisar o poder do teste t quando é assumido um modelo assimétrico para o conjunto de dados. Também é realizado o teste da razão de verossimilhança, para verificar se o ajuste de um modelo assimétrico aos dados é adequado.
40

Abordagem clássica e bayesiana para os modelos de séries temporais da família GARMA com aplicações para dados contínuos

Cascone, Marcos Henrique 24 March 2011 (has links)
Made available in DSpace on 2016-06-02T20:06:04Z (GMT). No. of bitstreams: 1 3603.pdf: 602959 bytes, checksum: 3078931e73ff3d01b4122cbac2c7f0a0 (MD5) Previous issue date: 2011-03-24 / Financiadora de Estudos e Projetos / In this work, the aim was to analyze in the classic and bayesian context, the GARMA model with three different continuous distributions: Gaussian, Inverse Gaussian and Gamma. We analyzed the performance and the goodness of fit of the three models, as well as the performance of the coverage percentile. In the classic analyze we consider the maximum likelihood estimator and by simulation study, we verified the consistency, the bias and de mean square error of the models. To the bayesian approach we proposed a non-informative prior distribution for the parameters of the model, resulting in a posterior distribution, which we found the bayesian estimatives for the parameters. This study still was not found in the literature. So, we can observe that the bayesian inference showed a good quality in the analysis of the serie, which can be comprove with the last section of this work. This, consist in the analyze of a real data set corresponding in the rate of tuberculosis cases in metropolitan area of Sao Paulo. The results show that, either the classical and bayesian approach, are good alternatives to describe the behavior of the real time serie. / Neste trabalho, o objetivo foi analisar no contexto clássico e bayesiano, o modelo GARMA com três distribuições contínuas: Gaussiana (Normal), Inversa Gaussiana e Gama, e também o desempenho e a qualidade do ajuste dos modelos de interesse, bem como o desempenho dos percentis de cobertura para eles. Para o estudo clássico foi considerado os estimadores de máxima verossimilhança e por meio de simulação verificou-se a consistência, o viés e o erro quadrático médio dos mesmos. Para a abordagem bayesiana é proposta uma distribuição a priori não informativa para os parâmetros dos modelos resultando em uma distribuição a posteriori, o qual a partir daí pode-se encontrar as estimativas bayesianas para os parâmetros, sendo que este estudo ainda não foi encontrado na literatura. Com isso pode-se observar que a inferência bayesiana mostrou boa eficiência no processo de análise da série, o que pode ser comprovado também com a última etapa do trabalho. Esta, consiste na análise de um conjunto de dados reais correspondente a taxa de casos de tuberculose na região metropolitana de São Paulo. Os resultados mostram que, tanto o estudo clássico quanto o bayesiano, são capazes de descrever bem o comportamento da série.

Page generated in 0.1172 seconds