Spelling suggestions: "subject:"estatistica"" "subject:"statistica""
21 |
Métodos bayesianos e epidemiologia espacial : avaliando a taxa de fecundidade em mulheres de 10 a 19 anos em Porto AlegreCarballo, Mariana Teixeira January 2005 (has links)
Introdução - A forma tradicional para se estudar a variação espacial de taxas é feita considerando a contagem do número de pessoas em cada área de um mapa em relação à população exposta, denominada taxa bruta. Entretanto, essa representação nem sempre é a melhor, principalmente na presença de população pequena. Objetivos - Utilizar métodos de Epidemiologia Espacial para representar a taxa de fecundidade específica em mulheres de 10 a 19 anos, utilizando como exemplo a cidade de Porto Alegre no ano de 2003 e investigar sua distribuição geográfica por meio de técnicas de Mapeamento de Eventos de Saúde. Métodos - Utilizando-se a base de dados do SINASC e o Censo do IBGE para o ano de 2000, considerando-se as divisões de bairro da cidade de Porto Alegre, construiu-se a taxa de fecundidade específica na adolescência. Métodos de suavização para controlar as flutuações aleatórias do risco foram usados, como o Estimador Bayesiano Empírico Local de Marshall e o Estimador Totalmente Bayesiano. Resultados - No ano de 2003 ocorreram 28 nascidos vivos por mil mulheres de 10 a 19 anos na cidade. Em alguns bairros, a representação bruta revelou valores quase três vezes maiores. Com os métodos de suavização, apresenta-se uma distribuição espacial subjacente mais real e taxas com menor heterogeneidade espacial. Alguns bairros com maiores taxas de maternidade na adolescência encontram-se em regiões com piores condições sócio-econômicas. Conclusões - O método Totalmente Bayesiano mostrou ser o melhor para estimar a variabilidade da taxa de fecundidade específica em mulheres de 10 a 19 anos nos bairros de Porto Alegre, principalmente nos locais onde a população exposta era muito pequena.
|
22 |
Algumas estimativas de autovalor e da média de auto-função do laplaciano de variedades riemannianas compactasSchneider, Cinthya Maria January 2010 (has links)
Seja Ω uma variedade riemanniana compacta tal que ∂Ω = M é convexo em média e com curvatura de Ricci limitada inferiormente por (n - 1)k > 0. Neste trabalho, obtemos uma estimativa superior da média de uma autofunção do problema de Dirichlet Δu = -u e u│M = 0 e uma estimativa inferior do seu respectivo autovalor. Também obtemos uma estimativa superior para o primeiro autovalor positivo de Ω. Quando M é estritamente convexo, estabelecemos uma relação entre um autovalor do laplaciano Ω e o primeiro autovalor positivo de M. Além disso, no caso em que M é convexo em média e a curvatura de Ricci de Ω positiva, obtemos uma estimativa da área de M em função da dimensão e do volume de Ω e do ínfimo H0 da curvatura média H de M. / Let Ω be a compact Riemannian manifold such that Ω = M is mean convex and with Ricci curvature bounded below by (n - 1)k > 0. In this work, we obtain an upper bound for the mean of an eigenfunction of the Dirichlet problem Δu = -u and u│M = 0 and a lower bound for the corresponding eigenvalue. We also obtain an upper bound for the first positive eigenvalue of Ω. If M is strictly convex, we obtain a relation between an eigenvalue of the Laplacian of Ω and the first positive eigenvalue of M. If M is mean convex and has positive Ricci curvature, we obtain an estimative of the area of M in terms of the dimension and the volume of Ω and in terms of the infimum H0 of the mean curvature H of M.
|
23 |
Métodos bayesianos e epidemiologia espacial : avaliando a taxa de fecundidade em mulheres de 10 a 19 anos em Porto AlegreCarballo, Mariana Teixeira January 2005 (has links)
Introdução - A forma tradicional para se estudar a variação espacial de taxas é feita considerando a contagem do número de pessoas em cada área de um mapa em relação à população exposta, denominada taxa bruta. Entretanto, essa representação nem sempre é a melhor, principalmente na presença de população pequena. Objetivos - Utilizar métodos de Epidemiologia Espacial para representar a taxa de fecundidade específica em mulheres de 10 a 19 anos, utilizando como exemplo a cidade de Porto Alegre no ano de 2003 e investigar sua distribuição geográfica por meio de técnicas de Mapeamento de Eventos de Saúde. Métodos - Utilizando-se a base de dados do SINASC e o Censo do IBGE para o ano de 2000, considerando-se as divisões de bairro da cidade de Porto Alegre, construiu-se a taxa de fecundidade específica na adolescência. Métodos de suavização para controlar as flutuações aleatórias do risco foram usados, como o Estimador Bayesiano Empírico Local de Marshall e o Estimador Totalmente Bayesiano. Resultados - No ano de 2003 ocorreram 28 nascidos vivos por mil mulheres de 10 a 19 anos na cidade. Em alguns bairros, a representação bruta revelou valores quase três vezes maiores. Com os métodos de suavização, apresenta-se uma distribuição espacial subjacente mais real e taxas com menor heterogeneidade espacial. Alguns bairros com maiores taxas de maternidade na adolescência encontram-se em regiões com piores condições sócio-econômicas. Conclusões - O método Totalmente Bayesiano mostrou ser o melhor para estimar a variabilidade da taxa de fecundidade específica em mulheres de 10 a 19 anos nos bairros de Porto Alegre, principalmente nos locais onde a população exposta era muito pequena.
|
24 |
Analise de experimentos industriais com respostas categoricas ordenadas : metodo de Taguchi e modelo de McCullaghVigo, Álvaro 20 February 1998 (has links)
Orientador: Armando Mario Infante / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matemática, Estatística e Ciência da Computação / Made available in DSpace on 2018-07-23T09:30:03Z (GMT). No. of bitstreams: 1
Vigo_Alvaro_M.pdf: 3893403 bytes, checksum: 9638503ec094c494d64e0e2e0d7b4985 (MD5)
Previous issue date: 1998 / Resumo: Nas diversas áreas da ciência e na Tecnologia da Qualidade são realizados experimentos para estudar a influência de diversos fatores sobre características (tais como "severidade do desgaste" ou "qualidade de uma solda"), que são registradas como variáveis categóricas ordenadas. Nessa dissertação são estudados aspectos da análise de experimentos com resposta ordinal, como ferramenta da Tecnologia da Qualidade. Os métodos tradicionais de análise estatística (teste Qui-quadrado e testes não-paramétricos, por exemplo) não são eficientes nessa situação, sendo necessários métodos mais elaborados para extrair e interpretar as informações geradas nesses experimentos. Diante disso, foram estudados em detalhe dois métodos alternativos: o primeiro é a técnica da Análise de Acumulação (AA) introduzida por Taguchi (1987) e, o outro método, baseia-se no modelo de Odds Proporcionais proposto por McCullagh (1980), através do qual é possível estimar e interpretar os efeitos dos fatores. Uma característica especial dessa resposta ordinal é a possibilidade de estar associada a uma variável contínua latente. Assim, os dados observados podem ser vistos como uma categorização dessa variável contínua, não diretamente observável. Essas técnicas de análise são ilustradas para o caso unifatorial e multifatorial, mediante dois conjuntos de dados apresentados na literatura: um estudo observacional e outro experimental. O ajuste dos modelos foi realizado através do procedimento LOGISTIC do pacote estatístico SAS e pelo software STATA. Com base nos resultados obtidos, verifica-se a necessidade de modelos paramétricos para estimar magnitude e direção dos efeitos que os fatores provocam na característica de qualidade, uma vez que os métodos tradicionais e a AA não extraem informação suficiente dos dados. Nesse sentido, o modelo de Odds Proporcionais parece um método simples, adequado e eficiente para a análise de dados com resposta ordinal. / Abstract: In several areas of Science and Quality of Technology, experiments are conducted to study the influence of several factors on characteristics (as ''worn-out severity" or ''weld quality"),that are recorded as ordered categorical variables. In this thesis, some aspects of the analysis of experiments with ordinal response are studied as a tool of Quality of Technology. The traditional methods of statistical analysis (Chi square test and non-parametric tests, for example) are not efficient in this situation, and more sophisticated methods are needed to extract and to interpret the information produced in these experiments. So, two alternative methods are studied in detail: the first is the Accumulation Analysis (AA) technique introduced by Taguchi (1987). The other method is based on the Proportional Odds model proposed by McCullagh (1980), which allows to estimate and to interpret the effects of the factors. A special characteristics of this response is that it might be associated to a continuous latent variable. Thus, the observed data may be seen as a categorization of this continuous variable not directly observable. These techniques of analysis are illustrated for the single-factor and the multifactor cases, by using two data set presented in the literature: an observational study and an experimental study. The models were adjusted by the procedure LOGISTIC of the software SAS and by the software STATA. The results obtained point to the need of parametric models to estimate the magnitude and direction of the effects caused by the factors in the characteristic of quality, since the traditional methods and the AA do not extract enough information of the data. In this sense, the Proportional Odds model seems a simple, adequate and efficient method for analyzing data with ordinal response. / Mestrado / Mestre em Estatística
|
25 |
Genetic Algorithm for the solution of majority problem / Algoritmo genÃtico para a soluÃÃo do problema da maioria.Hygor Piaget Monteiro Melo 19 August 2011 (has links)
Conselho Nacional de Desenvolvimento CientÃfico e TecnolÃgico / Many natural and social systems exhibit globally organized behavior without the aid of a centralized control. Examples of such decentralized systems include conventions and norms, social learning in animals and humans, as well as fads, rumors and revolts. Examples are also abundant in biology: the evasive behavior of animals in large groups, such as fish and birds, show a great synchronicity even in the absence of an leader.
In order to understand these decentralized systems, one must first understand strategies for global coordination that use only local information. This work explores the use of Genetic Algorithms in the creation of naturally efficient strategies in noisy environments. Genetic Algorithms are an important new tool in problem solving, and offer insight into how evolution may work. By using what is known about genetic algorithms, one can discover more about evolution and its mechanisms. The density classification task is used here to test strategy success, and revealed to be a good test for system-wide coordination and global information processing. Since it is very difficult to evolve highly fit rules when the number of neighbors $k$ is greater than 5, this suggests that evolution may build complex solutions based on solutions to simpler problems. Using this idea, we propose a method to promote rules increasing $k$. Based on the evolution of initial rules with few neighbors and using noise as evolutionary pressure, we were able to find efficient rules for a large number of neighbors, under the condition of a very high noise level. We find that the evolved rules are more robust to noisy environment than the majority rule. This increased efficiency at higher noise levels can be explained in terms of the larger weight given by these rules to the information of the evolving agent itself (not influenced by noise) than to the information obtained from its neighbors. As a consequence, the agents using these evolved rules tend to keep their own states, unless the great majority of their neighbors disagree with them, showing a persistence behavior that can be seen in social experiments. / Muitos sistemas naturais e sociais exibem comportamento globalmente organizado sem a presenÃa de um controle central. Exemplos incluem convenÃÃes e normas, aprendizado social em animais e humanos, assim como modismos, boatos e revoltas. Exemplos em biologia tambÃm sÃo abundantes: o comportamento evasivo de animais em grandes grupos, como peixes e pÃssaros, mostram uma grande sincronia mesmo na ausÃncia de um lÃder. A fim de entender esses sistemas descentralizados, precisamos estudar primeiramente estratÃgias de coordenaÃÃo global que utilizam apenas informaÃÃes locais. Esse trabalho explora o uso do Algoritmo GenÃtico na obtenÃÃo de estratÃgias naturalmente eficientes em ambientes ruidosos. O Algoritmo GenÃtico à uma nova ferramenta importante na soluÃÃo de problemas deste tipo, e oferece indÃcios de como a evoluÃÃo deve atuar. Usando o que à conhecido sobre Algoritmos GenÃticos, podemos descobrir mais sobre a evoluÃÃo e seus mecanismos. A classificaÃÃo por densidade à utilizada para testar o sucesso de estratÃgias, pois trata-se de um bom teste para coordenaÃÃo global e processamento global de informaÃÃes. Como à muito difÃcil evoluir regras com grande eficiÃncia quando o nÃmero de vizinhos $k$ for maior que 5, isso sugere que a evoluÃÃo deve construir soluÃÃes complexas baseadas em soluÃÃes de problemas simples. Usando essa ideia propomos um mÃtodo de promover as regras aumentando o $k$. Com base na evoluÃÃo inicial de regras com poucos vizinhos e usando o ruÃdo como "pressÃo" evolutiva, nÃs fomos capazes de achar regras eficientes para um grande nÃmero de vizinhos, submetidas a condiÃÃo de um alto nÃvel de ruÃdo. Achamos que as regras evoluÃdas sÃo mais robustas a ambientes ruidosos do que a regra da maioria. A alta eficiÃncia para grandes valores do ruÃdo pode ser explicada em termos do maior peso dado por essas regras à informaÃÃo da prÃpria cÃlula (nÃo influenciada pelo ruÃdo) do que a informaÃÃo obtida atravÃs vizinhos. Como consequÃncia, as cÃlulas que empregam essas regras evoluÃdas tendem a manter seus prÃprios estados, atà que uma grande maioria dos vizinhos discordem delas, mostrando um comportamento de persistÃncia que pode ser encontrado em experimentos sociais.
|
26 |
Intervalo de confiança para avaliação de bioequivalencia individual utilizando a medida de Kullback-LeiblerMoura, Paula Cristina Soprano de Souza 18 May 2004 (has links)
Orientador : Cicilia Yuko Wada / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-08-03T22:42:27Z (GMT). No. of bitstreams: 1
Moura_PaulaCristinaSopranodeSouza_M.pdf: 4930962 bytes, checksum: 3c62dfdc0555d93dd0f510393c1e6e55 (MD5)
Previous issue date: 2004 / Resumo: Os estudos de bioequivalência são conduzidos para mostrar que dois medicamentos, denominados medicamentos referência R e teste T, possuem biodisponibilidade similares. No Brasil, a introdução do medicamento genérico iniciou em 1999 e utiliza o método de bioequivalência média (BEM) para analisar se o princípio ativo do medicamento T é liberado na mesma velocidade e quantidade que o do medicamento R. Mas, este método não é suficiente para garantir que um individual apresente respostas similares quando submetido as duas formulações, Le., não garante a intercambiabilidade entre os medicamentos T e R segundo definição de Chow e Liu (1995). Métodos alternativos como bioequivalência individual (BEI) e bioequivalência populacional (BEP) são propostos como alternativa para garantir a intercambiabilidade entre os medicamentos. Nos últimos anos tem sido propostos vários estudos para verificar bioequivalência individual entre as formulações de um mesmo fármaco. o estudo de Dragalin V.et al.(2003) propõe a divergência de Kullback-Leibler como medida de discrepância entre as distribuições das duas formulações para verificar BEI. Este estudo apresenta várias vantagens como a propriedade hierárquica de BEI ---;. BEP ---;. BEM, satisfaz as propriedades de distância métrica, é invariante para transformações monótonas nos dados, pode ser generalizado para o caso multivariado e pode ser aplicado para qualquer distribuição pertencente a classe exponencial. É avaliado através da construção do intervalo de confiança bootstrap-percentil. Hyslop T. et al.(2000) sugeriu um intervalo de confiança alternativo para o critério do FDA (Food and Drug Administration) para verificar BEI, que utiliza intervalo de confiança VI bootstrap-percentil. Para calcular o intervalo de confiança, utilizou a aproximação I de Howe (1974) baseada na expansão de Cornish-Fisher. O objetivo desta dissertação é apresentar um intervalo de confiança alternativo para a divergência de Kullback-Leibler utilizando a aproximação de Howe, como sugerido por Hyslop (2000) para o critério do FDA, e sua comparação com outros métodos existentes. Foram realizados estudos de simulação de poder do teste para a proposta alternativa do método de Kullback-Leibler, e efetuamos sua comparação com outros métodos de BEI que foram propostos nos últimos anos. Resultados indicam que o método alternativo para divergência de Kullback-Leibler é sensível para detectar pequenas mudanças na resposta média entre as formulações e para detectar presença da interação entre formulação e indivíduo. O método proposto tem como vantagem fácil programação e não necessita de recursos computacionais intensivos como o método de bootstrap-percentil / Abstract: Bioequivalence trials are conducted to show that two formlllations, a reference dmg R and a test T, produces similar bioavailabitity. In Brazil, the introduction of the generic drug started in 1999 and the current analysis of the pharmacokinetics measures for rate and extent of the absorption is the average bioequivalence (ABE) which is not sufficient to guarantee that an individual present similar responses when sllbmitted to the two formulations. Alternatives methods as individual bioequivalence (IBE) and populational bioequivalence (PBE) were proposed in order to a measure the interchangeability, cla..c;sified as prescribability and switchability, between the reference and test formulations. Several studies for the assessment of individual bioeqllivalence between two formulations of a drug have been proposed recently. The study of Dragalin V. et alo (2003) proposed the Kullback-Leibler divergence as the mea..c;ure of the discrepancy between the distriblltions of the two formulations for assessing the individual bioequivalence. This study seems to have advantages sllch as the hierarchical property of BEI --. BEP --. BEM, satisfies the property of a tme metric distance, is invariant to monotonic transformations and can be generalized to multivariate setting and finally, can be applied to a wide range of distributions of the response. The assessment of individual bioequivalenee is made using a simulation study. Hyslop T. et alo ( 2000) proposed an alternative eonfidenee interval proeedure to assess IBE by the FDA eriteria, which uses the bootstrap-pereentil method. To ealculate the eonfidence interval, used the Howes approximation I method (1974) based on Cornish - Fisher expansion. Sinee the limits of the eonfidenee interval are based on the exact distributions of its eomponents, it ean be ea..<;ily ealeulated by available software.
The advantages presented in Kullback-Leibler divergenee and the closed form of the upper limits of the eonfidence interval for the FDA eriteria motivated the present study. The present study foeus on the Cornish- Fisher expansion technique, as used by Hys lop(2000), for development of the procedure for the a..<;sessment of individual bioequivalenee using Kullba.ck-Leibler divergence as the measure of the diserepaney between the two formulations. Numerieal studies with three data sets ITom 2 x 4 crossover design and simulation studies for the power of the proposed alternative method for Kullbaek-Leibler divergenee are presented. Results of the Kullback-Leibler-confidence interval proposed indicate sensitive to ehanges in mean response between formulations and to the deteetion of subject-by-formulation interaction. The advantages of the proposed method are easy programming and no requirement of computational intensive method as require the bootstrap percentile method / Mestrado / Mestre em Estatística
|
27 |
Analise de dados longitudinais com respostas categorizadas atraves de processos de MarkovNoleto, Antonio de Queiroz 10 May 1991 (has links)
Orientador : Dalton Francisco de Andrade / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica e Ciencias da Computação. / Made available in DSpace on 2018-07-13T23:40:14Z (GMT). No. of bitstreams: 1
Noleto_AntoniodeQueiroz_M.pdf: 1807172 bytes, checksum: 313b6c0ffe3b1890c8f731678f86637b (MD5)
Previous issue date: 1991 / Resumo: Não informado / Abstract: Not informed / Mestrado / Mestre em Estatística
|
28 |
Graficos de controle com amostragem e tempos variaveis, comandados pelas M ultimas observaçõesVerdi, Luis Antonio Rodrigues 05 September 1991 (has links)
Orientador: Sebastião de Amorim / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Ciencia da Computação / Made available in DSpace on 2018-07-14T00:32:03Z (GMT). No. of bitstreams: 1
Verdi_LuisAntonioRodrigues_M.pdf: 1382867 bytes, checksum: 384c9560217db4f26b372cda1b255e80 (MD5)
Previous issue date: 1991 / Resumo: O Esquema CIássico de Shewhart para a construção de gráficos de controle para a média de um processo estabelece limites superior e intefior de controle em torno do valor objetivo M. Amostras são retiradas a intervalos regulares ho e os valores médios X são plotados sequencialmente no gráfico. Um valor de X fora dos limites de controle determina que o processo seja considerado fora de controle e que as ações apropriadas sejam tomadas. Para se garantir proteção adequada contra alarmes falsos,. os limites de controle são posicionados distantres de M. fazendo com que o esquema seja pouco ágil na detecção de perturbações estáveis na média do processo ¿Observação: O resumo, na íntegra poderá ser visualizado no texto completo da tese digital. / Abstract: The Classic Shewhart. Scheeme for constructing control charts for the mean of a process establishes upper and lower control limits around the target value M. Samples of a fixed size No are drawn at regular intervals of length ho and the averages X are plotted sequentialy. A value of X outside the control limits determines the process to be considered out of control and that the appropriate actions be taken. To assure adequate protection agains false alarms the control 1imits are positioned far from M. This renders the scheeme slow in detecting stab1e shifs of smal1 magnitude in the mean of the process ...Note: The complete abstract is available with the full electronic digital thesis or dissertations. / Mestrado / Mestre em Estatística
|
29 |
Graficos de controle para media de um processo, com limites de advertencia e tamanhos amostrais variaveisLemos, Ivanio Geraldo 30 September 1991 (has links)
Orientador : Sebastião de Amorim / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Ciencia da Computação / Made available in DSpace on 2018-07-14T00:43:54Z (GMT). No. of bitstreams: 1
Lemos_IvanioGeraldo_M.pdf: 858580 bytes, checksum: 6588917fa7addc219b68d97215690672 (MD5)
Previous issue date: 1991 / Resumo: Neste trabalho, nós consideramos o Esquema Clássico de Shewhart para a construção de gráficos de controle X, com parâmetros n0, k0 e h0 . Numa tentativa de melhorar sua rapidez na detecção de perturbações estáveis na média do processo, nós estabelecemos, na região interna aos limites de controle, uma faixa central, definida por um limite inferior e um limite superior de alerta, tal que, se uma observação cair dentro dos limites de controle, a próxima amostra será de tamanho ng se ela cair fora da faixa central, np, caso contrário, com ng > np. Este novo esquema, que denominamos nV, é mantido com os mesmos custos básicos que o Esquema Clássico Shewhart de referência, pela escolha conveniente de np, ng e largura da faixa central, garantindo que E[n / X E (LIC,LSC)] = n0 enquanto o processo estiver sob controle. Nós desenvolvemos formalmente as propriedades básicas de estatísticas deste esquema, mostramos que ele melhora o ECS em termos do tempo médio esperado entre a ocorrência e a detecção de perturbações estáveis na média do processo, em vários contextos de importância práticas. Os resultados são abundantemente ilustrados com simulações de Monte Carlo / Abstract: In this work we consider Shewhart's Classical Scheeme for the construction of X control charts, with parameters n0, k0 e h0 . In an atempt to improve its promptness to detect stable shifts on the process' mean, we establish, in the region inside the control limits, a central stripe defined by a lower and an upper warning limit, such that, if one observation falls inside the control limits the next sample size will be np if it falls outside the warning limits and ng, otherwise, with ng > np. This new scheeme, which we call nV, is kept with the same basic costs as the reference Shehwart's scheeme, by choosing np , ng and the width of the central stripe such that E[n / X E (UCL,LCL)] = no, as long as the process is kept under control. We formally develop the basic statistical properties of this new scheeme, and show that it improves Shewhart's basic aproach in terms of the expected time between occurence and detection of the stable shift on the process' average, in several situations of practical interest. The results are abundantly ilustrated thru Monte Carlo simulations / Mestrado / Mestre em Estatística
|
30 |
Graficos de controle com tamanhos amostrais variados baseados nas m ultimas observaçõesSilva, Gladston Luiz da 27 April 1992 (has links)
Orientador: Sebastião de Amorim / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Ciencia da Computação / Made available in DSpace on 2018-07-14T03:43:25Z (GMT). No. of bitstreams: 1
Silva_GladstonLuizda_M.pdf: 1557485 bytes, checksum: f73141eef6f694545997fee0d2f352f0 (MD5)
Previous issue date: 1992 / Resumo: Neste trabalho são apresentados esquemas alternativos ao gráfico de controle proposto por ShewheHt, segundo o modelo básico de Duncan para o planejarnento econômico de gráficos de controle. No Capítulo 1 faz-se uma revisão bibliográfica, onde algumas alternativas ao gráfico de controle X são apreciadas dando motivação à execução deste trabalho. No Capítulo 2 apresentamos os gráficos de controle com tamanhos amostrais variados, onde as m Últimas observações são consideradas. Os resultados obtidos apresentam ganhos significativos de eficiência em processos que apresentam perturbações na média. O processo com 1n = 1 é uma Cadeia de Markov e, corno al foi modelada, determinando-se a expressão que permite calcular o tempo médio gasto para que perturbações na média sejam detectadas. Simulações Monte Carlo dos processos propostos são apresentadas no Capítulo, onde alguns delineamentos amostrais sào avaliados, verificando-se excepcionais ganhos de eficiência com relação ao esquema proposto por Shewlwrt. As conclusões dos resultados obtidos são apresentadas a seguir. / Abstract: Not informed. / Mestrado / Mestre em Estatística
|
Page generated in 0.0618 seconds