Spelling suggestions: "subject:"estatística"" "subject:"statística""
41 |
Expectancia de quadrados medio em experimentos aleatorizados com estrutura balanceada e completaPinho, Andre Luis Santos de 09 January 1996 (has links)
Orientador: Euclydes Custodio de Lima Filho / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matemática, Estatística e Ciência da Computação / Made available in DSpace on 2018-07-21T04:57:34Z (GMT). No. of bitstreams: 1
Pinho_AndreLuisSantosde_M.pdf: 2639435 bytes, checksum: caa21ed212b2c79fb9d970e328a8e006 (MD5)
Previous issue date: 1995 / Resumo: Não informado. / Abstract: Not informed. / Mestrado / Mestre em Estatística
|
42 |
O estimador de razão em cadeiaMendes, Karla Giovani Soares 24 January 1991 (has links)
Orientador: Sebastião de Amorim / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Científica / Made available in DSpace on 2018-07-13T23:29:12Z (GMT). No. of bitstreams: 1
Mendes_KarlaGiovaniSoares_M.pdf: 1643117 bytes, checksum: 80da6151bfa9f833f3116b91480fb5f0 (MD5)
Previous issue date: 1991 / Resumo: A estimação de Y, a média de uma variável Y numa população finita, é o problema mais frequente e corriqueiro em planos amostrais. A partir de uma amostra aleatória simples, com ou sem reposição, a média amostral y é o estimador canônico empregado. Suas propriedades estatísticas são interessantes e podem ser estabelecidas de forma simples e elegante. Na sua simplicidade, y tem, naturalmente, limitações. Estas limitações foram sendo atacadas por diversos meios, e a literatura apresenta uma abundância de alternativas, algumas gerais e outras voltadas a contextos particulares. O Estimador de Razão (ER) é uma opção prática, versátil e altamente eficaz, sempre que se dispõe de uma variável de apoio X, com média populacional X conhecida e bem correlacionada com Y, de forma que a população possa ser considerada uma amostra de uma super população onde Y = ßX + e, onde ß é uma constante e e um desvio aleatório de esperança zero. O ER é bastante conhecido e utilizado. Suas propriedades são apresentadas e discutidas em qualquer texto de Amostragem. Ver, por exemplo, Cochran (1977) Cap 6. Uma generalização do estimador de razão é obtida, substituindo-se X por sua estimativa x baseada numa amostra grande. A variável Y só é avaliada em uma sub-amostra. Este Estimador de Razão Generalizado (ERG) é útil quando X é desconhecido, mas o custo amostral de X, cx, é bem menor que Cy, o custo amostral de Y. Sob este ponto de vista, como uma generalização do Estimador de Razão, esta alternativa foi estudada por Amorim e Boché (1990) ¿Observação: O resumo, na íntegra poderá ser visualizado no texto completo da tese digital. / Abstract: Not informed. / Mestrado / Mestre em Matemática Aplicada
|
43 |
Comparação de procedimentos de comparações multiplas : parametricos e não parametricosSena Junior, Manoel Raimundo de 02 September 1987 (has links)
Orientador: Ademir Jose Petenate / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Ciencia da Computação / Made available in DSpace on 2018-07-16T15:38:00Z (GMT). No. of bitstreams: 1
SenaJunior_ManoelRaimundode_M.pdf: 2039106 bytes, checksum: b3a6f70e93e493bfca586254ff792b81 (MD5)
Previous issue date: 1987 / Resumo: Procedimentos de comparações múltiplas (PCM's) para os pares de médias (incluindo ou não um tratamento sob controle), paramétricos e não paramétricos, têm sido amplamente discutidos nos últimos anos. Dentre esses, os procedimentos paramétricos mais comumente recomendados são os de Dunnett (1964) e Tukey-Kramer (1956), respectivamente, para a inclusão e não inclusão de um tratamento sob controle. Porém, restrições a ambos os métodos devem ser consideradas, tais como, normalidade da população, independência, balanceamento e homocedasticidade das observações. Entretanto, dentre os não paramétricas algumas destas restrições não são necessárias. O nosso estudo investiga o vício da razão de erro do tipo I, em situações onde a condição de normalidade não está satisfeita. Alguns PCM's não paramétricos e os dois (paramétricos) citados acima são apresentados e comparados entre si, considerando os aspectos de conservantismo, adequabilidade e optimalidade. No Capítulo I apresentamos os PCM's que serão discutidos no nosso estudo; no Capitulo II colocamos os métodos de comparação mais comumente usados; já no Capítulo III demonstramos a metodologia empregada na elaboração desse estudo e finalmente no Capítulo IV investigamos a significância de cada procedimento na presença da variação da probabilidade de empate entre as observações, juntamente com as nossas conclusões. / Abstract: Not informed. / Mestrado / Mestre em Estatística
|
44 |
A educação estatística com base num ciclo investigativo: um estudo do desenvolvimento do letramento estatístico de estudantes de uma turma do 3º ano do ensino médioSantana, Mario de Souza January 2011 (has links)
Submitted by Stéfany Moreira (stemellra@yahoo.com.br) on 2013-03-04T18:38:29Z
No. of bitstreams: 1
DISSERTAÇÃO_EducaçãoEstatísticaBase.pdf: 5393921 bytes, checksum: 6e49f95b6f308ac62eb74cee817db6c9 (MD5) / Approved for entry into archive by Neide Nativa (neide@sisbin.ufop.br) on 2013-03-15T15:09:38Z (GMT) No. of bitstreams: 1
DISSERTAÇÃO_EducaçãoEstatísticaBase.pdf: 5393921 bytes, checksum: 6e49f95b6f308ac62eb74cee817db6c9 (MD5) / Made available in DSpace on 2013-03-15T15:09:38Z (GMT). No. of bitstreams: 1
DISSERTAÇÃO_EducaçãoEstatísticaBase.pdf: 5393921 bytes, checksum: 6e49f95b6f308ac62eb74cee817db6c9 (MD5)
Previous issue date: 2011 / O presente trabalho visa estudar as características de letramento estatístico que se manifestam em estudantes ao se promover uma Educação Estatística fundamentada em um ciclo investigativo. Tem-se como foco a questão: Que características de letramento estatístico se manifestam em estudantes ao vivenciar um processo de ensino e aprendizagem fundamentado num ciclo investigativo com enfoque crítico-reflexivo e que aspectos da condução do ciclo interferem na manifestação dessas características? Para este fim foi elaborada, testada e avaliada uma proposta didática para o processo de ensino e aprendizagem da Estatística no Ensino Médio. As atividades propostas tomam como base as fases do ciclo investigativo de Wild e Pfannkuch (1999) em que se parte de uma problematização até atingirem-se as conclusões estatísticas vivenciando assim a lógica de uma investigação estatística. Foram tomados como aportes teórico-metodológicos para elaboração e condução destas atividades pressupostos da Educação Matemática Crítica e do enfoque Ciências, Tecnologia e Sociedade conferindo-lhe uma abordagem crítico-reflexiva e fornecendo, também, reflexões acerca da necessidade de letrar nossos estudantes para exercer sua cidadania e desenvolverem uma postura mais crítica frente ao conhecimento científico e suas interações sociais. A concepção de letramento estatístico adotada é a de Gal (2002) que fornece um modelo com elementos de conhecimento e disposição necessários para que um adulto seja considerado letrado estatisticamente em uma sociedade tecnológica. Com o intuito de construir uma resposta à questão de investigação estabelecida as atividades foram implementadas em uma turma de 3° ano do Ensino Médio de uma escola da Rede Pública estadual de ensino de Minas Gerais. Os dados assim coletados foram analisados buscando-se identificar os aspectos do letramento de Gal (2002) manifestados e avaliar as interações entre os participantes que contribuíram para essa manifestação. Os resultados apontam o ciclo investigativo como uma estratégia que pode contribuir significativamente no desenvolvimento do letramento estatístico. __________________________________________________________________________________________ / ABSTRACT: The present study aims to examine the characteristics of statistical literacy that are manifested in students when statistical education is based on an investigative cycle. The study focuses on the question: What characteristics of statistical literacy are manifested by students when involved in teaching and learning based on an investigative cycle with emphasis on a cycle based on a critical-reflective approach and what aspects of the teaching of the cycle interfere in the manifestation of these characteristics? For this purpose a didactic proposal for the teaching and learning of high school statistics was developed, tested and evaluated. The proposed activities are based on the phases of the investigative cycle of Pfannkuch and Wild (1999) in which the activity begins with a questioning and continues until statistical findings are obtained, thus providing students an experience with the logic of a statistical investigation. The theoretical and methodological foundations for the design and teaching of these activities are based on the assumptions of Critical Mathematics Education and the Science, Technology and Society approach giving it a critical and reflective emphasis, and at the same time, provoking reflections about the need to educate for statistical literacy so that our students are able to exercise their citizenship and develop a more critical posture with respect to science and technology. The statistical literacy conception adopted (GAL, 2002) provides a model with elements of knowledge and disposition necessary for an adult to be considered statistically literate in a technological society. In order to construct a response to the question established for this study, research activities were implemented in a classroom of seniors in a public high school in the state of Minas Gerais. The data collected were analyzed seeking to identify aspects of literacy (GAL, 2002) manifested and to evaluate the interactions between the participants who contributed to these expressions of literacy. The results indicate that the investigative cycle is a strategy that can significantly contribute to the development of statistical literacy.
|
45 |
Teste monte carlo para a tendência estocástica em modelos de espaços de estados / Monte carlo test for stochastic trend in state space modelsErnesto, Dulcidia Carlos Guezimane 20 October 2016 (has links)
Submitted by Marco Antônio de Ramos Chagas (mchagas@ufv.br) on 2016-12-12T12:46:34Z
No. of bitstreams: 1
texto completo.pdf: 319856 bytes, checksum: 1b0348b3a8140f307e31d0b9e716fcbf (MD5) / Made available in DSpace on 2016-12-12T12:46:34Z (GMT). No. of bitstreams: 1
texto completo.pdf: 319856 bytes, checksum: 1b0348b3a8140f307e31d0b9e716fcbf (MD5)
Previous issue date: 2016-10-20 / Intituto de Bolsas de Moçambique / Nyblom e Makelainen propuseram uma estatística de teste que leva a um teste localmente mais poderoso para testar se a variância do ruído para o termo de nível num modelo estrutural linear é determinística ou estocástica. O teste de Nyblom e Makelainen é um teste formal que serve para que possamos decidir se uma série temporal deve ser modelada supondo componentes estocásticos ou se supondo componentes determinísticos. As previsões feitas por estas diferentes abordagens (estocástica versus determinística) resultam em valores muito distintos, ademais, a interpretação sobre o comportamento do fenômeno estudado muda muito entre os dois casos. Nyblom e Makelainen propuseram o uso de aproximação assintótica da estatística NM. Porém chegaram à conclusão de que esta prática não é muito amigável, pois além de sua difícil manipulação prática não oferece o controle na ocorrência do erro do tipo I., portanto, uma forma alternativa de aplicar o teste NM ao invés de aproximação assintótica, é usar a simulação Monte Carlo sob a hipótese nula. Neste trabalho apresenta-se um método de teste de hipóteses exato para testar se o termo de tendência em um determinado modelo estrutural linear é determinístico ou estocástico. Por exato, entende-se que a probabilidade de erro tipo I é analiticamente sob controle para qualquer tamanho de amostra utilizado. O teste proposto é válido para quaisquer séries temporais com distribuição na família locação – escala. O processo não requer estimar o modelo. Além disso, sob a hipótese alternativa de um termo de tendência aleatório tanto a expressão e o termo de tendência têm qualquer formato de distribuição. O problema bem conhecido dos testes na fronteira do espaço de parâmetro também foi resolvido. Investigações numéricas intensivas para vários membros da família de locação-escala têm evidenciado que o nosso método apresenta melhor desempenho estatístico mesmo para pequenas séries temporais. Palavras-chave: Teste Monte Carlo, Tendência estocástica, modelo de nível local / Nyblom and Makelainen proposed a test statistic that leads to a locally most powerful test to test if the variance of the noise level for a structural model is deterministic or stochastic linear. Nyblom testing and formal test Makelainen serving so we can decide whether a time series must be modeled assuming stochastic components or if assuming deterministic components. The predictions made by these different approaches (stochastic vs. deterministic) result in very different values, moreover, the interpretation about the behavior of the studied phenomenon changes a lot between the two cases. Nyblom and Makelainen proposed the use of asymptotic approximation of NM. However came to the conclusion that this practice is not very friendly, as well as its difficult handling practice does not control the occurrence of type I error, so an alternative way of applying the test NM instead of asymptotic approximation, is to use the Monte Carlo simulation under the null hypothesis. This paper presents a method of testing hypotheses for testing if the trend in a particular structural model is deterministic or stochastic linear. For accurate, means that the probability of type I error is analytically under control for any sample size used. The proposed test is valid for any time series with distribution in leasing family-scale. The process does not require estimating the model. In addition, under the alternative hypothesis of a random expression both trend and trend have any distribution format. The well-known problem of the tests at the border parameter space has also been resolved. Numerical intensive investigations for several family members of lease-scale have shown that our method offers better performance even for small statistical time series. Keywords: test Monte Carlo, stochastic Trend, local-level model
|
46 |
Incorporação da incerteza nos mapas perceptuais obtidos via MDSMoacyr Machado Cardoso Junior 13 March 2014 (has links)
Os mapas perceptuais obtidos via escalonamento multidimensional representam uma poderosa ferramenta estatística para análise de dados multivariados. São aplicados em várias áreas do conhecimento humano por permitir ao pesquisador comprovar ou validar um modelo idealizado do comportamento humano frente a julgamentos subjetivos obtidos utilizando escalas ordinais. Sua utilização nas ciências sociais, marcadamente psicologia, sociologia, política e na percepção de riscos são destacadas pois estas ciências tomam por base a subjetividade do julgamento humano. Neste contexto, essa tese tem por objetivo incorporar a incerteza do posicionamento dos objetos após o escalonamento multidimensional, para que o modelo conceitual imposto possa ser testado levando em conta a variabilidade inerente a um grupo de julgadores. O modelo proposto parte da premissa de que as funções de distribuição de probabilidade não são conhecidas para as coordenadas dos objetos no mapa perceptual e que os julgadores e os objetos estudados são estatisticamente independentes entre si. A ferramenta explora uma característica do escalonamento multidimensional, que é a representação gráfica do conjunto de dados em baixa dimensão, e além disso, a análise dos diferentes objetos representados no mapa perceptual é realizada à luz da inferência estatística. O modelo para geração do mapa perceptual de 3-vias, denominado extbf{MDSvarext}, é obtido em 3 fases: i) Redução de dimensão e geração de agrupamentos; ii) Alinhamento das configurações, e iii) Obtenção das regiões de confiança. Como resultado verifica-se que a incorporação da geração de agrupamentos, utilizando o método extbf{K-médias} ao extbf{MDSvarext}, mostra-se viável pois permite produzir agrupamentos que reduzem a variabilidade e consequentemente as regiões de confiança nos mapas gerados, além da obtenção de mais de um mapa. Finalmente com a redução da variabilidade torna-se possível a representação das regiões de confiança que mostram visualmente nos mapas gerados quais objetos diferem estatisticamente entre si.
|
47 |
Inferência via Bootstrap na Conjoint Analysis / Inference by Bootstrap in Conjoint AnalysisBarbosa, Eduardo Campana 14 December 2017 (has links)
Submitted by Reginaldo Soares de Freitas (reginaldo.freitas@ufv.br) on 2018-02-22T18:20:05Z
No. of bitstreams: 1
texto completo.pdf: 826585 bytes, checksum: 3724f9d33c7d0253426d44dc0a59b8fc (MD5) / Made available in DSpace on 2018-02-22T18:20:05Z (GMT). No. of bitstreams: 1
texto completo.pdf: 826585 bytes, checksum: 3724f9d33c7d0253426d44dc0a59b8fc (MD5)
Previous issue date: 2017-12-14 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A presente tese teve como objetivo introduzir o método de reamostragem com reposição ou Bootstrap na Conjoint Analysis. Apresenta-se no texto uma revisão conceitual (Revisão de Literatura) sobre a referida metodologia (Conjoint Analysis) e também sobre o método proposto (Bootstrap). Adicionalmente, no Capítulo I e II, define-se a parte teórica e metodológica da Conjoint Analysis e do método Bootstrap, ilustrando o funcionamento conjunto dessas abordagens via aplicação real, com dados da área de tecnologia de alimentos. Inferências adicionais que até então não eram fornecidas no contexto clássico ou frequentista podem agora ser obtidas via análise das distribuições empíricas dos estimadores das Importâncias Relativas (abordagem por notas) e das Probabilidades e Razão de Escolhas (abordagem por escolhas). De forma geral, os resultados demonstraram que o método Bootstrap forneceu estimativas pontuais mais precisas e tornou ambas as abordagens da Conjoint Analysis mais informativas, uma vez que medidas de erro padrão e, principalmente, intervalos de confiança puderam ser facilmente obtidos para certas quantidades de interesse, possibilitando a realização de testes ou comparações estatísticas sobre as mesmas. / The aim of this thesis was introduce the Booststrap resampling method in Conjoint Analysis. We present in the text a conceptual review (Literature Review) about this methodology (Conjoint Analysis) and also about the proposed method (Bootstrap). In addition, in Chapter I and II, the theoretical and methodological aspects of Conjoint Analysis and the Bootstrap method are defined, illustrating the joint operation of these approaches via real application, with data from the food technology area.. Additional inferences have not been provided in the classic or frequentist context can now be obtained by analyzing the empirical distributions of Relative Importance (ratings based approach) and Probability and Choice Ratio (choice based approach) estimators. Overall, the results demonstrated that the Bootstrap method provided more accurate point estimates and made both Conjoint Analysis approaches more informative, since standard error measures, and mainly confidence intervals, could be easily obtained for certain quantities of interest, making it possible to perform statistical tests or comparisons on them.
|
48 |
Teoria clássica dos testes e teoria de resposta ao item aplicadas em uma avaliação de matemática básica / Classical test theory and item response theory applied to basic mathematics evaluationSoares, Denilson Junio Marques 20 February 2018 (has links)
Submitted by Reginaldo Soares de Freitas (reginaldo.freitas@ufv.br) on 2018-03-22T13:28:25Z
No. of bitstreams: 1
texto completo.pdf: 3447333 bytes, checksum: c0f11b2dc8500453f9bd7c97aaae5d45 (MD5) / Made available in DSpace on 2018-03-22T13:28:25Z (GMT). No. of bitstreams: 1
texto completo.pdf: 3447333 bytes, checksum: c0f11b2dc8500453f9bd7c97aaae5d45 (MD5)
Previous issue date: 2018-02-20 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O departamento de matemática da Universidade Federal de Viçosa tem realizado algumas medidas de prevenção à reprovação dos estudantes na disciplina de cálculo, cujos índices têm assustado os professores da disciplina. Uma dessas medidas está na elaboração de avaliações de matemática básica, compostas por 50 itens de múltipla escolha cada, que objetivam analisar o conhecimento prévio do estudante matriculado, bem como estimar sua habilidade em matemática e, com isto, identificar os estudantes propensos à reprovação a fim de proporcionar uma intervenção pedagógica capaz de reverter esta situação. Tendo em vista a importância desta avaliação, que acontece no início de cada período letivo, para o processo de ensino-aprendizagem da disciplina, o presente trabalho teve como objetivo oferecer uma análise estatística destas avaliações com base na teoria clássica dos testes (TCT) e na teoria de resposta ao item (TRI). A principal diferença entre essas teorias está no fato de que a primeira oferece uma abordagem em que se investiga o escore total do teste, ao passo que na segunda, se investigam as propriedades de cada item, individualmente. A metodologia se desenvolveu inicialmente como bibliográfica através de um referencial teórico que englobou ambas as teorias utilizadas e, na sequência, com um estudo de caso, em que foi utilizado uma dessas avaliações na coleta e análise dos dados. Os resultados dos desempenhos dos estudantes na TRI foram calculados pelo modelo logístico de dois parâmetros. Em suma, tais resultados, em consonância com resultados os obtidos pela análise via TCT, apontam para uma avaliação positiva do teste. Com a exceção de três itens que apresentaram problemas de discriminação, o teste apresentou, em geral, itens com um bom poder discriminativo e com variados níveis de dificuldade em ambas as teorias analisadas. A mesma análise pode ser realizada para outros testes e espera-se que este trabalho sirva como um instrumento de difusão destas teorias na análise de testes. / The mathematics department of the Federal University of Viçosa has been working at actions to improve the success rate of the students in the Calculus course, whose failure increasing indexes has surprised the professors. One of these actions is focused on the elaboration of a mathematics basic test composed of 50 multiple choice items that aim to analyze the prior knowledge of the enrolled student, as well as to estimate their ability in basic mathematics and, with this, to identify students who are prone to flink in order to provide a pedagogical intervention capable of reversing this situation. Considering their importance of this evaluation, which happens at the beginning of academic semester, for the teaching-learning process of the discipline, this study aims to provide a statistical analysis of one of these tests based on the classical test theory (CTT) and on item response theory (IRT). The main difference between these two theories lies on the fact that the first one uses the total score in the test as a reference in the analysis, while the second one focuses mainly on the item and not on the whole test itself. The methodology was initially developed as a bibliography through a theoretical framework that encompassed both theories used and, subsequently, with a case study, in which one of these evaluations was used in data collection and analysis. The results point to a positive evaluation of the test. Except three items presenting discrimination problems, the test presented, in general, items with a good discriminative power and with varied levels of difficulty in both theories that were analyzed, besides indicating insignificant probability of getting correct answer just by guessing, which contributed to a good estimation of the students ability. The same analysis can be performed for other tests and it is expected that this work serves as an instrument for the diffusion of these theories in the test analysis.
|
49 |
Modelagem da função de incidência cumulativa na presença de riscos competitivos em análise de sobrevivência / Modeling the cumulative incidence function in the presence of competing risks in survival analysisTomaz, Flávia Sílvia Corrêa 12 December 2017 (has links)
Submitted by Marco Antônio de Ramos Chagas (mchagas@ufv.br) on 2018-03-22T16:23:15Z
No. of bitstreams: 1
texto completo.pdf: 2386767 bytes, checksum: afcf24339e17dafff1d7bcc92f79fe8c (MD5) / Made available in DSpace on 2018-03-22T16:23:15Z (GMT). No. of bitstreams: 1
texto completo.pdf: 2386767 bytes, checksum: afcf24339e17dafff1d7bcc92f79fe8c (MD5)
Previous issue date: 2017-12-12 / Fundação de Amparo à Pesquisa do Estado de Minas Gerais / Riscos competitivos surgem em situações em que um indivíduo pode falhar devido à várias causas distintas. Na presença de riscos competitivos a estimação e/ou avaliação do efeito de covariáveis sobre a função de incidência cumulativa (subdistribuição) frequentemente é de interesse. Essa função quantifica a probabilidade de um indivíduo experimentar um evento específico, ou seja, falhar devido a uma determinada causa dentre um conjunto de causas de falha. A estimação não paramétrica da função de incidência, por vezes, é obtida por meio do complemento do estimador de Kaplan-Meier, embora esse procedimento não seja adequado e procedimento apropriado para este propósito esteja disponível. No que se refere a modelagem do efeito de covariáveis sobre a função de incidência, abordagens comumente difundidas baseiam-se ou no risco específico por causa ou no risco da subdistribuição. A primeira ignora a presença dos riscos competitivos, enquanto a segunda leva em consideração os riscos competitivos e frequentemente utiliza o modelo de Fine e Gray. Embora existam alternativas ao modelo de Fine e Gray, estas são pouco discutidas. Neste sentido, o objetivo deste trabalho foi avaliar a estimação da função de incidência cumulativa, bem como verificar como a censura e a relação entre proporção de eventos competitivos afetam a estimação dessa função. Ademais objetivou-se avaliar três modelos de regressão para a função de incidência (modelo de regressão com ligação logarítmica, modelo de regressão com ligação logit e modelo de Fine e Gray). Além de um conjunto de dados reais sobre lesões em cavalos foi utilizado também um estudo de simulação. Os resultados encontrados reforçam relatos encontrados na literatura, que apontam a superestimação da função de incidência cumulativa quando a mesma é estimada como complemento do estimador de Kaplan-Meier, bem como a não correspondência entre os efeitos das covariáveis estimados com base no risco específico por causa e o baseado no risco da subdistribuição. Por meio do estudo de simulação constatou-se que a percentagem de censura bem como a relação entre os eventos competitivos afeta a estimação da função de incidência cumulativa. Verificou-se também, que, em geral, o modelo de regressão com ligação logarítmica mostrou-se uma alternativa ao modelo de Fine e Gray. / Competing risks arise in situations where an individual may fail due to several different causes. In the presence of competing risks the estimation and / or evaluation of the effect of covariates on the cumulative incidence function (subdistribution) is often of interest. This function quantifies the probability of an individual experiencing a specific event, that is, failure due to a cause within a set of causes of failure. The non-parametric estimation of the incidence function is sometimes obtained through the complement of the Kaplan-Meier estimator, although this procedure is not adequate and an appropriate procedure for this purpose is available. With regard to modeling of the effect of covariates on the incidence function, commonly disseminated approaches are based either on the cause-specific hazard or at the subdistribution hazard. The former ignores the presence of competing risks, while the latter takes into account competing risks and often uses the Fine and Gray model. Although there are alternatives to the Fine and Gray model, these are little discussed. In this sense, the objective of this work was to evaluate the estimation of the cumulative incidence function, as well as to verify how the censorship and the relation between the proportion of competitive events affect the estimation of this function. In addition, we evaluated three regression models for the incidence function (regression model with log-link function, regression model with logit-link function and Fine and Gray model). In addition to a set of real data on injuries in horses was also used a simulation study. The results found reinforce reports found in the literature, which point to the overestimation of the cumulative incidence function when it is estimated to complement the Kaplan-Meier estimator, as well as the non match between the effects of covariates estimated based on the cause specific hazard and the of subdistribution hazard. By means of the simulation study it was verified that the percentage of censorship as well as the relation between the competitive events affects the estimation of the function of cumulative incidence. It was also found that, in general, the regression model with log-link function was an alternative to the Fine and Gray model.
|
50 |
Avaliação do ajustamento de funções densidade de probabilidade a séries de precipitação pluvial no Estado de Minas Gerais / Evaluation of the adjustment of probability density functions for series of pluvial precipitation of the State of Minas GeraisCatalunha, Márcio José 18 June 2000 (has links)
Submitted by Reginaldo Soares de Freitas (reginaldo.freitas@ufv.br) on 2016-06-29T17:00:31Z
No. of bitstreams: 1
texto completo.pdf: 411583 bytes, checksum: 57e3a7e0809803aa01f4cafb35d9ce28 (MD5) / Made available in DSpace on 2016-06-29T17:00:31Z (GMT). No. of bitstreams: 1
texto completo.pdf: 411583 bytes, checksum: 57e3a7e0809803aa01f4cafb35d9ce28 (MD5)
Previous issue date: 2000-06-18 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O presente trabalho teve como objetivos específicos: testar a distribuição de probabilidade que melhor se ajusta à freqüência das precipitações; analisar os dados de precipitação, considerando sua variabilidade espacial e temporal, nos períodos anual, chuvoso, seco e mensal, bem como o número médio de dias com chuva nos mesmos períodos, estabelecendo valores médios para todo o estado; e identificar, por intermédio de técnicas de análise de agrupamento, regiões com precipitação homogênea no Estado de Minas Gerais. Foram analisadas as distribuições de probabilidade exponencial, gama, log-normal (a dois e três parâmetros), normal e Weibull. Os testes, não-paramétricos, de qui-quadrado, a 5% de significância, e de Kolmogorov-Smirnov, a 20% de significância, foram utilizados para verificar a aderência das probabilidades estimadas aos dados observados. Foram considerados, para fins de análise espacial e temporal, o total médio e número médio de dias com chuva, para os períodos anual, chuvoso, seco e mensal de precipitação. Como período chuvoso, consideraram-se os meses de janeiro, fevereiro, março, outubro, novembro e dezembro, e como período seco, os meses de abril, maio, junho, julho, agosto e setembro. Foram considerados dias com chuva aqueles em que se observou precipitação maior ou igual a 0,1 mm. Foram feitas combinações entre os métodos de agrupamento (encadeamento simples e encadeamento completo) e as medidas de dissimilaridade (distância euclidiana, distância euclidiana média e distância de Mahalanobis), aplicados aos dados de precipitação, considerando também a otimização pelo método de Toucher. Para os valores diários de precipitação, observou-se a superioridade do ajustamento da distribuição Weibull, com exceção dos decêndios do período seco, em que predomina a distribuição exponencial. No caso dos valores totais de precipitação para o período seco, predominou a distribuição exponencial; no período chuvoso, houve uma variação entre as distribuições Weibull, exponencial, gama e normal, nesta ordem; esta última aparece somente em dois meses. A geoespacialização dos dados apresentou distinção nítida entre o período chuvoso e o seco, conforme os índices obtidos. A análise de agrupamento mostrou ser uma ferramenta importante para definir a existência de estações pluviométricas com totais médios diferentes, evitando a generalização de informações por região. / This work was carried out: a) to test the probability density function that fits better to the observed precipitation frequency; b) to analyze the precipitation data, considering its time and space variability, for annual, monthly rainy, and dry periods, including the average number of days with rainfall in the annual and monthly basis. The clustering analysis technique was also used to identify areas with homogeneous precipitation in the State of Minas Gerais. The Gamma, exponential, normal, Weibull, and log-normal probability distributions (with two and three parameters) were also analyzed. The non-parametric test of qui- square, at 5% of significance, and the Kolmogorov-Smirnov test, at 20% of significance were used to verify the goodness of fit between estimated and observed rainfall data. Days with rainfall larger than 0.1 mm were considered a rainy day. Combinations among the clustering methods (simple linkage and complete linkage) and the dissimilarity measures (Euclidean distance, average Euclidean distance, and Mahalanobis distance) on precipitation data were also analyzed, using the Toucher method for optimization. For the daily precipitation values, the superiority of Weibull distribution function was demonstrated, except for ten dry days period, in which the exponential probability distribution function prevailed. For accumulated total precipitation for dry period, the exponential probability distribution prevailed. In the rainy period, the best probabilities distributions were the Weibull distribution, exponential, gamma, and normal, in this order. The later only in two months of the year. The precipitation data geoespatialization showed clearly the distinction between rainy days, and dry periods. The clustering analysis of the rainfall data showed to be an important tool to define the existence of a particular spatial variability in the rainfall regime in the State of Minas Gerais. / Não foi localizado mo CPF do autor.
|
Page generated in 0.0588 seconds