• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 145
  • 1
  • Tagged with
  • 146
  • 146
  • 145
  • 145
  • 145
  • 68
  • 66
  • 47
  • 44
  • 41
  • 33
  • 29
  • 29
  • 28
  • 28
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Modelos de regressão bivariados Bernoulli : exponencial

Prado, Flávia Bolssone do 05 April 2013 (has links)
Made available in DSpace on 2016-06-02T20:06:08Z (GMT). No. of bitstreams: 1 5174.pdf: 1132464 bytes, checksum: 1cccdf2e905f1a63c44eea06a7f29684 (MD5) Previous issue date: 2013-04-05 / Universidade Federal de Sao Carlos / Neste trabalho desenvolvemos modelos de regressão para respostas bivariadas, discreta e contínua, com a variável discreta seguindo distribuição Bernoulli e a variável contínua, condicionada na discreta, seguindo distribuição exponencial. Um procedimento de ajuste, via abordagem Bayesiana, é utilizado para estimar os parâmetros do modelo e uma análise de resíduos Bayesianos é apresentada. Um estudo de simulação é descrito a fim de ilustrar a metodologia desenvolvida. Utilizamos três tamanhos amostrais diferentes para analisarmos os resultados. Aplicamos o modelo em um conjunto de dados reais relacionado a gastos com pacientes internados em hospitais, levando em consideração a utilização, ou não, de tratamento cirúrgico. A covariável disponível para a análise foi o número de dias de permanência do paciente hospitalizado.
22

Modelo de mistura paramétrico com fragilidade na presença de covariáveis

Taconeli, João Paulo 23 April 2013 (has links)
Made available in DSpace on 2016-06-02T20:06:08Z (GMT). No. of bitstreams: 1 5203.pdf: 2484745 bytes, checksum: 2ab029104981d5cf9ec2e6c681c57370 (MD5) Previous issue date: 2013-04-23 / Financiadora de Estudos e Projetos / Some studies involving survival data are characterized by showing a significant proportion of censored data, that is, individuals who will never experience the event of interest, even if accompanied by a long period of time. For the analysis of long-term data, we presented the standard mixture model by Berkson & Gage (1952), where we assume the Weibull distribution for the lifetime of individuals at risk and covariate. The cure rate models implicitly assume that those individuals experiencing the event of interest possess homogeneous risk. Alternatively, we consider the standard mixture model with a frailty term in order to quantify the unobservable heterogeneity among individuals. This model is characterized by the inclusion of a unobservable random variable, which represents information that can not or have not been observed. We assume frailty with a gamma distribution, obtaining theWeibull stardanrd mixture model with frailty and covariates from a point of view parametric. We realized simulation studies with the purpose of analyzing the frequentists properties of estimation procedures. Applications to real data set showed the applicability of the proposed models in which parameter estimates were determined using the maximum likelihood and bayesian approaches. / Em análise de sobrevivência quando uma população apresenta, após um período representativo de tempo, uma quantidade expressiva de observações censuradas, podemos suspeitar que exista uma fração de indivíduos que não é susceptível ao evento de interesse. Diz-se então que esses indivíduos são "imunes", e que o conjunto de dados ao qual eles pertencem possui uma fração de cura. Os modelos de cura assumem implicitamente que todos os indivíduos que apresentaram o evento de interesse pertencem a uma população homogênea, mas no entanto podemos medir a heterogeneidade observada adicionando covariáveis ao modelo. Já a parcela da heterogeneidade que é induzida por fatores de risco não observáveis é estimada através de modelos de fragilidade. Com a finalidade de analisar dados de longa duração com heterogeneidade não observada na população, apresentamos o modelo de mistura padrão de Boag (1949) e Berkson & Gage (1952) sob um ponto de vista paramétrico, com covariáveis incidindo tanto na proporção de curados quanto na função de sobrevivência dos não curados. Peng & Zhang (2008a) realizaram uma estimação semiparamétrica deste modelo, e em nosso trabalho assumimos as distribuições de probabilidade Weibull para a parcela em risco e gama para a fragilidade. Também modelamos a proporção de curados através de modelos de regressão com diferentes funções de ligação, e testamos todos os modelos em uma base com dados reais envolvendo portadores de melanoma, realizando os ajustes tanto através da metodologia clássica quanto da bayesiana.
23

Estimadores não paramétricos para dados com censura

Simioni, Paulo Ricardo 19 April 2013 (has links)
Made available in DSpace on 2016-06-02T20:06:08Z (GMT). No. of bitstreams: 1 5220.pdf: 6665016 bytes, checksum: e40bf2639894707a5facdedcb4dfc7ae (MD5) Previous issue date: 2013-04-19 / Financiadora de Estudos e Projetos / In this paper we study the reliability of systems with connected components in series and parallel. For systems in series, the device fails when the first component fails. Although in the parallel systems this happens when the last component fails. We define the distribution functions, sub-distribution functions and their respective properties. Here we present the Bayesian nonparametric estimator for the components of both systems, illustrating by examples. For both cases we performed a comparative study between the Bayesian nonparametric estimator and the Kaplan-Meier method. / Neste trabalho estudamos a con_abilidade de sistemas com componentes ligados em série e sistemas ligados em paralelo. Para sistemas em série, o dispositivo falha quando o primeiro componente falhar, já no sistema em paralelo isto acontece quando o último componente falhar. De_nimos as funções de distribuição e sub-distribuição, bem como suas propriedades. Apresentamos o estimador Bayesiano não-paramétrico para os componentes de ambos os sistemas, ilustrando através de exemplos. Além disso, para ambos os casos, realizamos um estudo comparativo entre o estimador Bayesiano não paramétrico e o estimador de Kaplan-Meier.
24

Modelo de mistura com dependência Markoviana de primeira ordem

Meira, Silvana Aparecida 12 September 2014 (has links)
Made available in DSpace on 2016-06-02T20:06:10Z (GMT). No. of bitstreams: 1 6237.pdf: 1097574 bytes, checksum: efdba2d8d3f39759e65f53c499f7ee6a (MD5) Previous issue date: 2014-09-12 / We present the mixture model with first order dependence, MMM(1). This model corresponds to a redefinition of the hidden Markov model (HMM) where a non observable variable is used to control the mixture. The usual mixture model is a particular case of the MMM(1). The proposed redefinition makes easier the application of usual estimation tools as the EM algorithm. We present the maximum likelihood and Bayesian estimators for the normal and binomial cases of the MMM(1) and usual mixture models. Simulation studies show the functionality of the proposed models and their estimators. And finally we present an application to a real data set for the binomial case. / Nesse trabalho apresentamos o modelo de mistura com dependência markoviana de primeira ordem, MMM(1). A metodologia proposta corresponde a uma redefinição do modelo markoviano oculto (HMM) na qual utilizamos uma variável não observável como controladora da mistura. O modelo de mistura usual (sem dependência) é um caso particular do MMM(1). A redefinição proposta permite uma adaptação de instrumentos usuais de estimação como por exemplo o algoritmo EM. Apresentamos também os estimadores de máxima verossimilhança e bayesianos para os modelos MMM(1) e de mistura usual para os casos da distribuição normal e binomial. Estudos de simulação demonstram a funcionalidade do modelo e estimadores propostos. Ao final apresentamos uma aplicação a um conjunto de dados reais apresentados na literatura para o caso binomial.
25

Reamostragem bootstrap em amostragem por conjuntos ordenados e intervalos de confiança não paramétricos para a média.

Taconeli, Cesar Augusto 27 January 2005 (has links)
Made available in DSpace on 2016-06-02T20:06:11Z (GMT). No. of bitstreams: 1 DissCAT.pdf: 1246450 bytes, checksum: 08bdf53e7efc64e4dcca7835dee4b601 (MD5) Previous issue date: 2005-01-27 / Financiadora de Estudos e Projetos / Ranked set sampling is an efficient and practice way to obtain more precise estimative when the sample size is small because of the high cost or difficulties to measure the interest variable. Using rough and cheap qualitative or quantitative information, the sample units are ranked before their effective measurement. In 1952, McIntyre introduced the ranked set sample design to estimate the average yields from plots of cropland, using the ranked set sample mean, X . Cesario and Barreto (2003) have shown a parametric version of bootstrap confidence intervals for normal distribution mean. Because of the restriction of small sample size, the distributional assumption may not be reasonable, producing no liable estimates. So the study and proposition of precise interval estimators of the population mean could be relevant and are the main interest of this work. Using resampling methods, we propose in this work an extension of bootstrap resampling for ranked set sampling. A simulation study is conduced to the properties of single random sample bootstrap confidence intervals and the similar using our version for ranked set sampling. The analysis of the simulation study have shown the gain of precision for using the ranked set sampling bootstrap confidence intervals in the population mean. / A amostragem por conjuntos ordenados é uma alternativa prática e eficiente no que concerne à obtenção de estimativas mais precisas frente à impossibilidade de extração de uma amostra numerosa, seja devido a dificuldades na mensuração da variável de interesse ou a um elevado custo inerente a obtenção de tais medidas. A aplicação deste delineamento amostral torna-se viável caso seja possível ordenar amostras extraídas aleatoriamente de maneira eficiente, de acordo com o valor da variável de interesse, sem de fato medi-las, mas baseado apenas em um critério pré-estabelecido, que pode ser alguma variável concomitante altamente correlacionada ou mesmo mediante algum julgamento pessoal. Introduzida por McIntyre (1952), a amostragem por conjuntos ordenados propicia a estimação de diversos parâmetros com um relevante ganho em termos de precisão. Um estimador para a média populacional é a média da amostra por conjuntos ordenados ( X ), proposto por McIntyre com aplicações, inicialmente, na estimação da produção média de pastagens. Cesário e Barreto (2003) apresentam uma alternativa paramétrica na obtenção de intervalos de confiança bootstrap para a média de populações com distribuição normal via amostragem por conjuntos ordenados. Dada a restrição quanto à seleção de grandes amostras, a suposição de alguma distribuição para a variável de interesse muitas vezes não é razoável, gerando estimativas pouco confiáveis. Neste contexto, o estudo e a proposição de estimadores intervalares não paramétricos para a média, elaborados a partir de um esquema de seleção de amostras capaz de gerar estimativas precisas sob circunstâncias adversas, como é a amostragem por conjuntos ordenados, mostra-se altamente relevante, sendo o objeto de estudo deste trabalho. Os intervalos de confiança analisados são obtidos através de um esquema original de reamostragem bootstrap, fundamentado em amostragem por conjuntos ordenados, seguindo algoritmos propostos neste trabalho. A análise das propriedades destes intervalos foi realizada a partir de um amplo estudo via simulação, que evidenciou uma significativa melhora das estimativas propostas, quando comparado àquelas convencionais, baseadas em amostragem aleatória simples, especialmente em relação à precisão de tais estimativas.
26

Ponderação de modelos com aplicação em regressão logística binária.

Brocco, Juliane Bertini 18 April 2006 (has links)
Made available in DSpace on 2016-06-02T20:06:12Z (GMT). No. of bitstreams: 1 DissJBB.pdf: 632747 bytes, checksum: 7f6e8caa78736a965ecb167ee27b7cc3 (MD5) Previous issue date: 2006-04-18 / Universidade Federal de Sao Carlos / This work consider the problem of how to incorporate model selection uncertainty into statistical inference, through model averaging, applied to logistic regression. It will be used the approach of Buckland et. al. (1997), that proposed an weighed estimator to a parameter common to all models in study, where the weights are obtained by information criteria or bootstrap method. Also will be applied bayesian model averaging as shown by Hoeting et. al. (1999), where posterior probability is an average of the posterior distributions under each of the models considered, weighted by their posterior model probability. The aim of this work is to study the behavior of the weighed estimator, both, in the classic approach and in the bayesian, in situations that consider the use of binary logistic regression, with foccus in prediction. The known model-choice selection method Stepwise will be considered as form of comparison of the predictive performance in relation to model averaging. / Esta dissertação considera o problema de incorporação da incerteza devido à escolha do modelo na inferência estatística, segundo a abordagem de ponderação de modelos, com aplicação em regressão logística. Será utilizada a abordagem de Buckland et. al. (1997), que propuseram um estimador ponderado para um parâmetro comum a todos os modelos em estudo, sendo que, os pesos desta ponderação são obtidos a partir do uso de critérios de informação ou do método bootstrap. Também será aplicada a ponderação bayesiana de modelos como apresentada por Hoeting et. al. (1999), onde a distribuição a posteriori do parâmetro de interesse é uma média da distribuição a posteriori do parâmetro sob cada modelo em consideração ponderado por suas respectivas probabilidades a posteriori. O objetivo deste trabalho é estudar o comportamento do estimador ponderado, tanto na abordagem clássica como na bayesiana, em situações que consideram o uso de regressão logística binária, com enfoque na estimação da predição. O método de seleção de modelos Stepwise será considerado como forma de comparação da capacidade preditiva em relação ao método de ponderação de modelos.
27

Metanálise para Modelos de Regressão

Santos, Laryssa Vieira dos 28 October 2016 (has links)
Submitted by Alison Vanceto (alison-vanceto@hotmail.com) on 2017-01-11T10:26:37Z No. of bitstreams: 1 DissLVS.pdf: 1824115 bytes, checksum: 71ce8c53b020b46c93876ebad01cdbc4 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2017-01-13T19:21:08Z (GMT) No. of bitstreams: 1 DissLVS.pdf: 1824115 bytes, checksum: 71ce8c53b020b46c93876ebad01cdbc4 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2017-01-13T19:21:16Z (GMT) No. of bitstreams: 1 DissLVS.pdf: 1824115 bytes, checksum: 71ce8c53b020b46c93876ebad01cdbc4 (MD5) / Made available in DSpace on 2017-01-13T19:21:26Z (GMT). No. of bitstreams: 1 DissLVS.pdf: 1824115 bytes, checksum: 71ce8c53b020b46c93876ebad01cdbc4 (MD5) Previous issue date: 2016-10-28 / Não recebi financiamento / A metanálise tem sido amplamente utilizada em estudos médicos especialmente em revisões sistemáticas de ensaios clínicos aleatorizados. Para modelos de regressão a técnica ainda é muito escassa e limitada. Geralmente, trata-se apenas de uma medida baseada nas médias de estimativas pontuais dos diferentes estudos, perdendo-se muita informação dos dados originais. Atualmente, torna-se cada vez mais fundamental o uso da metanálise para sumarizar estudos de mesmo objetivo, em razão do avanço da ciência e o desejo de usar o menor número de seres humanos em ensaios clínicos. Utilizando uma medida metanalítica Bayesiana, o objetivo é propor um método genérico e eficiente para realizar metanálise em modelos de regressão.
28

Modelos mistos na seleção entre e dentro de famílias de cana de açúcar sob o enfoque bayesiano / Mixed models in selection between and within families of cane sugar under the bayesian approach

Silva, Mariane Alves Gomes da 16 February 2012 (has links)
Made available in DSpace on 2015-03-26T13:32:14Z (GMT). No. of bitstreams: 1 texto completo.pdf: 1797227 bytes, checksum: e12639c68c3972023379c9f437bc1e5c (MD5) Previous issue date: 2012-02-16 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / The base of agribusiness of sugar cane is the breeding. Can be shown that the great strategy selection of plant would be through the prediction of genotypic values using BLUP (Best Linear Unbiased Predictor) individual (BLUPI). This procedure would use both the information of family and individuals for selection. However this method is rarely used in breeding programs because of operational problems related to obtain data plant. Recently an alternative operationally more practical was proposal and is called BLUPIS (BLUP individual simulated). In this case the data are collected at the level of plot. With this is possible to select the best families, and subsequently, to simulate the number of individuals to be selected within the best families. This work has as aims to develop an algorithm for analysis BLUP under the Bayesian focus with different settings of priors in your modeling, in statistical software R, for possible available to the user and compare it with the Classic REML / BLUP. The results showed that the method with Bayesian BLUPIS performed by the algorithm built with the R program was effective. The algorithm took into account the uncertainties on all parameters, as also allowed the use of a priori information. The Bayesian method is more efficient when considering the relationship information model and the distribution of the prior information (major genotypic effects and variances and heritability smaller). / A base do agronegócio de cana-de-açúcar é o melhoramento genético. Pode ser mostrado que a estratégia ótima de seleção da planta seria através da predição de valores genotípicos usando o BLUP (Best Linear Unbiased Predictor) individual (BLUPI). Este procedimento usaria, simultaneamente, a informação de família e de indivíduos para a seleção. No entanto esse método dificilmente é usado nos programas de melhoramento devido a problemas operacionais relacionados à obtenção dos dados ao nível de planta. Recentemente uma alternativa operacionalmente mais prática foi proposta, e é denominada BLUPIS (BLUP individual simulado). Nesse caso os dados são coletados ao nível de parcela. Com isso é possível selecionar as melhores famílias e, posteriormente, simular o número de indivíduos a serem selecionados dentro das melhores famílias. Este trabalho teve como objetivo desenvolver um algoritmo para análise do BLUPIS sob o enfoque bayesiano, com diferentes definições de distribuições a prioris na sua modelagem, no software estatístico R, para possível disponibilização ao usuário e compará-la com o método clássico REML/BLUP. Os resultados mostraram que o método BLUPIS com enfoque bayesiano realizado através do algoritmo construído junto ao programa R foi eficiente. O algoritmo levou em consideração a incerteza existente sobre todos os parâmetros do modelo, como também possibilitou o uso de priori informativa. O método bayesiano se mostrou mais eficiente, isto é, com efeitos genotípicos maiores e variâncias e herdabilidade menores, quando se consideraram no modelo a informação de parentesco e a distribuição da priori informativa.
29

Simulação de fatores que afetam as predições obtidas por krigagem ordinária / Simulation of Factors Affecting the Predictions Obtained by ordinary kriging

Reis, Cássio Pinho dos 18 March 2013 (has links)
Made available in DSpace on 2015-03-26T13:32:17Z (GMT). No. of bitstreams: 1 texto completo.pdf: 578545 bytes, checksum: f6ae6dae907e75e3f88a95fd72c929fc (MD5) Previous issue date: 2013-03-18 / The objective of this study is to identify how many factors can affect the variance of the predictions obtained by Ordinary Kriging. For this, different phenomena were simulated in order to obtain the predictions of Ordinary Kriging, using the three usual semivariogram models, different amounts of neighbors to perform the prediction, different spatial dependence indexes and sample size. It was observed that although all the models tended to produce non-biased predictions, the spherical model tended to show a greater variability of the prediction errors in most phenomena simulated, while the Gaussian got smaller. It was also found that when the value of spatial dependence indexes (FDI), the grid size and the number of nearest neighbors were increased, the models tend to have lower variability for all SDI studied, and these ones also tend to stabilize when it reaches a certain amount of neighbors. About the evaluation of the estimates, the exponential model tended to be the one with the worst rating on the variability of the predictions and the spherical the one with the best evaluation in most simulated phenomena. Nevertheless, when it increases the amount of neighbors, the models behavior changes according to the spatial dependence index. / O objetivo deste estudo é poder identificar, como diversos fatores podem afetar a variância das predições obtidas por Krigagem Ordinária. Para tanto, foram simulados diferentes cenários para poder obter as predições de Krigagem Ordinária, usando os três modelos de semivariograma usuais, quantidades diferentes de vizinhos para realizar a predição, diferentes níveis de dependência espacial e tamanhos de amostra. Observou-se que embora todos os modelos tenderam produzir predições não viesadas, o modelo esférico tendeu a apresentar a maior variabilidade dos erros de predições na maioria dos cenários simulados, enquanto que o gaussiano obteve a menor. Verificou-se também que quando se aumentou o valor do índice de dependência espacial (IDE), o tamanho do grid e a quantidade de vizinhos mais próximos, os modelos tenderam a apresentar menores variabilidades para todos IDE estudados, sendo que o mesmo tende a se estabilizar quando se chega a uma determinada quantidade de vizinhos. Quanto à avaliação das estimativas, o modelo exponencial tendeu a ser o modelo com a pior avaliação sobre a variabilidade das predições e o esférico com a melhor avaliação na maioria dos cenários simulados, porém quando se aumenta a quantidade de vizinhos, o comportamento dos modelos se alteram de acordo com o índice de dependência espacial.
30

Seleção genômica ampla em suínos usando o modelo de sobrevivência de Cox / Genomic Wide Selection (GWS) in pigs using the survival model of Cox

Santos, Vinicius Silva dos 26 February 2013 (has links)
Made available in DSpace on 2015-03-26T13:32:19Z (GMT). No. of bitstreams: 1 texto completo.pdf: 1498414 bytes, checksum: a554a4debb559e9eaa2ce04ffbc8d4c9 (MD5) Previous issue date: 2013-02-26 / Fundação de Amparo a Pesquisa do Estado de Minas Gerais / The genomic wide selection (GWS) emerged in 2001 with the goal of increasing efficiency and accelerating the selection gain in genetic improvement based exclusively on markers after their genetic effects estimated from phenotypic data. In the context of survival analysis, Cox s proportional risk model with random effects was compared to the mixed linear model, both using parenthood matrices based on markers in substitution to basing on pedigree, this method being named GBLUP. The application was made on real data from an F2 population of pigs in which the dependent variable was the time in days, from birth to slaughter of the animal and the covariables: SNP markers (238), sex and handled lot. The data was previously corrected for fixed effects and the accuracy of the method was calculated based on the correlation of the ranks of genomic genetic values predicted in both models with the phenotypic values corrected. The analysis was repeated considering the least number of SNP markers that presented the greatest effect in module. The results showed agreement in the prediction of genomic genetic values and estimation of the effects of markers for both models in the situation of uncensored data and normality. However, when considering censored data, the Cox model with normal random effect was more appropriate, since there was no agreement in the prediction of genomic genetic values and estimation of the effects of markers with the mixed linear model with imputed data. The selection of markers allowed an increase in correlations between the positions of genomic genetic values predicted by the linear model and the Cox frailty model with phenotypic values corrected, being that for the characteristic being analyzed, 120 markers were sufficient to increase the predictive power. / A seleção genômica ampla (GWS) surgiu em 2001 com o objetivo de aumentar a eficiência e acelerar o ganho de seleção no melhoramento genético baseando-se exclusivamente em marcadores após terem seus efeitos genéticos estimados a partir de dados fenotípicos. No contexto de análise de sobrevivência, o modelo de riscos proporcionais de Cox com efeito aleatório foi comparado ao modelo linear misto, ambos usando a matriz de parentesco baseada em marcadores em substituição à baseada em pedigree, método esse denominado GBLUP. A aplicação foi feita aos dados reais de uma população F2 de suínos em que a variável resposta foi o tempo em dias, do nascimento até o abate do animal e as covariáveis: marcadores SNPs (238), sexo e lote de manejo. Os dados foram previamente corrigidos para seus efeitos fixos e a acurácia do método foi calculada com base na correlação dos postos dos valores genéticos genômicos preditos em ambos os modelos com os valores fenotípicos corrigidos. A análise foi repetida considerando menor número de marcadores SNPs que apresentassem maiores efeitos em módulo. Os resultados demonstraram concordância na predição dos valores genéticos genômicos e na estimação dos efeitos de marcadores para ambos os modelos na situação de dados não censurados e normalidade. No entanto, ao considerar a censura, o modelo de Cox com efeito aleatório normal foi o mais apropriado, uma vez que não houve concordância na predição dos valores genéticos genômicos e na estimação dos efeitos de marcadores com o modelo linear misto com dados imputados. A seleção de marcas permitiu um aumento nas correlações entre os postos dos valores genéticos genômicos preditos pelo modelo linear e pelo modelo de fragilidade de Cox com os valores fenotípicos corrigidos, sendo que para a característica analisada, 120 marcadores foram suficientes para maximizar a capacidade preditiva.

Page generated in 0.0163 seconds