• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 358
  • 13
  • Tagged with
  • 371
  • 371
  • 358
  • 358
  • 358
  • 130
  • 86
  • 71
  • 66
  • 66
  • 66
  • 60
  • 50
  • 48
  • 46
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
321

Modelos de sobrevivência com fração de cura usando um termo de fragilidade e tempo de vida Weibull modificada generalizada

Calsavara, Vinicius Fernando 24 February 2011 (has links)
Made available in DSpace on 2016-06-02T20:06:04Z (GMT). No. of bitstreams: 1 3451.pdf: 871063 bytes, checksum: 8af58118f0d60c000ca46f5d8bfda544 (MD5) Previous issue date: 2011-02-24 / In survival analysis, some studies are characterized by having a significant fraction of units that will never suffer the event of interest, even if accompanied by a long period of time. For the analysis of long-term data, we approach the standard mixture model by Berkson & Gage, where we assume the generalized modified Weibull distribution for the lifetime of individuals at risk. This model includes several classes of models as special cases, allowing its use to discriminate models. The standard mixture model implicitly assume that those individuals experiencing the event of interest possess homogeneous risk. Alternatively, we consider the standard mixture model with a frailty term in order to quantify the unobservable heterogeneity among individuals. This model is characterized by the inclusion of a unobservable random variable, which represents information that can not or have not been observed. We assume multiplicative frailty with a gamma distribution. For the lifetime of individuals at risk, we assume the Weibull distribution, obtaining the frailty Weibull standard mixture model. For both models, we realized simulation studies with the purpose of analyzing the frequentists properties of estimation procedures. Applications to real data set showed the applicability of the proposed models in which parameter estimates were determined using the approaches of maximum likelihood and Bayesian. / Em análise de sobrevivência determinados estudos caracterizam-se por apresentar uma fração significativa de unidades que nunca apresentarão o evento de interesse, mesmo se acompanhados por um longo período de tempo. Para a análise de dados com longa duração, abordamos o modelo de mistura padrão de Berkson & Gage supondo que os tempos de vida dos indivíduos em risco seguem distribuição Weibull modificada generalizada. Este modelo engloba diversas classes de modelos como casos particulares, propiciando o uso deste para discriminar modelos. O modelo abordado assume implicitamente que todos os indivíduos que falharam possuem risco homogêneo. Alternativamente, consideramos o modelo de mistura padrão com um termo de fragilidade com o objetivo de quantificar a heterogeneidade não observável entre os indivíduos. Este modelo é caracterizado pela inclusão de uma variável aleatória não observável, que representa as informações que não podem ou que não foram observadas. Assumimos que a fragilidade atua de forma multiplicativa com distribuição gama. Para os tempos de vida dos indivíduos em risco consideramos a distribuição Weibull, obtendo o modelo de mistura padrão Weibull com fragilidade. Para os dois modelos realizamos estudos de simulação com o objetivo de analisar as propriedades frequentistas dos processos de estimação. Aplicações a conjunto de dados reais mostraram a aplicabilidade dos modelos propostos, em que a estimação dos parâmetros foram determinadas através das abordagens de máxima verossimilhança e Bayesiana.
322

Abordagem clássica e bayesiana para os modelos de séries temporais da família GARMA com aplicações para dados contínuos

Cascone, Marcos Henrique 24 March 2011 (has links)
Made available in DSpace on 2016-06-02T20:06:04Z (GMT). No. of bitstreams: 1 3603.pdf: 602959 bytes, checksum: 3078931e73ff3d01b4122cbac2c7f0a0 (MD5) Previous issue date: 2011-03-24 / Financiadora de Estudos e Projetos / In this work, the aim was to analyze in the classic and bayesian context, the GARMA model with three different continuous distributions: Gaussian, Inverse Gaussian and Gamma. We analyzed the performance and the goodness of fit of the three models, as well as the performance of the coverage percentile. In the classic analyze we consider the maximum likelihood estimator and by simulation study, we verified the consistency, the bias and de mean square error of the models. To the bayesian approach we proposed a non-informative prior distribution for the parameters of the model, resulting in a posterior distribution, which we found the bayesian estimatives for the parameters. This study still was not found in the literature. So, we can observe that the bayesian inference showed a good quality in the analysis of the serie, which can be comprove with the last section of this work. This, consist in the analyze of a real data set corresponding in the rate of tuberculosis cases in metropolitan area of Sao Paulo. The results show that, either the classical and bayesian approach, are good alternatives to describe the behavior of the real time serie. / Neste trabalho, o objetivo foi analisar no contexto clássico e bayesiano, o modelo GARMA com três distribuições contínuas: Gaussiana (Normal), Inversa Gaussiana e Gama, e também o desempenho e a qualidade do ajuste dos modelos de interesse, bem como o desempenho dos percentis de cobertura para eles. Para o estudo clássico foi considerado os estimadores de máxima verossimilhança e por meio de simulação verificou-se a consistência, o viés e o erro quadrático médio dos mesmos. Para a abordagem bayesiana é proposta uma distribuição a priori não informativa para os parâmetros dos modelos resultando em uma distribuição a posteriori, o qual a partir daí pode-se encontrar as estimativas bayesianas para os parâmetros, sendo que este estudo ainda não foi encontrado na literatura. Com isso pode-se observar que a inferência bayesiana mostrou boa eficiência no processo de análise da série, o que pode ser comprovado também com a última etapa do trabalho. Esta, consiste na análise de um conjunto de dados reais correspondente a taxa de casos de tuberculose na região metropolitana de São Paulo. Os resultados mostram que, tanto o estudo clássico quanto o bayesiano, são capazes de descrever bem o comportamento da série.
323

Estimação Bayesiana do tamanho de uma população de diabéticos através de listas de pacientes

Missiagia, Juliano Gallina 25 February 2005 (has links)
Made available in DSpace on 2016-06-02T20:06:05Z (GMT). No. of bitstreams: 1 4034.pdf: 873658 bytes, checksum: 8c8e2d629291b4edab052dd0ee734f94 (MD5) Previous issue date: 2005-02-25 / Financiadora de Estudos e Projetos / In this work, a bayesian methodology is shown to estimate the size of a diabethic-su¤ering population through lists containing information data of patients. The applied methodology is analogous of capture-recaptures in animal population. We assume correct the registers of relative information to the patients as well as we take in account correct and incorrect registers of the information. In case the supposed registers are correct, the methodology is developed for two or more lists and the Bayes estimate is determined for the size of a population. In a second model, the occurrency of correct and incorrect registers are considered, presenting a two-stage estimation method for the model parameters using two lists. For both models there are results with simulated and real examples. / Nesta dissertação apresentamos uma metodologia bayesiana para estimar o tamanho de uma população de diabéticos através de listas contendo informações sobre dados dos indivíduos. A metodologia aplicada é análoga a de captura-recaptura em população animal. Supomos corretos os registros de informações relativas aos pacientes assim como levamos em consideração registros corretos e incorretos das informações. No caso da suposição dos registros serem corretos, a metodologia é desenvolvida para duas ou mais listas e determinamos estimativas de Bayes para o tamanho populacional. Em um segundo modelo, consideramos a ocorrência de registros corretos e incorretos dos dados relativos aos pacientes, e apresentamos um método de estimação em dois estágios para os parâmetros do modelo utilizando duas listas. Para ambos os modelos, apresentamos resultados com exemplos simulados e reais.
324

Introdução ao controle estatístico de processo on-line

Silva, Paulo Henrique Ferreira da 07 April 2011 (has links)
Made available in DSpace on 2016-06-02T20:06:05Z (GMT). No. of bitstreams: 1 4182.pdf: 2255930 bytes, checksum: 7da65af2bc4550af129f4ceaea0a8eb1 (MD5) Previous issue date: 2011-04-07 / Financiadora de Estudos e Projetos / Neste trabalho são apresentadas algumas ferramentas do Controle Estatístico de Processos (CEP), que podem ser usadas no monitoramento de sistemas produtivos ao longo do tempo, bem como a sua aplicação em conjuntos de dados artificiais, que fazem parte de contextos reais. O estudo sobre essas ferramentas estatísticas está distribuído de tal maneira que são abordados durante o trabalho: a teoria das ferramentas estudadas, os diferentes contextos em que podem ser aplicadas e a sua implementação on-line, utilizando recursos computacionais de softwares livres. A aplicação no sistema on-line é realizada de tal modo que viabiliza a praticidade e eficácia na geração de gráficos para o CEP e de índices que refletem a capacidade do processo. É apresentada também uma sequência de passos para o uso do sistema de CEP on-line aqui proposto, tanto para situações em que se observa apenas uma medida da qualidade do processo (caso univariado), quanto para situações em que são observadas várias medidas (caso multivariado).
325

O método de máxima Lq-verossimilhança em modelos com erros de medição

Cavalieri, Jacqueline 29 February 2012 (has links)
Made available in DSpace on 2016-06-02T20:06:05Z (GMT). No. of bitstreams: 1 4180.pdf: 1039417 bytes, checksum: d09a61a4895fb47d1c2456468800fc2f (MD5) Previous issue date: 2012-02-29 / Financiadora de Estudos e Projetos / In this work we consider a new estimator proposed by Ferrari & Yang (2010), called the maximum Lq-likelihood estimator (MLqE), to estimate the parameters of the measurement error models, in particular, the structural model. The new estimator extends the classical maximum likelihood estimator (MLE) and its based on the minimization, by means of the Kullback-Leibler (KL) divergence, of the discrepancy between a distribuiton in a family and one that modifies the true distribution by the degree of distortion q. Depending on the choice of q, the transformed distribution can diminish or emphasize the role of extreme observations, unlike the ML method that equally weights each observation. For small and moderate sample sizes, the MLqE can trade bias for precision, causing a reduction of the mean square error (MSE). The structural model has the characteristic of non-identifiability. For this reason, we must make assumptions on the parameters to overcome the non-identifiability. We perform a analytical study and a simulation study to compare MLqE and MLE. To gauge performance of the estimators, we compute measures of overall performance, bias, standard deviation, standard error, MSE, probability of coverage and length of confidence intervals. / Neste trabalho utilizaremos um novo estimador proposto por Ferrari & Yang (2010), denominado de estimador de máxima Lq-verossimilhança (EMLqV), na estimação dos parâmetros de modelos com erros de medição estruturais normais. O novo estimador é uma generalização do estimador de máxima verossimilhança (EMV) usual e sua construção baseia-se na comparação, utilizando divergência de Kullback-Leibler (KL), entre duas distribuições, a distribuição inalterada e a distribuição modificada pelo grau de distorção da função de verossimilhança (q). Conforme a escolha para q, a distribuição modificada poderá atenuar ou exaltar o papel das observações extremas, diferentemente do EMV usual que atribui os mesmos pesos a todas as observações. Na comparação entre as duas distribuições pela divergência de KL é inserida certa quantidade de viés no estimador resultante, que é controlada pelo parâmetro q. O aumento do viés do estimador MLqV pode ser compensado com a redução de sua variância, pela escolha apropriada de q. O modelo estrutural possui a característica de ser inidentificável. Para torná-lo identificável faremos suposições sobre os parâmetros do modelo, analisando cinco casos de identificabilidade do modelo. A comparação entre os métodos MLqV e MV na estimação dos parâmetros do modelo será baseada em resultados analíticos e em simulações, sendo calculadas medidas de desempenho global, viés, desvio padrão (DP), erro padrão estimado (EP), erro quadrático médio (EQM), probabilidade de cobertura e amplitude dos intervalos de confiança.
326

Comparação das distribuições α-estável, normal, t de student e Laplace assimétricas

Macerau, Walkiria Maria de Oliveira 27 January 2012 (has links)
Made available in DSpace on 2016-06-02T20:06:06Z (GMT). No. of bitstreams: 1 4185.pdf: 8236823 bytes, checksum: fc450b707396aa2c496c5373af93ef3d (MD5) Previous issue date: 2012-01-27 / Financiadora de Estudos e Projetos / Abstract The asymmetric distributions has experienced great development in recent times. They are used in modeling financial data, medical, genetics and other applications. Among these distributions, the Skew normal (Azzalini, 1985) has received more attention from researchers (Genton et al., (2001), Gupta et al., (2004) and Arellano-Valle et al., (2005)). We present a comparative study of _-stable distributions, Skew normal, Skew t de Student and Skew Laplace. The _-stable distribution is studied by Nolan (2009) and proposed by Gonzalez et al., (2009) in the context of genetic data. For some real datasets, in areas such as financial, genetics and commodities, we test which distribution best fits the data. We compare these distributions using the model selection criteria AIC and BIC. / As distribuições assimétricas tem experimentado grande desenvolvimento nos tempos recentes. Elas são utilizadas na modelagem de dados financeiros, médicos e genéticos entre outras aplicações. Dentre essas distribuições, a normal assimétrica (Azzalini, 1985) tem recebido mais atenção dos pesquisadores (Genton et al., (2001), Gupta et al., (2004) e Arellano-Valle et al., (2005)). Nesta dissertação, apresentamos um estudo comparativo das distribuições _-estável, normal , t de Student e Laplace assimétricas. A distribuição _-estável estudada por Nolan (2009) é proposta por Gonzalez et al., (2009) no contexto de dados genéticos. Neste trabalho, também apresentamos como verificar a assimetria de uma distribuição, descrevemos algumas características das distribuições assimétricas em estudo, e comparamos essas distribuições utilizando os critérios de seleção de modelos AIC e BIC..
327

Combinação de classificadores para inferência dos rejeitados

Rocha, Ricardo Ferreira da 16 March 2012 (has links)
Made available in DSpace on 2016-06-02T20:06:06Z (GMT). No. of bitstreams: 1 4300.pdf: 2695135 bytes, checksum: c7742258a75f77aa35ccb54abc3439fe (MD5) Previous issue date: 2012-03-16 / Financiadora de Estudos e Projetos / In credit scoring problems, the interest is to associate to an element who request some kind of credit, a probability of default. However, traditional models uses samples biased because the data obtained from the tenderers has only clients who won a approval of a request for previous credit. In order to reduce the bias sample of these models, we use strategies to extract information about individuals rejected to be able to infer a response, good or bad payer. This is what we call the reject inference. With the use of these strategies, we also use the bagging technique (bootstrap aggregating), which consist in generate models based in some bootstrap samples of the training data in order to get a new predictor, when these models is combined. In this work we will discuss about some of the combination methods in the literature, especially the method of combination by logistic regression, although little used but with interesting results.We'll also discuss some strategies relating to reject inference. Analyses are given through a simulation study, in data sets generated and real data sets of public domain. / Em problemas de credit scoring, o interesse é associar a um elemento solicitante de algum tipo de crédito, uma probabilidade de inadimplência. No entanto, os modelos tradicionais utilizam amostras viesadas, pois constam apenas de dados obtidos dos proponentes que conseguiram a aprovação de uma solicitação de crédito anterior. Com o intuito de reduzir o vício amostral desses modelos, utilizamos estratégias para extrair informações acerca dos indivíduos rejeitados para que nele seja inferida uma resposta do tipo bom/- mau pagador. Isto é o que chamamos de inferência dos rejeitados. Juntamente com o uso dessas estratégias utilizamos a técnica bagging (bootstrap aggregating ), que é baseada na construção de diversos modelos a partir de réplicas bootstrap dos dados de treinamento, de modo que, quando combinados, gera um novo preditor. Nesse trabalho discutiremos sobre alguns dos métodos de combinação presentes na literatura, em especial o método de combinação via regressão logística, que é ainda pouco utilizado, mas com resultados interessantes. Discutiremos também as principais estratégias referentes à inferência dos rejeitados. As análises se dão por meio de um estudo simulação, em conjuntos de dados gerados e em conjuntos de dados reais de domínio público.
328

Modelagem de fraude em cartão de crédito

Moraes, Dalila de 02 September 2008 (has links)
Made available in DSpace on 2016-06-02T20:06:06Z (GMT). No. of bitstreams: 1 4329.pdf: 1652803 bytes, checksum: aad7f31afeb38bcd450c35fd9ed227be (MD5) Previous issue date: 2008-09-02 / Universidade Federal de Sao Carlos / The transactions volume increase brought the fraud increase, which result in a annual loss of billions of reais to all .nancial institutions in the world. Therefore, it.s very important the development of detection methods and fraud prevention. The di¢ cult in modeling this kind of data due the fact the data sets are extremely unbalanced. In this work, a bounded logit model will be proposed for fraud detection. It will also be discussed state- dependent sampling and compared with logit and bounded logit model performances. Two applications, one with a simulated data set and another with a real data set, will be presented. The Bayesian approach to these models will also be discussed. The data set analyses will be implemented in SAS and Winbugs software. / O aumento no volume de transações com cartões de crédito trouxe como consequência o aumento do número de fraudes, o que acarreta em uma perda de bilhões de reais anu- almente à todas instituições .nanceiras do mundo. Com isso é muito importante que metodologias de detecção e prevenção à fraude sejam desenvolvidas. A grande di.cul- dade na modelagem deste tipo de dados é que estes são extremamentes desbalanceados. Neste presente trabalho, será proposto o modelo logito limitado na detecção de fraude. Também será discutido as amostras do tipo state-dependent e comparado os desempenhos dos modelos logito e logito limitado. Duas aplicações, uma com um conjunto de dados simulados e outra com um conjunto de dados reais, serão apresentadas. A abordagem bayesiana para estes modelos também será discutida. As análises dos conjuntos de dados serão realizadas nos softwares SAS e Winbugs.
329

Distribuição COM-Poisson na análise de dados de experimentos de quimioprevenção do câncer em animais

Ribeiro, Angélica Maria Tortola 16 March 2012 (has links)
Made available in DSpace on 2016-06-02T20:06:06Z (GMT). No. of bitstreams: 1 4336.pdf: 1594022 bytes, checksum: ff2370b4d516b9cdf6dd6da3be557c42 (MD5) Previous issue date: 2012-03-16 / Financiadora de Estudos e Projetos / Experiments involving chemical induction of carcinogens in animals are common in the biological area. Interest in these experiments is, in general, evaluating the chemopreventive effect of a substance in the destruction of damaged cells. In this type of study, two variables of interest are the number of induced tumors and their development times. We explored the use of statistical model proposed by Kokoska (1987) for the analysis of experimental data of chemoprevention of cancer in animals. We flexibility the Kokoska s model, subsequently used by Freedman (1993), whereas for the variable number of tumors induced Conway-Maxwell Poisson (COM-Poisson) distribution. This distribution has demonstrated efficiency due to its great flexibility, when compared to other discrete distributions to accommodate problems related to sub-dispersion and super-dispersion often found in count data. The purpose of this paper is to adapt the theory of long-term destructive model (Rodrigues et al., 2011) for experiments chemoprevention of cancer in animals, in order to evaluate the effectiveness of cancer treatments. Unlike the proposed Rodrigues et al. (2011), we formulate a model for the variable number of detected malignant tumors per animal, assuming that the probability of detection is no longer constant, but dependent on the time step. This is an extremely important approach to cancer chemoprevention experiments, because it makes the analysis more realistic and accurate. We conducted a simulation study, in order to evaluate the efficiency of the proposed model and to verify the asymptotic properties of maximum likelihood estimators. We also analyze a real data set presented in the article by Freedman (1993), to demonstrate the efficiency of the COM-Poisson model compared to results obtained by him with the Poisson and Negative Binomial distributions. / Experimentos que envolvem a indução química de substâncias cancerígenas em animais são comuns na área biológica. O interesse destes experimentos é, em geral, avaliar o efeito de uma substância quimiopreventiva na destruição das células danificadas. Neste tipo de estudo, duas variáveis de interesse são o número de tumores induzidos e seus tempos de desenvolvimento. Exploramos o uso do modelo estatístico proposto por Kokoska (1987) para a análise de dados de experimentos de quimioprevenção de câncer em animais. Flexibilizamos o modelo de Kokoska (1987), posteriormente utilizado por Freedman (1993), considerando para a variável número de tumores induzidos a distribuição Conway-Maxwell Poisson (COM-Poisson). Esta distribuição tem demonstrado eficiência devido à sua grande flexibilidade, quando comparada a outras distribuições discretas, para acomodar problemas relacionados à subdispersão e sobredispersão encontrados frequentemente em dados de contagem. A proposta deste trabalho consiste em adaptar a teoria de modelo destrutivo de longa duração (Rodrigues et al., 2011) para experimentos de quimioprevenção do câncer em animais, com o propósito de avaliar a eficiência de tratamentos contra o câncer. Diferente da proposta de Rodrigues et al. (2011), formulamos um modelo para a variável número de tumores malignos detectados por animal, supondo que sua probabilidade de detecção não é mais constante, e sim dependente do instante de tempo. Esta é uma abordagem extremamente importante para experimentos quimiopreventivos de câncer, pois torna a análise mais realista e precisa. Realizamos um estudo de simulação com o propósito de avaliar a eficiência do modelo proposto e verificar as propriedades assintóticas dos estimadores de máxima verossimilhança. Analisamos também um conjunto de dados reais apresentado no artigo de Freedman (1993), visando demonstrar a eficiência do modelo COM-Poisson em relação aos resultados por ele obtidos com as distribuições Poisson e Binomial Negativa.
330

Redes probabilísticas de K-dependência para problemas de classificação binária / Redes probabilísticas de K-dependência para problemas de classificação binária

Souza, Anderson Luiz de 28 February 2012 (has links)
Made available in DSpace on 2016-06-02T20:06:06Z (GMT). No. of bitstreams: 1 4338.pdf: 1335557 bytes, checksum: 8e0bef5711ff8c398be194e335deecec (MD5) Previous issue date: 2012-02-28 / Universidade Federal de Sao Carlos / Classification consists in the discovery of rules of prediction to assist with planning and decision-making, being a continuously indispensable tool and a highly discussed subject in literature. As a special case in classification, we have the process of credit risk rating, within which there is interest in identifying good and bad paying customers through binary classification methods. Therefore, in many application backgrounds, as in financial, several techniques can be utilized, such as discriminating analysis, probit analysis, logistic regression and neural nets. However, the Probabilistic Nets technique, also known as Bayesian Networks, have showed itself as a practical convenient classification method with successful applications in several areas. In this paper, we aim to display the appliance of Probabilistic Nets in the classification scenario, specifically, the technique named K-dependence Bayesian Networks also known as KDB nets, as well as compared its performance with conventional techniques applied within context of the Credit Scoring and Medical diagnosis. Applications of the technique based in real and artificial datasets and its performance assisted by the bagging procedure will be displayed as results. / A classificação consiste na descoberta de regras de previsão para auxílio no planejamento e tomada de decisões, sendo uma ferramenta indispensável e um tema bastante discutido na literatura. Como caso especial de classificação, temos o processo de avaliação de risco de crédito, no qual temos o interesse de identificar clientes bons e maus pagadores através de métodos de classificação binária. Assim, em diversos enredos de aplicação, como nas financeiras, diversas técnicas podem ser utilizadas, tais como análise discriminante, análise probito, regressão logística e redes neurais. Porém, a técnica de Redes Probabilísticas, também conhecida como Redes Bayesianas, tem se mostrado um método prático de classificação e com aplicações bem sucedidas em diversos campos. Neste trabalho, visamos exibir a aplicação das Redes Probabilísticas no contexto de classificação, em específico, a técnica denominada Redes Probabilísticas com K-dependência, também conhecidas como redes KDB, bem como comparar seu desempenho com as técnicas convencionais aplicadas no contexto de Credit Scoring e Diagnose Médica. Exibiremos como resultado aplicações da técnica baseadas em conjuntos de dados reais e artificiais e seu desempenho auxiliado pelo procedimento de bagging.

Page generated in 0.0245 seconds