• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 218
  • 4
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 223
  • 223
  • 154
  • 152
  • 56
  • 51
  • 49
  • 46
  • 45
  • 42
  • 41
  • 38
  • 38
  • 36
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Uma modelagem estatística aplicada ao controle biológico da praga que ataca a cultura do algodão / An statistical model applied to the biological control of the pest that attacks the cotton crop

Taveira, Abraão de Paula 02 October 2017 (has links)
As distribuições de probabilidade gama, normal inversa, Weibull, log-normal e exponencial são uma boa alternativa para modelar observações associadas ao tempo, pois, em geral, a variável tempo possui assimetria à esquerda ou à direita, o que caracteriza as distribuições citadas anteriormente. O objetivo deste trabalho constitui-se em avaliar o comportamento dos predadores, Euborellia annulipes (\"Tesourinha\") e Harmonia axyridis (\"Joaninha\"), em relação à praga conhecida como Aphis gossypii (\"Pulgão\"). Outra pretensão deste trabalho é a aplicação da modelagem estatística, dando ênfase as técnicas dos modelos lineares generalizados e análise de sobrevivência, as quais foram aplicadas aos dados provenientes de um experimento, instalado no Laboratório de Ecologia de Insetos da Escola Superior de Agricultura \"Luiz de Queiroz\" (ESALQ). O experimento foi composto por 21 repetições, sendo cada repetição efetuada por meio de uma placa de Petri medido 60 X 15 mm. Em cada placa foi liberado um pulgão adulto áptero na parte central, tendo três pesquisadores responsáveis por observar a varável definida como tempo de ataque. Inicialmente, foram ajustados os modelos com distribuição gama e diferentes funções de ligação, e o modelo com a distribuição normal inversa com função de ligação canônica. Esses modelos foram ajustados aos dados desconsiderando as censuras, em que por meio do gráfico half-normal plot e testes de hipóteses, verificou que o modelo com a distribuição normal inversa com função de ligação canônica, apresentou o melhor ajuste. Posteriormente, foram ajustados os modelos exponencial, Weibull e log-normal para os dados considerando as censuras, os quais foram avaliados mediante o teste de razão de verossimilhança, sendo o modelo log-normal mais apropriado aos dados. / The probability density function of gamma, inverse normal, Weibull, log-normal and exponential distributions are good alternatives for modelling observations related with time, since, in general, the time variable has left or right asymmetry, which characterizes the distributions previously mentioned . The aim of this work is the application of statistical modeling, emphasizing the techniques of generalized linear models and survival analysis, which were applied to data from an experiment, installed in the Laboratory of Insect Ecology of the \"Luiz de Queiroz\" College of Agriculture (ESALQ), in which the goal of this experiment was to evaluate the behavior of predators, Euborellia annulipes (\"ring-legged earwig\") and Harmonia axyridis (\"Ladybird\"), in relation to the pest known as Aphis. The experiment was composed of 21 replicates, each replicate being done by means of a petri dish measured 60 X 15 mm. On each plate an adult aphid was released in the central part, with three researchers responsible. The model with distribution was used to determine the variance, which was defined as the attack time. Normal distribution with canonical link function. These models were adjusted to the data disregarding censorship, in which through the half-normal plot and hypothesis tests, verified that the model with the normal inverse distribution with canonical link function, presented the best fit. Subsequently, the exponential, Weibull and log-normal models were adjusted for the data considering the censorship, which were evaluated by the likelihood ratio test, the log-normal model being more appropriate to the data.
92

Gráficos de controle CUSUM para monitoramento de dados de sobrevivência / CUSUM control charts to monitor survival data

Oliveira, Jocelânio Wesley de 18 May 2018 (has links)
Neste trabalho propomos gráficos de controle tipo CUSUM para monitoramento de tempos de sobrevivência. Nossa proposta é desenvolver diferentes estatísticas para o escore do gráfico CUSUM de forma prospectiva. Inicialmente propomos um gráfico CUSUM não paramétrico para monitoramento de populações homogêneas que avalia a variação na estatística log-rank como forma de identificar se há uma mudança significativa no risco de falha ao longo do tempo. Algumas abordagens diferentes foram consideradas e em destaque colocamos o gráfico ZDiff CUSUM, que tem como escore o incremento na estatística Z do teste log-rank em relação à inspeção anterior. Foi constatado, via simulação, que este método é eficiente. Posteriormente investigamos abordagens que levam em conta heterogeneidade na população por meio do modelo de Cox, considerando medidas baseadas na razão de verossimilhanças e em resíduos martingal e deviance. Através de simulações, verificou-se que o método com base na razão de verossimilhanças se mostrou ágil para detectar alteração na taxa de falha, quando se conhece a intensidade da mudança e este valor é informado na construção do teste. Por outro lado, os gráficos CUSUM com base em resíduos são mais simples e se mostraram eficazes para identificar aumentos no padrão da sobrevivência. Estes três métodos e o ZDiff CUSUM foram aplicados a dados de um estudo conduzido no Instituto do Coração (InCor) envolvendo pacientes com insuficiência cardíaca. Foi detectado que ao longo do tempo estes pacientes apresentam sobrevida maior, o que pode estar ligado à melhoria no tratamento e procedimentos realizados no hospital. Como conclusão, sugerimos que os gráficos tipo CUSUM com resíduos do modelo de Cox e o método não paramétrico com teste log-rank podem ser alternativas para utilização na prática em monitoramento de dados de sobrevivência. / In this work we propose CUSUM control charts to monitor survival times. Our proposal is to develop different statistics for the CUSUM chart score in a prospective way, to take into account SA approaches. We initially consider a non-parametric approach to monitor homogeneous populations. This CUSUM evaluates the variation on the log-rank test statistics as a way to identify significant changes in the risk of failure. Some different expressions for this have been considered and, in particular, we propose a ZDiff CUSUM chart computed as the increment on the log-rank test statistics Z at each inspection point in relation to the previous one. Based on simulation studies it was found that this method is efficient. Subsequently we investigated approaches that take into account heterogeneity in the population through the Cox model, considering measures based on the likelihood ratio and on martingal and deviance residuals. Through simulations, it was verified that the method based on the likelihood ratio was agile to detect a change in the hazard rate, when the intensity of the change is known and this value is informed in the construction of the test. On the other hand, CUSUM methods based on residuals are simpler and have been shown to be effective in identifying increases in survival pattern. These three methods and the ZDiff CUSUM were applied to a dataset from a study conducted at the Heart Institute (InCor) on patients with heart failure. It has been found that, over time, these patients have greater survival, which may be linked to improved treatment and procedures performed at the hospital. As a conclusion, we suggest that the CUSUM methods based on Cox model residuals and the nonparametric method on the log-rank test may be alternatives for practice in monitoring survival data.
93

Avaliação prognóstica em pacientes com insuficiência cardíaca com o emprego de redes neurais artificiais / Prognostic evaluation of patients with heart failure with the use of artificial neural networks

Marçula, Magaly 21 March 2019 (has links)
Fundamentos - Identificar pacientes ambulatoriais que necessitam de recursos terciários de hospital de referência voltado para a prática cardiológica é inerente à responsabilidade assistencial. Compete reconhecer pacientes sob maior risco de prognóstico desfavorável, o que pode ser feito pelo emprego de métodos estatísticos tradicionais. Com o mesmo fito, as redes neurais têm sido objeto de interesse. Formulamos a hipótese de que as redes neurais, alimentadas a partir de variáveis selecionadas com o emprego de estatística tradicional, pudessem contribuir para a avaliação prognóstica de pacientes com insuficiência cardíaca. Objetivos - Avaliar o prognóstico de pacientes com diagnóstico de insuficiência cardíaca com o emprego de métodos da estatística de sobrevivência associada com a rede neural artificial. Delineamento - Estudo de coorte retrospectiva a partir de dados assistenciais de pacientes que receberam o diagnóstico de insuficiência cardíaca, identificação das variáveis associadas ao prognóstico com o emprego da estatística tradicional e alimentação da rede neural perceptron de múltiplas camadas (Neuro XL Predictor - OLSOFT Software Development) com essas variáveis. Local - Ambulatório cardiológico com alto volume de atendimentos voltado para pacientes do Sistema Único de Saúde (SUS) em hospital acadêmico de referência terciário. Participantes - 2.128 pacientes consecutivos, que receberam o diagnóstico de insuficiência cardíaca de 2 de julho de 2003 a 2 de julho de 2007. Desfecho - óbito por qualquer causa. Análise de dados - À análise descritiva e exploratória, seguiu-se a avaliação da probabilidade de sobrevida pelo método de Kaplan Meier, seguida de análise inferencial com o emprego do teste de log-rank e do modelo de riscos proporcionais de Cox. Identificadas as variáveis associadas ao prognóstico de sobrevida, foi desenvolvida a rede neural nas diferentes fases de aprendizado- treinamento e com o recurso do algoritmo de treinamento backpropagation. A rede neural foi desenvolvida em cinco fases: fase 1 - aprendizado-treinamento (n=968 óbitos com informação completa); fase 2 - avaliação e aplicação (pacientes vivos até 2012); fase 3 - comparação da previsão de sobrevida com o emprego rede ( pacientes vivos até 2012) com a sobrevida observada; fase 4 - reensaios para aprendizados com novos desfechos (óbitos em 2013 e 2014); fase 5 - avaliação do aprendizado da rede na fase 4 (pacientes vivos e falecidos). A acurácia, a sensibilidade, a especificidade, o valor preditivo positivo e o valor preditivo negativo dos melhores modelos na previsão da sobrevida obtidas com a rede neural foram avaliados, considerando as duas funções de ativação (tangente hiperbólica e zero-based log sigmoid). Para tanto, foi preciso determinar intervalos de corte definidos por critério clínico de razoabilidade de expectativa do tempo de sobrevida e acerto calculado pela rede. A estimativa da previsibilidade e do erro também foi avaliada com o emprego da função de perda. Resultados - A análise estatística (n=2.128 pacientes) revelou as seguintes variáveis associadas ao prognóstico: idade (p < 0,001), índice de massa corpórea (p < 0,001), pressão arterial diastólica (p < 0,001), etiologia da insuficiência cardíaca (p < 0,001), classe funcional (p < 0,001), espessura do septo interventricular (p=0,037), diâmetro diastólico do ventrículo esquerdo (p < 0,001), diâmetro do átrio esquerdo (p=0,025), potássio sérico (p=0,015), colesterol total (p < 0,001), creatinina (p < 0,001) e a presença de diabetes melito (p=0,034). Os modelos de redes neurais com melhor previsibilidade foram obtidos pela categorização do tempo de sobrevida inferior a 2 anos, entre 2 anos e 6 anos, e superior a 6 anos. Nos pacientes com tempo de sobrevida observado superior a 6 anos, a partir da consulta inicial, com intervalo de corte de 3 anos, a estimativa feita com o emprego da rede neural demonstrou sensibilidade 93,0% (com ambas as funções de ativação), especificidade 76,4% ou 77,5% (dependendo da função de ativação), valor preditivo negativo 97,4% (com ambas as funções de ativação) e valor preditivo positivo 53,6% ou 54,7% (dependendo da função de ativação). Nos pacientes com tempo de sobrevida observado entre 2 anos e 6 anos, a partir da data do início dos sintomas, com intervalo de corte de 2 anos, obtivemos sensibilidade 89,8% (com ambas as funções de ativação), especificidade 72,5% ou 76,5%, valor preditivo positivo 86,3% ou 88,0% e valor preditivo negativo 78,7% ou 79,6% (dependendo da função de ativação). Nos pacientes com tempo de sobrevida observado inferior a 2 anos, a partir da data do início dos sintomas, com intervalo de corte de 1 ano, a estimativa com o emprego da rede neural demonstrou sensibilidade 87,2% (com ambas as funções de ativação), especificidade de 62,5% ou 66,7% (dependendo da função de ativação), valor preditivo positivo 82,0% ou 83,7% (dependendo da função de ativação) e valor preditivo negativo 71,4% ou 72,7% (dependendo da função de ativação). O erro da previsão de sobrevida com o emprego da rede neural, estimado com o auxílio da função de perda, variou de 4,4 meses até 1,1 anos. Conclusões - O emprego da rede neural alimentada por variáveis selecionadas com o emprego de estatística de sobrevivência tradicional pode ser método profícuo na avaliação prognóstica de pacientes com insuficiência cardíaca. A previsibilidade de estimativa de sobrevida alcançada com o uso de rede neural foi menor nos pacientes com quadros clínicos de menor tempo de evolução, comparativamente aos pacientes com maior tempo de evolução; no primeiro caso permitiria sugerir quadros mais instáveis em relação aos casos mais estáveis, isto é, aqueles com tempo de evolução maior / Background - Identifying outpatients who need tertiary resources of a referral cardiology hospital includes recognizing those at higher risk of unfavorable prognosis. Studies aimed at this objective may be accomplished with traditional statistics. Neural networks have been studied as a promising tool in the assessment of patients´ prognosis. We hypothesized that the neural networks developed with variables selected through traditional statistics might contribute to the prognostic evaluation of patients with heart failure. Objectives - To evaluate the prognosis of patients with heart failure using methods of survival statistics combined with the resources of artificial neural networks. Design - Retrospective cohort study from a database of patients previously diagnosed with heart failure, identification of variables associated with prognosis using traditional statistics, development of a neural network perceptron of multiple layers (Neuro XL Predictor - OLSOFT Software Development) with these variables. Setting - outpatient clinic from an academic tertiary cardiology center Participants - 2128 consecutive patients who received the diagnosis of heart failure between July 2, 2003 and July 2, 2007. Outcomes - death for any cause. Data analysis - Statistical evaluation was performed for descriptive and exploratory analysis and was followed by Kaplan Meier survival probability, and inferential analysis using the log-rank test and the Cox proportional hazards model to identify the variables associated with prognosis. Variables thus selected were then input for the neural network in the different stages of learning-training, with the backpropagation algorithm. The neural network was developed in 5 phases: phase 1 - learning / training (n = 968 deaths with complete information); phase 2 - evaluation and application (patients alive until 2012); phase 3 - comparison of the predicted versus the observed survival using the network (patients alive until 2012); phase 4 - re-tests for learning with new outcomes (deaths in 2013 and 2014); phase 5 - assessment of network learning in phase 4 (living and deceased patients). The accuracy, sensitivity, specificity, positive predictive value and negative predictive value of the best models in the prediction of survival obtained with the neural network were evaluated taking into account the two activation functions (hyperbolic tangent and zero-based log sigmoid) and the cut-off intervals defined by clinical criteria of reasonableness of expected survival time and the estimated estimate by the network. The estimation of predictability and error was also evaluated using the loss function. Results - Statistical analysis (n = 2128 patients) revealed the following variables associated with prognosis: age (p < 0.001), body mass index (p < 0.001), diastolic blood pressure (p < 0.001), heart failure etiology (P < 0.001), functional class (p < 0.001), interventricular septum thickness (p = 0.037), left ventricular diastolic diameter (p < 0.001), left atrial diameter (p = 0.025), serum potassium level, total cholesterol (p < 0.001), serum creatinine level (p < 0.001) and the presence of diabetes mellitus (p = 0.034). The models of neural networks with better predictability were obtained with the categorization of the survival time of less than 2 years, between 2 and 6 years, and over 6 years. In patients with a survival time of more than 6 years from the initial consultation, with a cut-off interval of 3 years (or 1095 days), the estimate using the neural network showed sensitivity 93.0% (with both activation functions), specificity of 76.4% or 77.5% (depending on the activation function), negative predictive value 97.4% (with both activation functions) and positive predictive value 53.6% or 54.7% (depending on the function of activation). In patients with a survival time of 2 to 6 years from the onset of symptoms, with a cut-off interval of 2 years (or 730 days), we obtained 89.8% sensitivity (with both activation functions), specificity 72,5% or 76.5%, positive predictive value 86.3% or 88.0% and negative predictive value 78.7% or 79.6% (depending on the activation function). In patients with a survival time of less than 2 years from the onset of symptoms, with a cut-off interval of 1 year (or 365 days), the estimate using the neural network showed a sensitivity of 87.2% (with both activation functions), specificity of 62.5% or 66.7% (depending on the activation function), positive predictive value 82.0% or 83.7% (depending on the activation function) and negative predictive value 71.4% or 72.7% (depending on the activation function). The error of survival prediction with the use of the estimated neural network with the aid of the function of absolute loss ranged from 4.4 months to 1.1 years. Conclusions - The use of selected variables input in the neural network with the use aid of traditional survival statistics, may be a useful method for the prognostic evaluation of patients with heart failure. Estimates were less accurate in patients with a shorter duration of symptoms relative to those with symptoms for a long time; in the first case it would suggest more unstable disease relative to those with more stable disease, namely with symptoms for a long time
94

"Contribuição à avaliação prognóstica de pacientes com adenocarcinoma pulmonar avançado: estudo imunohistoquímico da expressão do fator 1 de transcrição tireoideano e da metaloproteinase 9" / Contribution to the prognostic assessment of patients with advanced lung adenocarcinoma: evaluation by immunohistochemical methods of thyroid transcription factor-1 and matrix metalloproteinase-9

Martins, Sandro José 28 April 2005 (has links)
O valor prognóstico da expressão do Fator 1 de Transcrição Tireoideano (TTF-1) e da metaloproteinase-9 (MMP-9) foi avaliado em 51 pacientes com adenocarcinoma pulmonar avançado. Foram fatores de mau prognóstico: baixa capacidade funcional (P = 0,017), baixa expressão do TTF-1 (P = 0,001) e alta expressão da MMP-9 (P = 0,008). Identificaram-se três grupos de risco para mortalidade: baixo risco (TTF-1 > 40% e MMP-9 < 80%; sobrevida: 127,6 semanas), risco intermediário (TTF-1 < 40% ou MMP-9 > 80%; sobrevida: 39,0 semanas) e alto risco (TTF-1 < 40% e MMP-9 > 80%; sobrevida: 16,4 semanas). Com a detecção destes marcadores é possível a identificação de subgrupos de pacientes com prognósticos clinicamente distintos. / The prognostic value of Thyroid Transcription Factor-1 (TTF-1) and Matrix Metalloproteinase-9 (MMP-9) tumor expression was evaluated in 51 patients with advanced lung adenocarcinoma. Poor performance status (P = 0.017), low TTF-1 (P = 0.001), and high MMP-9 (P = 0.008) were independent prognostic factors. There was three risk groups: low risk (TTF-1 > 40% and MMP-9 < 80%; median survival: 127.6 wk), intermediate risk (TTF-1 < 40% or MMP-9 > 80%; median survival: 39.0 wk), and high risk (TTF-1 < 40% and MMP-9 > 80%; median survival: 16.4 wk). Evaluation of TTF-1 and MMP-9 may allow us to identify different, clinically meaningful, prognostic groups of lung adenocarcinoma patients.
95

Análise Bayesiana de modelos de mistura finita com dados censurados / Bayesian analysis of finite mixture models with censored data

Melo, Brian Alvarez Ribeiro de 21 February 2017 (has links)
Misturas finitas são modelos paramétricos altamente flexíveis, capazes de descrever diferentes características dos dados em vários contextos, especialmente na análise de dados heterogêneos (Marin, 2005). Geralmente, nos modelos de mistura finita, todas as componentes pertencem à mesma família paramétrica e são diferenciadas apenas pelo vetor de parâmetros associado a essas componentes. Neste trabalho, propomos um novo modelo de mistura finita, capaz de acomodar observações censuradas, no qual as componentes são as densidades das distribuições Gama, Lognormal e Weibull (mistura GLW). Essas densidades são reparametrizadas, sendo reescritas em função da média e da variância, uma vez que estas quantidades são mais difundidas em diversas áreas de estudo. Assim, construímos o modelo GLW e desenvolvemos a análise de tal modelo sob a perspectiva bayesiana de inferência. Essa análise inclui a estimação, através de métodos de simulação, dos parâmetros de interesse em cenários com censura e com fração de cura, a construção de testes de hipóteses para avaliar efeitos de covariáveis e pesos da mistura, o cálculo de medidas para comparação de diferentes modelos e estimação da distribuição preditiva de novas observações. Através de um estudo de simulação, avaliamos a capacidade da mistura GLW em recuperar a distribuição original dos tempos de falha utilizando testes de hipóteses e estimativas do modelo. Os modelos desenvolvidos também foram aplicados no estudo do tempo de seguimento de pacientes com insuficiência cardíaca do Instituto do Coração da Faculdade de Medicina da Universidade de São Paulo. Nesta aplicação, os resultados mostram uma melhor adequação dos modelos de mistura em relação à utilização de apenas uma distribuição na modelagem dos tempos de seguimentos. Por fim, desenvolvemos um pacote para o ajuste dos modelos apresentados no software R. / Finite mixtures are highly flexible parametric models capable of describing different data features and are widely considered in many contexts, especially in the analysis of heterogeneous data (Marin, 2005). Generally, in finite mixture models, all the components belong to the same parametric family and are only distinguished by the associated parameter vector. In this thesis, we propose a new finite mixture model, capable of handling censored observations, in which the components are the densities from the Gama, Lognormal and Weibull distributions (the GLW finite mixture). These densities are rewritten in such a way that the mean and the variance are the parameters, since the interpretation of such quantities is widespread in various areas of study. In short, we constructed the GLW model and developed its analysis under the bayesian perspective of inference considering scenarios with censorship and cure rate. This analysis includes the parameter estimation, wich is made through simulation methods, construction of hypothesis testing to evaluate covariate effects and to assess the values of the mixture weights, computatution of model adequability measures, which are used to compare different models and estimation of the predictive distribution for new observations. In a simulation study, we evaluated the feasibility of the GLW mixture to recover the original distribution of failure times using hypothesis testing and some model estimated quantities as criteria for selecting the correct distribution. The models developed were applied in the study of the follow-up time of patients with heart failure from the Heart Institute of the University of Sao Paulo Medical School. In this application, results show a better fit of mixture models, in relation to the use of only one distribution in the modeling of the failure times. Finally, we developed a package for the adjustment of the presented models in software R.
96

Modelagens estatística para dados de sobrevivência bivariados: uma abordagem bayesiana / Statistical modeling to bivariate survival data: a bayesian approacn

Ribeiro, Taís Roberta 31 March 2017 (has links)
Os modelos de fragilidade são utilizados para modelar as possíveis associações entre os tempos de sobrevivência. Uma outra alternativa desenvolvida para modelar a dependência entre dados multivariados é o uso dos modelos baseados em funções cópulas. Neste trabalho propusemos dois modelos de sobrevivência derivados das cópulas de Ali- Mikhail-Haq (AMH) e de Frank para modelar a dependência de dados bivariados na presença de covariáveis e observações censuradas. Para fins inferenciais, realizamos uma abordagem bayesiana usando métodos Monte Carlo em Cadeias de Markov (MCMC). Algumas discussões sobre os critérios de seleção de modelos são apresentadas. Com o objetivo de detectar observações influentes utilizamos o método bayesiano de análise de influência de deleção de casos baseado na divergência &psi;. Por fim, mostramos a aplicabilidade dos modelos propostos a conjuntos de dados simulados e reais. Apresentamos, também, um novo modelo de sobrevivência bivariado com fração de cura, que leva em consideração três configurações para o mecanismo de ativação latente: ativação aleatória, primeira ativação é última ativação. Aplicamos este modelo a um conjunto de dados de empréstimo de Crédito Direto ao modo do Consumidor (DCC) e comparamos os ajustes por meio dos critérios bayesianos de seleção de modelos para verificar qual dos três modelos melhor se ajustou. Por fim, mostramos nossa proposta futura para a continuação da pesquisa. / The frailty models are used to model the possible associations between survival times. Another alternative developed for modeling the dependence between multivariate data is the use of models based on copulas functions. In this paper we propose two derived survival models of copula of the Ali-Mikhail-Haq (AMH) and of the Frank to model the dependence of bivariate data in the presence of covariates and censored observations. For inferential purposes, we conducted a Bayesian approach using Monte Carlo methods in Markov Chain (MCMC). Some discussions on the model selection criteria were presented. In order to detect influential observations we use the Bayesian method of cases of deletion of influence analysis based on the difference &psi;. Finally, we show the applicability of the proposed models to sets of simulated and real data. We present, too, a new survival model with bivariate fraction of healing, which takes into account three settings for the latent activation mechanism: random activation, first activation and final activation. We apply this model to a set of Direct Credit loan data to the Consumer mode (DCC) and compare the settings, through Bayesian criteria for selection of models, which of the three models best fit. Finally, we show our future proposal for further research.
97

Estimação e comparação de curvas de sobrevivência sob censura informativa. / Estimation and comparison of survival curves with informative censoring.

Cesar, Raony Cassab Castro 10 July 2013 (has links)
A principal motivação desta dissertação é um estudo realizado pelo Instituto do Câncer do Estado de São Paulo (ICESP), envolvendo oitocentos e oito pacientes com câncer em estado avançado. Cada paciente foi acompanhado a partir da primeira admissão em uma unidade de terapia intensiva (UTI) pelo motivo de câncer, por um período de no máximo dois anos. O principal objetivo do estudo é avaliar o tempo de sobrevivência e a qualidade de vida desses pacientes através do uso de um tempo ajustado pela qualidade de vida (TAQV). Segundo Gelber et al. (1989), a combinação dessas duas informações, denominada TAQV, induz a um esquema de censura informativa; consequentemente, os métodos tradicionais de análise para dados censurados, tais como o estimador de Kaplan-Meier (Kaplan e Meier, 1958) e o teste de log-rank (Peto e Peto, 1972), tornam-se inapropriados. Visando sanar essa deficiência, Zhao e Tsiatis (1997) e Zhao e Tsiatis (1999) propuseram novos estimadores para a função de sobrevivência e, em Zhao e Tsiatis (2001), foi desenvolvido um teste análogo ao teste log-rank para comparar duas funções de sobrevivência. Todos os métodos considerados levam em conta a ocorrência de censura informativa. Neste trabalho avaliamos criticamente esses métodos, aplicando-os para estimar e testar curvas de sobrevivência associadas ao TAQV no estudo do ICESP. Por fim, utilizamos um método empírico, baseado na técnica de reamostragem bootstrap, a m de propor uma generalização do teste de Zhao e Tsiatis para mais do que dois grupos. / The motivation for this research is related to a study undertaken at the Cancer Institute at São Paulo (ICESP), which comprises the follow up of eight hundred and eight patients with advanced cancer. The patients are followed up from the first admission to the intensive care unit (ICU) for a period up to two years. The main objective is to evaluate the quality-adjusted lifetime (QAL). According to Gelber et al. (1989), the combination of both this information leads to informative censoring; therefore, traditional methods of survival analisys, such as the Kaplan-Meier estimator (Kaplan and Meier, 1958) and log-rank test (Peto and Peto, 1972) become inappropriate. For these reasons, Zhao and Tsiatis (1997) and Zhao and Tsiatis (1999) proposed new estimators for the survival function, and Zhao and Tsiatis (2001) developed a test similar to the log-rank test to compare two survival functions. In this dissertation we critically evaluate and summarize these methods, and employ then in the estimation and hypotheses testing to compare survival curves derived for QAL, the proposed methods to estimate and test survival functions under informative censoring. We also propose a empirical method, based on the bootstrap resampling method, to compare more than two groups, extending the proposed test by Zhao and Tsiatis.
98

Ensaios sobre risco de crédito e liquidez: transição de estado em corrida bancária e inadimplência / Essays on credit risk and liquidity: phase transitions in bank run and default

Santos, Toni Ricardo Eugenio dos 31 August 2015 (has links)
Nesta tese se estudam as duas pontas da atividade bancária. A relacionada com os depositantes e a relacionada com empréstimos e financiamentos. A ligação subjacente entre os artigos é o estudo da mudança de fases. Do lado do depósito o foco está no estudo de corridas bancárias. Explica-se o acontecimento de corridas bancárias pela decisão do depositante de retirar dinheiro prematuramente pelo medo do banco não ter recursos para honrar o contrato. Utiliza-se um modelo de simulação baseado em agentes para avaliar o comportamento dos depositantes sob diversos cenários. Ao impor regras simples, as simulações mostram que, no longo prazo, corridas por boatos tendem a zero conforme os bancos aumentam de tamanho e o mercado fica concentrado. Na outra ponta, a do crédito, se mediu o tempo que demora até uma operação de crédito se tornar inadimplente através de modelos de sobrevivência. Três modalidades de crédito são estudadas: financiamento de capital de giro para pessoas jurídicas e financiamento de veículos e empréstimo pessoal não consignado para pessoas físicas. Os resultados mostram claramente que o comportamento de cada modalidade de crédito é único. Além disso, a qualidade dos empréstimos concedidos durante a recessão causada pela crise de 2008 não é diferente da de outros períodos. A mudança na política de preços dos bancos públicos fez a qualidade do crédito do capital de giro piorar nestas instituições. O Banco Central do Brasil aumenta os fatores de ponderação de risco para novos empréstimos de automóvel mais arriscados. Porém, a decisão não afetou os financiamentos alvo / This thesis studies two main activities of banking. Deposit taking and lending. The theme that links the different chapters in the thesis is the study of phase transitions. On the deposit end it simulates bank runs by using an agent based approach to assess the depositors behavior under various scenarios. Simulations show that in the long run the number of bank runs goes to zero as banks grow and the market concentration increases. At the credit side, it measures the time it takes for a credit operation to become delinquent through the methodology of survival analysis. Three different loan operations are studied: working capital finance for companies and automobile financing and personal loans for individuals. The results clearly show that the behavior of each single type of credit is unique. Moreover, the quality of loans granted during the recession caused by the 2008 crisis isn\'t different from those granted in others periods. The change in the price policy of public banks makes the quality worse of working capital loans in those financial institutions. Banco Central do Brasil raises the risk weight factors to riskier new auto loans in 2010. However, the decision doesn\'t influence the targeted loans.
99

Modelos semiparamétricos de fração de cura para dados com censura intervalar / Semiparametric cure rate models for interval censored data

Costa, Julio Cezar Brettas da 18 February 2016 (has links)
Modelos de fração de cura compõem uma vasta subárea da análise de sobrevivência, apresentando grande aplicabilidade em estudos médicos. O uso deste tipo de modelo é adequado em situações tais que o pesquisador reconhece a existência de uma parcela da população não suscetível ao evento de interesse, consequentemente considerando a probabilidade de que o evento não ocorra. Embora a teoria encontre-se consolidada tratando-se de censuras à direita, a literatura de modelos de fração de cura carece de estudos que contemplem a estrutura de censura intervalar, incentivando os estudos apresentados neste trabalho. Três modelos semiparamétricos de fração de cura para este tipo de censura são aqui considerados para aplicações em conjuntos de dados reais e estudados por meio de simulações. O primeiro modelo, apresentado por Liu e Shen (2009), trata-se de um modelo de tempo de promoção com estimação baseada em uma variação do algoritmo EM e faz uso de técnicas de otimização convexa em seu processo de maximização. O modelo proposto por Lam et al. (2013) considera um modelo semiparamétrico de Cox, modelando a fração de cura da população através de um efeito aleatório com distribuição Poisson composta, utilizando métodos de aumento de dados em conjunto com estimadores de máxima verossimilhança. Em Xiang et al. (2011), um modelo de mistura padrão é proposto adotando um modelo logístico para explicar a incidência e fazendo uso da estrutura de riscos proporcionais para os efeitos sobre o tempo. Os dois últimos modelos mencionados possuem extensões para dados agrupados, utilizadas nas aplicações deste trabalho. Uma das principais motivações desta dissertação consiste em um estudo conduzido por pesquisadores da Fundação Pró-Sangue, em São Paulo - SP, cujo interesse reside em avaliar o tempo até a ocorrência de anemia em doadores de repetição por meio de avaliações periódicas do hematócrito, medido em cada visita ao hemocentro. A existência de uma parcela de doadores não suscetíveis à doença torna conveniente o uso dos modelos estudados. O segundo conjunto de dados analisado trata-se de um conjunto de observações periódicas de cervos de cauda branca equipados com rádiocolares. Tem-se como objetivo a avaliação do comportamento migratório dos animais no inverno para determinadas condições climáticas e geográficas, contemplando a possibilidade de os cervos não migrarem. Um estudo comparativo entre os modelos propostos é realizado por meio de simulações, a fim de avaliar a robustez ao assumir-se determinadas especificações de cenário e fração de cura. Até onde sabemos, nenhum trabalho comparando os diferentes mecanismos de cura na presença de censura intervalar foi realizado até o presente momento. / Cure rate models define an vast sub-area of the survival analysis, presenting great applicability in medical studies. The use of this type of model is suitable in situations such that the researcher recognizes the existence of an non-susceptible part of the population to the event of interest, considering then the probability that such a event does not occur. Although the theory finds itself consolidated when considering right censoring, the literature of cure rate models lacks of interval censoring studies, encouraging then the studies presented in this work. Three semiparametric cure rate models for this type of censoring are considered here for real data analysis and then studied by means of simulations. The first model, presented by Liu e Shen (2009), refers to a promotion time model with its estimation based on an EM algorithm variation and using convex optimization techniques for the maximization process. The model proposed by Lam et al. (2013) considers a Cox semiparametric model, modelling then the population cure fraction by an frailty distributed as an compound Poisson, used jointly with data augmentation methods and maximum likelihood estimators. In Xiang et al. (2011), an standard mixture cure rate model is proposed adopting an logistic model for explaining incidence and using proportional hazards structure for the effects over the time to event. The two last mentioned models have extensions for clustered data analysis and are used on the examples of applications of this work. One of the main motivations of this dissertation consists on a study conducted by researches of Fundação Pró-Sangue, in São Paulo - SP, whose interest resides on evaluating the time until anaemia, occurring to recurrent donors, detected through periodic evaluations of the hematocrit, measured on each visit to the blood center. The existence of a non-susceptible portion of donors turns the use of the cure rate models convenient. The second analysed dataset consists on an set of periodic observations of radio collar equipped white tail deers. The goal here is the evaluation of when these animals migrate in the winter for specic weather and geographic conditions, contemplating the possibility that deer could not migrate. A comparative study among the proposed models is realized using simulations, in order to assess the robustness when assuming determined specifications about scenario and cure fraction. As far as we know, no work has been done comparing different cure mechanisms in the presence of interval censoring data until the present moment.
100

Metanálise caso a caso sob a perspectiva bayesiana / Meta-analysis case by case using Bayesian approach

Camila Bertini Martins 29 November 2013 (has links)
O papel da metanálise de sumarizar estudos publicados de mesmo objetivo, por meio da estatística, torna-se cada dia mais fundamental em razão do avanço da ciência e do desejo de usar o menor número de seres humanos em ensaios clínicos, desnecessários, em vários casos. A síntese das informações disponíveis facilita o entendimento e possibilita conclusões robustas. O aumento de estudos clínicos, por exemplo, promove um crescimento da necessidade de metanálises, fazendo com que seja necessário o desenvolvimento de técnicas sofisticadas. Desse modo, o objetivo deste trabalho foi propor uma metodologia bayesiana para a realização de metanálises. O procedimento proposto consiste na mistura das distribuições a posteriori do parâmetro de interesse de cada estudo pertencente à metanálise; ou seja, a medida metanalítica proposta foi uma distribuição de probabilidade e não uma simples medida-resumo. A metodologia apresentada pode ser utilizada com qualquer distribuição a priori e qualquer função de verossimilhança. O cálculo da medida metanalítica pode ser utilizado, desde problemas simples até os mais sofisticados. Neste trabalho, foram apresentados exemplos envolvendo diferentes distribuições de probabilidade e dados de sobrevivência. Em casos, em que se há uma estatística suficiente disponível para o parâmetro em questão, a distribuição de probabilidade a posteriori depende dos dados apenas por meio dessa estatística e, assim, em muitos casos, há a redução de dimensão sem perda de informação. Para alguns cálculos, utilizou-se o método de simulação de Metropolis-Hastings. O software estatístico utilizado neste trabalho foi o R. / The meta-analysis role of using Statistics to summarize published studies that have the same goal becomes more essential day by day, due to the improvement of Science and the desire of using the least possible number of human beings in clinical trials, which in many cases is unnecessary. By match the available information it makes the understanding easier and it leads to more robust conclusions. For instance, the increase in the number of clinical researches also makes the need for meta-analysis go higher, arising the need for developing sophisticated techniques. Then our goal in this work is to propose a Bayesian methodology to conduct meta-analysis. The proposed procedure is a blend of posterior distributions from interest parameters of each work we are considering when doing meta-analysis. As a consequence, we have a probability distribution as a meta-analytic measure, rather than just a statistical summary. The methodology we are presenting can be used with any prior probability distribution and any likelihood function. The calculation of the meta-analytic measure has its uses from small to more complex problems. In this work we present some examples that consider various probability distributions and also survival data. There is a sufficient statistic available for the parameter of interest, the posterior probability distribution depends on the data only through this statistic and thus, in many cases, we can reduce our data without loss of information. Some calculations were performed through Metropolis-Hastings simulation algorithm. The statistical software used in this work was the R.

Page generated in 0.4617 seconds