• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 218
  • 4
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 223
  • 223
  • 154
  • 152
  • 56
  • 51
  • 49
  • 46
  • 45
  • 42
  • 41
  • 38
  • 38
  • 36
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Modelos estatísticos para suporte a avaliação cirúrgica em crianças portadoras de cardiopatias congênitas

Lopes, Marina Travassos 23 February 2017 (has links)
Submitted by Viviane Lima da Cunha (viviane@biblioteca.ufpb.br) on 2017-07-06T13:03:15Z No. of bitstreams: 1 arquivototal.pdf: 2397887 bytes, checksum: 02b09da7c8ccdfb1dbbf31dd43c59ee8 (MD5) / Made available in DSpace on 2017-07-06T13:03:15Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 2397887 bytes, checksum: 02b09da7c8ccdfb1dbbf31dd43c59ee8 (MD5) Previous issue date: 2017-02-23 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Heart diseases are responsible for more deaths in the first year of life than any other congenital problem in Brazil, affecting 8 to 10 children per 1000 live births. There are several types of heart diseases, some heal with time others require surgery. Evaluating the characteristics of the surgeries, it is possible to obtain the probability of the occurrence of postoperative complications and the estimation of the length of stay in the ICU (Intensive Care Unit) that varies according to the typology of this occurrence and the patient health condition. In this sense, the use of statistical models can help to optimize the care of patients in unfavorable clinical conditions. The aim of this study is to develop a tool based on statistical models to assist decision making about the chronological order of the surgeries to be performed. The data from this study came from the charts of the children destined to the execution of the surgery of congenital heart disease in the reference center that composes the Pediatric Cardiology Network PE-PB in the State of Paraíba. A logistic regression model was used to estimate the probability of occurrence of postoperative complications and survival analysis techniques to detect differences between the influence of determining factors on the length of ICU stay after the surgery. All data were analyzed in statistical software R, version 3.2.0. A total of 130 children were included, which 86.15% being below 10 years of age and weighing between 5 and 25 kg. Of the 72 children who presented post-surgical complications, 22.3% presented shunt-type cardiopathy, and 10% had Patent Ductus Arteriosus, followed by 9.2% with Tetralogy of Fallot. The risk factors identified by logistic regression as more associated with the outcome "developing post-surgical complications" were: high risk score (OR = 12.9; p-value = 0.02), presence of acyanotic obstructive heart disease (OR = 12.5, p-value = 0.006), the aortic clamping time during surgery greater than 20 minutes (OR = 3.3; p-value = 0.01), the time of extubation during the surgery (OR = 1.1, p-value = 0.07), presence of pulmonary arterial hypertension (OR = 6.7, p-value = 0.09) and age less than 6 months (OR = 3, 6; p-value = 0.05). In the survival analysis, it was possible to verify that there are statistically significant differences in length of ICU stay between children less than 6 months and older children; Also among children who presented high surgical risk and those who did not present; And among children where there is presence or absence of pulmonary arterial hypertension, in which the presence of some of these characteristics implies a greater probability of permanence for a certain time in the ICU. Also through the survival analysis, it was possible to observe that besides the factors identified through the logistic regression, the occurrence of postoperative infection in children also entails a longer hospitalization time after the surgery. Both techniques analyzed together, were able to build estimates for a certain hospital stay in cases of occurrence or not of postoperative complications, bringing support to hospital planning decisions, resulting in the optimization of the rotation of the available beds, in addition to the suggestion of chronological order of the queue of the next surgeries of congenital cardiopathy to be performed. / As cardiopatias são responsáveis por mais mortes no primeiro ano de vida do que qualquer outro problema congênito no Brasil, acometendo de 8 a 10 crianças a cada 1000 nascidos vivos. Existem diversos tipos de cardiopatia, algumas curam com o tempo, outras requerem intervenções cirúrgicas. Avaliando as características das cirurgias, é possível obter a probabilidade da ocorrência de complicações pós-cirúrgicas, e a estimativa do tempo de internamento em UTI que varia de acordo com a tipologia dessa ocorrência e com o perfil clínico do paciente. Neste sentido, a utilização de modelos estatísticos, pode auxiliar a otimização do cuidado a pacientes em condições clínicas desfavoráveis, sendo a proposta deste estudo, desenvolver uma ferramenta baseada em modelos estatísticos para auxiliar à tomada de decisões acerca da ordem cronológica das cirurgias a serem executadas. Os dados desse estudo provieram dos prontuários das crianças destinadas à execução da cirurgia de cardiopatia congênita no centro de referência que compõe a Rede de Cardiologia Pediátrica PE-PB no Estado da Paraíba. O modelo de regressão logística foi utilizado para estimar a probabilidade de ocorrência de complicações pós-cirúrgicas e as técnicas de análise de sobrevivência, para detectar diferenças entre a influência de fatores determinantes sobre os tempos de internamento em Unidades de Terapia Intensiva após a realização das cirurgias. Todos os dados foram analisados no software estatístico R, versão 3.2.0. Foram incluídas 130 crianças, sendo 86,15% com idade inferior a 10 anos de idade e peso se concentrando entre 5 e 25 quilos. Das 72 crianças que apresentaram complicações pós-cirúrgicas, 22,3% apresentaram a cardiopatia do tipo shunt, e no tocante ao diagnóstico, observou-se que 10% eram portadores de Persistência do Canal Arterial, seguido de 9,2% portadores de Tetralogia de Fallot. Os fatores de risco identificados pela regressão logística como mais associados com o desfecho “desenvolver complicações pós-cirúrgicas” foram: apresentar escore de risco alto (OR=12,9; p-valor=0,02), a presença de cardiopatia acianótica obstrutiva (OR=12,5; p-valor=0,006), o tempo de clampeamento aórtico durante a cirurgia ser superior a 20 minutos (OR=3,3; p-valor=0,01), o tempo de extubação durante a realização da cirurgia (OR=1,1; p-valor=0,07), a presença de hipertensão arterial pulmonar (OR=6,7; p-valor=0,09) e idade inferior a 6 meses (OR=3,6; p-valor=0,05). Na análise de sobrevivência, foi possível constatar que existem diferenças estatisticamente significativas sobre o tempo de internamento em UTI entre as crianças com menos de 6 meses de idade e as crianças com idade superior; também entre as crianças que apresentaram alto risco cirúrgico e as que não apresentaram; e entre as crianças onde há presença ou ausência de hipertensão arterial pulmonar, em que a presença de alguma(s) dessas características implica em maiores probabilidades de permanência por um determinado tempo em UTI. Ainda através da análise de sobrevivência, foi possível observar que além dos fatores identificados através da regressão logística, a ocorrência de infecção pós-operatória nas crianças também acarreta maior tempo de internamento após a cirurgia. Ambas as técnicas analisadas conjuntamente, foram capazes de construir estimativas para um determinado tempo de internamento hospitalar em casos de ocorrência ou não de complicações pós-cirúrgicas, trazendo apoio às decisões do planejamento hospitalar, resultando na otimização da rotatividade dos leitos disponíveis, além da sugestão de ordenação cronológica da fila de espera das próximas cirurgias de cardiopatia congênita a serem executadas.
122

Comparação de modelos com censura intervalar em análise de sobrevivência / Comparison of interval-censored models in survival analysis

Elizabeth Strapasson 20 April 2007 (has links)
Censura intervalar resulta quando os tempos de sobrevivência não são exatamente conhecidos, sabe-se apenas que eles ocorreram dentro de um intervalo. Dados de sobrevivência agrupados são casos particulares de censura intervalar quando os indivíduos são avaliados nos mesmos intervalos de tempo, ocasionando um grande número de empates. Um procedimento comum para a análise desse tipo de dados é ignorar a natureza de censura intervalar dos dados, ou seja, tratar a variável aleatória tempo como contínua e assumir que o evento ocorreu no início, no ponto médio ou no final do intervalo e, então, usar um método padrão de análise de sobrevivência. Neste estudo, simulações de Monte Carlo, com o modelo de Weibull, foram realizadas para comparar esses três procedimentos e um método novo proposto que é uma combinação desses três métodos e é orientado pela observação do histograma do tempo versus a freqüência de cada intervalo para a decisão de qual valor a ser usado. Considera-se também a análise dos dados como censura intervalar. Os resultados mostram que analisar os dados exatamente como censura intervalar é a forma correta. Entretanto, quando a taxa de falha aumenta o ponto médio poderia ser usado. A natureza discreta dos tempos de falha deve ser reconhecida quando existe um grande número de empates. Métodos de regressão para tratar dados agrupados são apresentados por Lawless (2003) e Collett (2003), cuja estrutura é especificada em termos da probabilidade de um indivíduo falhar em um intervalo, condicionada à sua sobrevivência ao intervalo anterior. Os modelos considerados na literatura são o de riscos proporcionais de Cox ou o logístico. O modelo de Weibull é proposto, neste trabalho, como uma alternativa ao modelo de Cox para ajustar dados de sobrevivência com censura intervalar no contexto de modelos discretos. Através de simulações foram construídas as estatísticas da razão de verossimilhança e do teste escore para a discriminação entre esses dois modelos. Para ilustrar as simulações duas aplicações em dados agronômicos foram utilizadas. / Interval-censored results when survival times are not exactly known, knowing only that they occur in an interval. Grouped survival data are particular cases of intervalcensored when individuals are evaluated in the same time-intervals, causing a great number of ties. A common procedure for the analysis this type of data is to ignore the nature of interval-censored data, or rather, treat the random variable time as continuous, and assume that the event occurred in the beginning, midpoint or interval end, and then use a standard method of survival analysis. In this study, Monte Carlo simulations according to Weibull model, were performed in order to compare these three procedures and a new method proposed which is a combination of the three, and is directed by the observation of time histogram versus each interval frequency in order to decide which value be used. Interval-censored data is also considered. The results show that to analyse the data exactly as interval-censored is the correct form. However, when the failure rate increase the midpoint could be used. The discrete nature of failure time must be recognized when there are a great number of ties. Regression methods to treat grouped data are presented by Lawless (2003) and Collett (2003), whose structure is specified in terms of the probability of an individual failing in an interval, conditioned to his survival to previous interval. The models considered in literature are either those of Cox proportional hazards or the logistic one. Weibull model is proposed in this study as an alternative to Cox model in order to adjust survival data with interval-censored in the context of discrete models. Through simulations were built the statistics of ratio likelihood and score test to distinguish between these two models. To illustrate the simulations two applications in agronomy data were used.
123

Caracterização e extensões da distribuição Burr XII: propriedades e aplicações / Characterization and extensions of the Burr XII distribution: Properties and Applications

Patrícia Ferreira Paranaíba 21 September 2012 (has links)
A distribuição Burr XII (BXII) possui, como casos particulares, as distribuições normal, log-normal, gama, logística, valor extremo tipo I, entre outras. Por essa razão, ela é considerada uma distribuição flexível no ajuste dos dados. As ideias de Eugene; Lee e Famoye (2002) e Cordeiro e Castro (2011) foram utilizadas para o desenvolvimento de duas novas distribuições de probabilidade a partir da distribuição BXII. Uma delas é denominada beta Burr XII (BBXII) e possui cinco parâmetros. Desenvolveu-se o modelo de regressão log-beta Burr XII (LBBXII). A outra distribuição é denominada de Kumaraswamy Burr XII (KwBXII) e possui cinco parâmetros. A vantagem desses novos modelos reside na capacidade de acomodar várias formas da função risco, além disso, eles também se mostraram úteis na discriminação de modelos. Para cada um dos modelos foram calculados os momentos, função geradora de momentos, os desvios médios, a confiabilidade e a função densidade de probabilidade da estatística de ordem. Foi realizado um estudo de simulação para avaliar o desempenho desses modelos. Para a estimação dos parâmetros, foram utilizados os métodos de máxima verossimilhança e bayesiano e, finalmente, para ilustrar a aplicação das novas distribuições foram analisados alguns conjuntos de dados reais. / The Burr XII (BXII) distribution has as particular cases the normal, lognormal, gamma, logistic and extreme-value type I distributions, among others. For this reason, it is considered a flexible distribution for fitting data. In this paper, the ideas of Eugene; Lee e Famoye (2002) and Cordeiro and Castro (2011) is used to develop two new probability distributions based on the BBXII distribution. The first is called beta Burr XII (BBXII) and has five parameters. Based in these, we develop the extended generalized log-beta Burr XII regression model. The other distribution is called Kumaraswamy Burr XII (KwBXII) and has five parameters. The advantage of these new models rests in their capacity to accommodate various risk function forms. They are also useful in model discrimination. We calculate the moments, moments generating function, mean deviations, reliability and probability density function of the order statistics. A simulation study was conducted to evaluate the performance of these models. To estimate the parameters we use the maximum likelihood and Bayesian methods. Finally, to illustrate the application of the new distributions, we analyze some real data sets.
124

Uma abordagem Bayesiana para análise de sobrevivência de clones de eucaliptos no pólo gesseiro do Araripe-PE

SILVA, Dâmocles Aurélio Nascimento da 24 February 2006 (has links)
Submitted by (ana.araujo@ufrpe.br) on 2016-06-28T13:38:54Z No. of bitstreams: 1 Damocles Aurelio Nascimento da Silva.pdf: 694209 bytes, checksum: 1f6f75597b9348c94d982a8d8a612c8e (MD5) / Made available in DSpace on 2016-06-28T13:38:54Z (GMT). No. of bitstreams: 1 Damocles Aurelio Nascimento da Silva.pdf: 694209 bytes, checksum: 1f6f75597b9348c94d982a8d8a612c8e (MD5) Previous issue date: 2006-02-24 / Aiming at to contribute, as alternative to minimize the resources of impacts,mainly, for the search of combustible material to take care of the energy demand of the Brazilian half-barren region, we use the techniques of analysis of survival for understanding of a forest of eucalyptus to the long one of the time, and with this to ration the use wooden as combustible for ceramics, bakeries and existing calcinatory of plaster in region. The data given proceeding from a transversal study of 1500 cells of eucalyptus, divided in 4 stratus, taking as base the period of 03/2002 to 09/2004. The graph of probability was used initially for, being based on the test of Anderson-Darling, takes the decision of which function of probability would use in such a way in the classic study as in the Bayesian boarding. A time taken to the decision of choice of the probability distribution, we use the method of Kaplan-Meier and the Actuarial method (life table) to determine the estimates of the parameters and the test distribution free log-rank to test if the curves of the function of probability differed between categories from one same one variable. We used this test to the level of significance of 5%. For these analyses, it was used statistical software Minitab 13 version and statistical package SAS.In the Bayesian boarding was used method Carlo the Mount Chain of Markov (MCMC) for estimate of parameters, using as priori the distribution gamma,found in literature as the distribution that more good was adjusted for biological data and as function of density, used it of the Weibull distribution, chosen as of the better adjustment to the data according to test of Anderson-darling. For thisanalysis software Winbugs 1.4 was used. The results how much to the analysis of the parameters they had indicated that the joined estimates had been closed, same using distinct methods of estimation. As much was concluded that the best distribution to analyze the population in question is the Weibull, according to test of Anderson-Darling and as method for estimation of the parameters of the distribution, the classic method,how much the Bayesian method, reveals good estimators, verified for the amplitude of the intervals reliable 95%. In face of the results, we conclude that if it must have one better control of the eucalyptus, in first the six months of the plantation. / Visando contribuir, como alternativa para minimizar os impactos antrópicos de caracter negativo causado, principalmente, pela busca de material combustível para atender a demanda energética da região semi-árida brasileira, utilizamos as técnicas de análise de sobrevivência para compreensão do comportamento de uma floresta de eucaliptos ao longo do tempo, e com isto racionar o uso de madeira como combustível por cerâmicas, padarias, casas de farinha e calcinadoras de gesso existentes na região. Usaremos dados provenientes de um estudo transversal de 1500 células de eucaliptos, dividido em 4 estratos, tomando como base o período de 03/2002 a 09/2004.Utilizou-se inicialmente o gráfico de probabilidade para, baseado no teste de Anderson-Darling, tomarmos a decisão de qual função de probabilidade utilizaríamos tanto no estudo clássico como na abordagem bayesiana. Uma vez tomada a decisão de escolha da distribuição de probabilidade, utilizamos o método de Kaplan-Meier e o método Atuarial (tábua de vida) para estimativa dos parâmetros e o teste não paramétrico log-rank para testar se as curvas da função de probabilidade diferiam entre categorias de uma mesma variável. Utilizamos esse teste ao nível de significância de 0,05. Para essas análises, foi utilizado o software estatístico Minitab versão 13 e o pacote estatístico SAS.Na abordagem bayesiana utilizou-se a o método de Monte Carlo Cadeia de Markov (MCMC) para estimativa dos parâmetros, utilizando como priori a distribuição gamma, encontrada na literatura como a distribuição que melhor adequa-se para dados biológicos e como função de densidade, utilizou-se a da distribuição Weibull, escolhida como a de melhor ajuste as dados segundo o teste de Anderson-Darling. Para essa análise foi utilizado o Winbugs 1.4.Os resultados quanto a análise dos parâmetros indicaram que as estimativas encontradas foram próxima, mesmo utilizando métodos de estimação distintos. Conclui-se que a melhor distribuição para analisar a população em questão é a Weibull, segundo o teste de Anderson-Darling e como método para estimação dos parâmetros da distribuição, tanto o método clássico, quanto o método bayesiano, mostram-se bons estimadores, verificado pela amplitude dos intervalos de confiança a 95%. Em face dos resultados, concluímos que deve-seter um melhor controle dos eucaliptos, nos primeiros 6 meses de plantio.
125

Análise de sobrevivência: uma visão de risco comportamental na utilização de cartão de crédito

FERREIRA, Joanne Medeiros 30 March 2007 (has links)
Submitted by (ana.araujo@ufrpe.br) on 2016-07-06T18:43:41Z No. of bitstreams: 1 Joanne Medeiros Ferreira.pdf: 461109 bytes, checksum: 7e0630c612cd2bf45e62ee0e52183ac4 (MD5) / Made available in DSpace on 2016-07-06T18:43:41Z (GMT). No. of bitstreams: 1 Joanne Medeiros Ferreira.pdf: 461109 bytes, checksum: 7e0630c612cd2bf45e62ee0e52183ac4 (MD5) Previous issue date: 2007-03-30 / Through the use of statistical techniques, this paper aims to present the behavior of credit card consumers, as well as to add value to the process of strategical marketing in a financial institution. For doing so, we present methodologies based on the techniques of logistical regression and survival analysis. Such tools are capable of foreseeing the behavior of customers, and thus focus on certain strategies in order to place resources that may hinder their migration to other financial institutions. The use of survival analysis methods makes it possible to analyze which variant presents evidence of customer migration; the logistical regression technique will be used in order to compare and validate the models hereby proposed, besides showing whether there are other variants that also demonstrate the closing of credit card accounts by the customers. / Este trabalho visa, através de técnicas estatísticas, apresentar metodologicamente o comportamento dos consumidores do produto cartão de crédito e agregar valor ao processo de marketing estratégico de uma instituição financeira. Apresentam-se metodologias, baseadas em técnicas como analise de sobrevivência e regressão logísticas. Estas ferramentas são capazes de prever o comportamento de clientes e assim focar estratégias de modo a alocar recursos para impedir a migração dos mesmos para instituições concorrentes. Com a técnica de Analise de Sobrevivência clássica será possível analisar o tempo de vida da conta cartão e as variáveis que apresentam indícios de migração para concorrência e com a técnica de regressão logística será feita uma comparação afim de validação do modelo, além de mostrar se existem outras variáveis que também demonstram o encerramento do produto cartão por parte do cliente.
126

Classe de distribuições de Marshall-Olkin generalizada exponenciada.

BARROS, Kleber Napoleão Nunes de Oliveira 19 December 2014 (has links)
Submitted by (ana.araujo@ufrpe.br) on 2016-07-07T16:42:12Z No. of bitstreams: 1 Kleber Napoleao Nunes de Oliveira Barros.pdf: 1733769 bytes, checksum: 3f25ee9412d02841f417127da8b2b257 (MD5) / Made available in DSpace on 2016-07-07T16:42:13Z (GMT). No. of bitstreams: 1 Kleber Napoleao Nunes de Oliveira Barros.pdf: 1733769 bytes, checksum: 3f25ee9412d02841f417127da8b2b257 (MD5) Previous issue date: 2014-12-19 / This work generalizes the family of Marshall-Olkin distributions by adding parameters, making it a new more exible class, creating the new Generalized Exponentialized Marshall-Olkin Weibull distribution (GEMOW). Its probability density function and the associated risk function were studied with promising results. We found some quantities such as moments, moment generating function, quantile function and median, as well Bonferroni and Lorenz curves, for the proposed distribution. We drawed a simulation and we employed the bootstrap resampling procedure for the standard errors of the estimators of the model parameters. We applied the new distribution to magnitudes earthquakes dataset from Fiji archipelago, glass ber resistance dataset to the proposed model, sub-models and competitors distributions. Also it was obtained a regression model for censored data that was applied to data from a study of AIDS, and a Bayesian model implemented for carbon bre data. Comparing with the others distributions, the results demonstrate that GEMOW has superior t to the applied dataset. / O presente trabalho generaliza a famí lia de distribui ções Marshall-Olkin pela adi ção de parâmetros, tornando-a uma nova classe mais flexível, criando-se a nova distribui ção Marshall-Olkin Generalizada Exponenciada Weibull (MOGEW). Foi estudado o comportamento da fun ção densidade de probabilidade MOGEW e sua respectiva fun ção de risco com resultados promissores. Encontrou-se algumas quantidades tais como fun ção geradora de momentos, fun ção quantí lica e mediana, al ém das curvas de Bonferroni e Lorenz, para a distribui ção proposta. Obteve-se uma simula ção e utilizou-se o m étodo de reamostragem bootstrap para obter os erros padrão dos estimadores dos parâmetros do modelo. Para aplica ção foram utilizados dados de magnitudes de abalos s ísmicos pr óximos ao arquipélago de Fiji, dados de resistência de fi bras de vidro ajustando o modelo proposto, submodelos e distribui ções concorrentes. Tamb ém se obteve um modelo de regressão para dados censurados que foi aplicado a dados de um estudo sobre AIDS e um modelo Bayesiano para dados de quebra de fi bras de carbono. Os resultados mostraram que a distribui ção apresenta ajuste superior, em compara ção as distribui ções concorrentes, para os conjuntos de dados aplicados.
127

Ensaios sobre risco de crédito e liquidez: transição de estado em corrida bancária e inadimplência / Essays on credit risk and liquidity: phase transitions in bank run and default

Toni Ricardo Eugenio dos Santos 31 August 2015 (has links)
Nesta tese se estudam as duas pontas da atividade bancária. A relacionada com os depositantes e a relacionada com empréstimos e financiamentos. A ligação subjacente entre os artigos é o estudo da mudança de fases. Do lado do depósito o foco está no estudo de corridas bancárias. Explica-se o acontecimento de corridas bancárias pela decisão do depositante de retirar dinheiro prematuramente pelo medo do banco não ter recursos para honrar o contrato. Utiliza-se um modelo de simulação baseado em agentes para avaliar o comportamento dos depositantes sob diversos cenários. Ao impor regras simples, as simulações mostram que, no longo prazo, corridas por boatos tendem a zero conforme os bancos aumentam de tamanho e o mercado fica concentrado. Na outra ponta, a do crédito, se mediu o tempo que demora até uma operação de crédito se tornar inadimplente através de modelos de sobrevivência. Três modalidades de crédito são estudadas: financiamento de capital de giro para pessoas jurídicas e financiamento de veículos e empréstimo pessoal não consignado para pessoas físicas. Os resultados mostram claramente que o comportamento de cada modalidade de crédito é único. Além disso, a qualidade dos empréstimos concedidos durante a recessão causada pela crise de 2008 não é diferente da de outros períodos. A mudança na política de preços dos bancos públicos fez a qualidade do crédito do capital de giro piorar nestas instituições. O Banco Central do Brasil aumenta os fatores de ponderação de risco para novos empréstimos de automóvel mais arriscados. Porém, a decisão não afetou os financiamentos alvo / This thesis studies two main activities of banking. Deposit taking and lending. The theme that links the different chapters in the thesis is the study of phase transitions. On the deposit end it simulates bank runs by using an agent based approach to assess the depositors behavior under various scenarios. Simulations show that in the long run the number of bank runs goes to zero as banks grow and the market concentration increases. At the credit side, it measures the time it takes for a credit operation to become delinquent through the methodology of survival analysis. Three different loan operations are studied: working capital finance for companies and automobile financing and personal loans for individuals. The results clearly show that the behavior of each single type of credit is unique. Moreover, the quality of loans granted during the recession caused by the 2008 crisis isn\'t different from those granted in others periods. The change in the price policy of public banks makes the quality worse of working capital loans in those financial institutions. Banco Central do Brasil raises the risk weight factors to riskier new auto loans in 2010. However, the decision doesn\'t influence the targeted loans.
128

Modelos semiparamétricos de fração de cura para dados com censura intervalar / Semiparametric cure rate models for interval censored data

Julio Cezar Brettas da Costa 18 February 2016 (has links)
Modelos de fração de cura compõem uma vasta subárea da análise de sobrevivência, apresentando grande aplicabilidade em estudos médicos. O uso deste tipo de modelo é adequado em situações tais que o pesquisador reconhece a existência de uma parcela da população não suscetível ao evento de interesse, consequentemente considerando a probabilidade de que o evento não ocorra. Embora a teoria encontre-se consolidada tratando-se de censuras à direita, a literatura de modelos de fração de cura carece de estudos que contemplem a estrutura de censura intervalar, incentivando os estudos apresentados neste trabalho. Três modelos semiparamétricos de fração de cura para este tipo de censura são aqui considerados para aplicações em conjuntos de dados reais e estudados por meio de simulações. O primeiro modelo, apresentado por Liu e Shen (2009), trata-se de um modelo de tempo de promoção com estimação baseada em uma variação do algoritmo EM e faz uso de técnicas de otimização convexa em seu processo de maximização. O modelo proposto por Lam et al. (2013) considera um modelo semiparamétrico de Cox, modelando a fração de cura da população através de um efeito aleatório com distribuição Poisson composta, utilizando métodos de aumento de dados em conjunto com estimadores de máxima verossimilhança. Em Xiang et al. (2011), um modelo de mistura padrão é proposto adotando um modelo logístico para explicar a incidência e fazendo uso da estrutura de riscos proporcionais para os efeitos sobre o tempo. Os dois últimos modelos mencionados possuem extensões para dados agrupados, utilizadas nas aplicações deste trabalho. Uma das principais motivações desta dissertação consiste em um estudo conduzido por pesquisadores da Fundação Pró-Sangue, em São Paulo - SP, cujo interesse reside em avaliar o tempo até a ocorrência de anemia em doadores de repetição por meio de avaliações periódicas do hematócrito, medido em cada visita ao hemocentro. A existência de uma parcela de doadores não suscetíveis à doença torna conveniente o uso dos modelos estudados. O segundo conjunto de dados analisado trata-se de um conjunto de observações periódicas de cervos de cauda branca equipados com rádiocolares. Tem-se como objetivo a avaliação do comportamento migratório dos animais no inverno para determinadas condições climáticas e geográficas, contemplando a possibilidade de os cervos não migrarem. Um estudo comparativo entre os modelos propostos é realizado por meio de simulações, a fim de avaliar a robustez ao assumir-se determinadas especificações de cenário e fração de cura. Até onde sabemos, nenhum trabalho comparando os diferentes mecanismos de cura na presença de censura intervalar foi realizado até o presente momento. / Cure rate models define an vast sub-area of the survival analysis, presenting great applicability in medical studies. The use of this type of model is suitable in situations such that the researcher recognizes the existence of an non-susceptible part of the population to the event of interest, considering then the probability that such a event does not occur. Although the theory finds itself consolidated when considering right censoring, the literature of cure rate models lacks of interval censoring studies, encouraging then the studies presented in this work. Three semiparametric cure rate models for this type of censoring are considered here for real data analysis and then studied by means of simulations. The first model, presented by Liu e Shen (2009), refers to a promotion time model with its estimation based on an EM algorithm variation and using convex optimization techniques for the maximization process. The model proposed by Lam et al. (2013) considers a Cox semiparametric model, modelling then the population cure fraction by an frailty distributed as an compound Poisson, used jointly with data augmentation methods and maximum likelihood estimators. In Xiang et al. (2011), an standard mixture cure rate model is proposed adopting an logistic model for explaining incidence and using proportional hazards structure for the effects over the time to event. The two last mentioned models have extensions for clustered data analysis and are used on the examples of applications of this work. One of the main motivations of this dissertation consists on a study conducted by researches of Fundação Pró-Sangue, in São Paulo - SP, whose interest resides on evaluating the time until anaemia, occurring to recurrent donors, detected through periodic evaluations of the hematocrit, measured on each visit to the blood center. The existence of a non-susceptible portion of donors turns the use of the cure rate models convenient. The second analysed dataset consists on an set of periodic observations of radio collar equipped white tail deers. The goal here is the evaluation of when these animals migrate in the winter for specic weather and geographic conditions, contemplating the possibility that deer could not migrate. A comparative study among the proposed models is realized using simulations, in order to assess the robustness when assuming determined specifications about scenario and cure fraction. As far as we know, no work has been done comparing different cure mechanisms in the presence of interval censoring data until the present moment.
129

Estimação e comparação de curvas de sobrevivência sob censura informativa. / Estimation and comparison of survival curves with informative censoring.

Raony Cassab Castro Cesar 10 July 2013 (has links)
A principal motivação desta dissertação é um estudo realizado pelo Instituto do Câncer do Estado de São Paulo (ICESP), envolvendo oitocentos e oito pacientes com câncer em estado avançado. Cada paciente foi acompanhado a partir da primeira admissão em uma unidade de terapia intensiva (UTI) pelo motivo de câncer, por um período de no máximo dois anos. O principal objetivo do estudo é avaliar o tempo de sobrevivência e a qualidade de vida desses pacientes através do uso de um tempo ajustado pela qualidade de vida (TAQV). Segundo Gelber et al. (1989), a combinação dessas duas informações, denominada TAQV, induz a um esquema de censura informativa; consequentemente, os métodos tradicionais de análise para dados censurados, tais como o estimador de Kaplan-Meier (Kaplan e Meier, 1958) e o teste de log-rank (Peto e Peto, 1972), tornam-se inapropriados. Visando sanar essa deficiência, Zhao e Tsiatis (1997) e Zhao e Tsiatis (1999) propuseram novos estimadores para a função de sobrevivência e, em Zhao e Tsiatis (2001), foi desenvolvido um teste análogo ao teste log-rank para comparar duas funções de sobrevivência. Todos os métodos considerados levam em conta a ocorrência de censura informativa. Neste trabalho avaliamos criticamente esses métodos, aplicando-os para estimar e testar curvas de sobrevivência associadas ao TAQV no estudo do ICESP. Por fim, utilizamos um método empírico, baseado na técnica de reamostragem bootstrap, a m de propor uma generalização do teste de Zhao e Tsiatis para mais do que dois grupos. / The motivation for this research is related to a study undertaken at the Cancer Institute at São Paulo (ICESP), which comprises the follow up of eight hundred and eight patients with advanced cancer. The patients are followed up from the first admission to the intensive care unit (ICU) for a period up to two years. The main objective is to evaluate the quality-adjusted lifetime (QAL). According to Gelber et al. (1989), the combination of both this information leads to informative censoring; therefore, traditional methods of survival analisys, such as the Kaplan-Meier estimator (Kaplan and Meier, 1958) and log-rank test (Peto and Peto, 1972) become inappropriate. For these reasons, Zhao and Tsiatis (1997) and Zhao and Tsiatis (1999) proposed new estimators for the survival function, and Zhao and Tsiatis (2001) developed a test similar to the log-rank test to compare two survival functions. In this dissertation we critically evaluate and summarize these methods, and employ then in the estimation and hypotheses testing to compare survival curves derived for QAL, the proposed methods to estimate and test survival functions under informative censoring. We also propose a empirical method, based on the bootstrap resampling method, to compare more than two groups, extending the proposed test by Zhao and Tsiatis.
130

Uma modelagem estatística aplicada ao controle biológico da praga que ataca a cultura do algodão / An statistical model applied to the biological control of the pest that attacks the cotton crop

Abraão de Paula Taveira 02 October 2017 (has links)
As distribuições de probabilidade gama, normal inversa, Weibull, log-normal e exponencial são uma boa alternativa para modelar observações associadas ao tempo, pois, em geral, a variável tempo possui assimetria à esquerda ou à direita, o que caracteriza as distribuições citadas anteriormente. O objetivo deste trabalho constitui-se em avaliar o comportamento dos predadores, Euborellia annulipes (\"Tesourinha\") e Harmonia axyridis (\"Joaninha\"), em relação à praga conhecida como Aphis gossypii (\"Pulgão\"). Outra pretensão deste trabalho é a aplicação da modelagem estatística, dando ênfase as técnicas dos modelos lineares generalizados e análise de sobrevivência, as quais foram aplicadas aos dados provenientes de um experimento, instalado no Laboratório de Ecologia de Insetos da Escola Superior de Agricultura \"Luiz de Queiroz\" (ESALQ). O experimento foi composto por 21 repetições, sendo cada repetição efetuada por meio de uma placa de Petri medido 60 X 15 mm. Em cada placa foi liberado um pulgão adulto áptero na parte central, tendo três pesquisadores responsáveis por observar a varável definida como tempo de ataque. Inicialmente, foram ajustados os modelos com distribuição gama e diferentes funções de ligação, e o modelo com a distribuição normal inversa com função de ligação canônica. Esses modelos foram ajustados aos dados desconsiderando as censuras, em que por meio do gráfico half-normal plot e testes de hipóteses, verificou que o modelo com a distribuição normal inversa com função de ligação canônica, apresentou o melhor ajuste. Posteriormente, foram ajustados os modelos exponencial, Weibull e log-normal para os dados considerando as censuras, os quais foram avaliados mediante o teste de razão de verossimilhança, sendo o modelo log-normal mais apropriado aos dados. / The probability density function of gamma, inverse normal, Weibull, log-normal and exponential distributions are good alternatives for modelling observations related with time, since, in general, the time variable has left or right asymmetry, which characterizes the distributions previously mentioned . The aim of this work is the application of statistical modeling, emphasizing the techniques of generalized linear models and survival analysis, which were applied to data from an experiment, installed in the Laboratory of Insect Ecology of the \"Luiz de Queiroz\" College of Agriculture (ESALQ), in which the goal of this experiment was to evaluate the behavior of predators, Euborellia annulipes (\"ring-legged earwig\") and Harmonia axyridis (\"Ladybird\"), in relation to the pest known as Aphis. The experiment was composed of 21 replicates, each replicate being done by means of a petri dish measured 60 X 15 mm. On each plate an adult aphid was released in the central part, with three researchers responsible. The model with distribution was used to determine the variance, which was defined as the attack time. Normal distribution with canonical link function. These models were adjusted to the data disregarding censorship, in which through the half-normal plot and hypothesis tests, verified that the model with the normal inverse distribution with canonical link function, presented the best fit. Subsequently, the exponential, Weibull and log-normal models were adjusted for the data considering the censorship, which were evaluated by the likelihood ratio test, the log-normal model being more appropriate to the data.

Page generated in 0.0985 seconds