• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 218
  • 4
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 223
  • 223
  • 154
  • 152
  • 56
  • 51
  • 49
  • 46
  • 45
  • 42
  • 41
  • 38
  • 38
  • 36
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Extensões de distribuições com aplicação à analise de sobrevivência / Extensions of distributions with application to survival analysis

Olmos, Yolanda Magaly Gómez 09 February 2017 (has links)
Nesta tese serão estudadas diferentes generalizações de algumas distribuições bem conhecidas na literatura para os tempos de vida, tais como exponencial, Lindley, Rayleigh e exponencial segmentada, entre outras, e compará-las com outras extensões com suporte positivo. A finalidade dessas generalizações é flexibilizar a função de risco de modo que possam assumir formas mais flexíveis. Além disso, pretende-se estudar propriedades importantes dos modelos propostos, tais como os momentos, coeficientes de curtose e assimetria e função quantílica, entre outras. A estimação dos parâmetros é abordada através dos métodos de máxima verossimilhança, via algoritmo EM (quando for possível) ou também, do método dos momentos. O comportamento desses estimadores foi avaliado em estudos de simulação. Foram ajustados a conjuntos de dados reais, usando uma abordagem clássica, e compará-los com outras extensões na literatura. Finalmente, um dos modelos propostos é considerado no contexto de fração de cura. / The main focus of this thesis is the study of generalizations for some positive distributions widely known in the literature of lifetime analysis, such as the exponential, Lindley, Rayleigh and segmented exponential. Comparisons of the proposed extensions and alternative extensions in the literature such as the generalized exponential distribution, are reported. Moreover, of interest is also the study of some properties of the proposed distributions such as moments, kurtosis and asymmetry coefficients, quantile functions and the risk function. Parameter estimation is approached via maximum likelihood (using the EM-algorithm when available) and the method of moments as initial parameter estimators. Results of simulation studies are reported comparing the performance of these estimators with small and moderate sample sizes. Further comparisons are reported for real data applications, where the proposed models show satisfactory performance. Finally, one of the models proposed is considered no context of cure rate.
42

Distribuições das classes Kumaraswamy generalizada e exponenciada: propriedades e aplicações / Distributions of the generalized Kumaraswamy and exponentiated classes: properties and applications

Braga Junior, Antonio Carlos Ricardo 04 April 2013 (has links)
Recentemente, Cordeiro e de Castro (2011) apresentaram uma classe generalizada baseada na distribuição Kumaraswamy (Kw-G). Essa classe de distribuições modela as formas de risco crescente, decrescente, unimodal e forma de U ou de banheira. Uma importante distribuição pertencente a essa classe é a distribuição Kumaraswamy Weibull modificada (KwMW) proposta por Cordeiro; Ortega e Silva (2013). Com isso foi utilizada essa distribuição para o desenvolvimento de algumas novas propriedades e análise bayesiana. Além disso, foi desenvolvida uma nova distribuição de probabilidade a partir da distribuição gama generalizada geométrica (GGG) que foi denominada de gama generalizada geométrica exponenciada (GGGE). Para a nova distribuição GGGE foram calculados os momentos, a função geradora de momentos, os desvios médios, a confiabilidade e as estatísticas de ordem. Desenvolveu-se o modelo de regressão log-gama generalizada geométrica exponenciada. Para a estimação dos parâmetros, foram utilizados os métodos de máxima verossimilhança e bayesiano e, finalmente, para ilustrar a aplicação da nova distribuição foi analisado um conjunto de dados reais. / Recently, Cordeiro and de Castro (2011) showed a generalized class based on the Kumaraswamy distribution (Kw-G). This class of models has crescent risk forms, decrescent, unimodal and U or bathtub form. An important distribution belonging to this class the Kumaraswamy modified Weibull distribution (KwMW), proposed by Cordeiro; Ortega e Silva (2013). Thus this distribution was used to develop some new properties and bayesian analysis. Furthermore, we develop a new probability distribution from the generalized gamma geometric distribution (GGG) which it is called generalized gamma geometric exponentiated (GGGE) distribution. For the new distribution we calculate the moments, moment generating function, mean deviation, reliability and order statistics. We define a log-generalized gamma geometric exponentiated regression model. The methods used to estimate the model parameters are: maximum likelihood and bayesian. Finally, we illustrate the potentiality of the new distribution by means of an application to a real data set.
43

Um estudo de métodos bayesianos para dados de sobrevivência com omissão nas covariáveis / A study of Bayesian methods for survival data with missing covariates.

Polli, Demerson Andre 14 March 2007 (has links)
O desenvolvimento de métodos para o tratamento de omissões nos dados é recente na estatística e tem sido alvo de muitas pesquisas. A presença de omissões em covariáveis é um problema comum na análise estatística e, em particular nos modelos de análise de sobrevivência, ocorrendo com freqüência em pesquisas clínicas, epidemiológicas e ambientais. Este trabalho apresenta propostas bayesianas para a análise de dados de sobrevivência com omissões nas covariáveis considerando modelos paramétricos da família Weibull e o modelo semi-paramétrico de Cox. Os métodos estudados foram avaliados tanto sob o enfoque paramétrico quanto o semiparamétrico considerando um conjunto de dados de portadores de insuficiência cardíaca. Além disso, é desenvolvido um estudo para avaliar o impacto de diferentes proporções de omissão. / The development of methods dealing with missing data is recent in Statistics and is the target of many researchers. The presence of missing values in the covariates is very common in statistical analysis and, in particular, in clinical, epidemiological and enviromental studies for survival data. This work considers a bayesian approach to analise data with missing covariates for parametric models in the Weibull family and for the Cox semiparametric model. The studied methods are evaluated for the parametric and semiparametric approaches considering a dataset of patients with heart insufficiency. Also, the impact of different omission proportions is assessed.
44

Imputação múltipla de dados faltantes: exemplo de aplicação no Estudo Pró-Saúde / Multiple imputation of missing data: application in the Pro-Saude Program

Thaís de Paulo Rangel 05 March 2013 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Dados faltantes são um problema comum em estudos epidemiológicos e, dependendo da forma como ocorrem, as estimativas dos parâmetros de interesse podem estar enviesadas. A literatura aponta algumas técnicas para se lidar com a questão, e, a imputação múltipla vem recebendo destaque nos últimos anos. Esta dissertação apresenta os resultados da utilização da imputação múltipla de dados no contexto do Estudo Pró-Saúde, um estudo longitudinal entre funcionários técnico-administrativos de uma universidade no Rio de Janeiro. No primeiro estudo, após simulação da ocorrência de dados faltantes, imputou-se a variável cor/raça das participantes, e aplicou-se um modelo de análise de sobrevivência previamente estabelecido, tendo como desfecho a história auto-relatada de miomas uterinos. Houve replicação do procedimento (100 vezes) para se determinar a distribuição dos coeficientes e erros-padrão das estimativas da variável de interesse. Apesar da natureza transversal dos dados aqui utilizados (informações da linha de base do Estudo Pró-Saúde, coletadas em 1999 e 2001), buscou-se resgatar a história do seguimento das participantes por meio de seus relatos, criando uma situação na qual a utilização do modelo de riscos proporcionais de Cox era possível. Nos cenários avaliados, a imputação demonstrou resultados satisfatórios, inclusive quando da avaliação de performance realizada. A técnica demonstrou um bom desempenho quando o mecanismo de ocorrência dos dados faltantes era do tipo MAR (Missing At Random) e o percentual de não-resposta era de 10%. Ao se imputar os dados e combinar as estimativas obtidas nos 10 bancos (m=10) gerados, o viés das estimativas era de 0,0011 para a categoria preta e 0,0015 para pardas, corroborando a eficiência da imputação neste cenário. Demais configurações também apresentaram resultados semelhantes. No segundo artigo, desenvolve-se um tutorial para aplicação da imputação múltipla em estudos epidemiológicos, que deverá facilitar a utilização da técnica por pesquisadores brasileiros ainda não familiarizados com o procedimento. São apresentados os passos básicos e decisões necessárias para se imputar um banco de dados, e um dos cenários utilizados no primeiro estudo é apresentado como exemplo de aplicação da técnica. Todas as análises foram conduzidas no programa estatístico R, versão 2.15 e os scripts utilizados são apresentados ao final do texto. / Missing data are a common problem in epidemiologic studies and depending on the way they occur, the resulting estimates may be biased. Literature shows several techniques to deal with this subject and multiple imputation has been receiving attention in the recent years. This dissertation presents the results of applying multiple imputation of missing data in the context of the Pro-Saude Study, a longitudinal study among civil servants at a university in Rio de Janeiro, Brazil. In the first paper, after simulation of missing data, the variable color/race of the female servants was imputed and analyzed through a previously established survival model, which had the self-reported history of uterine leiomyoma as the outcome. The process has been replicated a hundred times in order to determine the distribution of the coefficient and standard errors of the variable being imputed. Although the data presented were cross-sectionally collected (baseline data of the Pro-Saude Study, gathered in 1999 and 2001), the following of the servants were determined using self-reported information. In this scenario, the Cox proportional hazards model could be applied. In the situations created, imputation showed adequate results, including in the performance analyses. The technique had a satisfactory effectiveness when the missing mechanism was MAR (Missing At Random) and the percent of missing data was 10. Imputing the missing information and combining the estimates of the 10 resulting datasets produced a bias of 0,0011 to black women and 0,0015 to brown (mixed-race) women, what corroborates the efficiency of multiple imputation in this scenario. In the second paper, a tutorial was created to guide the application of multiple imputation in epidemiologic studies, which should facilitate the use of the technique by Brazilian researchers who are still not familiarized with the procedure. Basic steps and important decisions necessary to impute a dataset are presented and one of the scenarios of the first paper is used as an application example. All the analyses were performed at R statistical software, version 2.15 and the scripts are presented at the end of the text.
45

Modelos para dados grupados e sensurados aplicados à área biológica : comparação usando fator de Bayes /

Andrade, Sophia Lanza de. January 2015 (has links)
Orientador: Liciana Vaz de Arruda Silveira / Banca: Francisco Torres-Avilés / Banca: Rogério Antonio de Oliveira / Resumo: Dados grupados e um caso particular de dados de sobrevivência com censura intervalar, que ocorre quando as observações são avaliadas nos mesmos intervalos de tempo, e geralmente está associado a dados com grande número de empates, ou seja, quando a proporção de empates e maior que 25% (Chalita et al., 2002), e podem desta forma ser analisados considerando o tempo discreto e ajustando-se modelos a probabilidade do indivíduo falhar em um certo intervalo, dado que sobreviveu ao intervalo anterior (Lawless, 2002). Dentre os possíveis modelos adaptados a este tipo de dados, tem-se o Modelo Logístico e o Modelo de Cox. A comparação entre o ajuste destes dois modelos pode ser feita utilizando o teste escore proposto por Colosimo et al. (2000), Bootstrap não paramétrico ou Critérios de Informação de Akaike (AIC). Uma alternativa a estas téccnicas, do ponto de vista bayesiano, e a utilização do Fator de Bayes. O objetivo deste estudoé comparar o ajuste do Modelo Logístico com o do Modelo de Cox para dados grupados e censurados usando inicialmente critérios clássicos de seleção de modelos: o Critério de Informação de Akaike (AIC), o Critério de Informação de Akaike Corrigido (AICc) e o Critério de Informação Bayesiano (BIC). Posteriormente foi utilizado o Fator de Bayes, assim como o Critério de Informação Deviance (DIC) e adaptações dos critérios clássicos já citados, utilizando as amostras a posteriori geradas por um método MCMC. Como ilustração, foi usado um conjunto de dados referente a uma manifestação clínica da doença de Chagas, conhecida como megacólon chagásico (Almeida, 1996). / Abstract: Grouped data is a particular case of survival data with interval censoring, that occurs when the observations are evaluated at the same time intervals, and is generally associated at data with a large number of draws, or draws ratio more than 25% (Chalita et al., 2002). It can be analyzed considering discrete-time and tting models at the probability of an individual fails in a certain interval, given that survived the previous one (Lawless, 2002). Among the possible models adapted to this type of data we can mention the Logistic Model and the Cox's Model. The comparison between the t of these two models can be made using the score test proposed by Colosimo et al. (2000), nonparametric Bootstrap or the Akaike Information Criterion (AIC). An alternative to these techniques, from the Bayesian point of view, is the Bayes Factor. The purpose of this study is to compare the t of the Logistic Model with the Cox's Model to grouped and censoring data using, initially, classic model selection criteria: Akaike Information Criterion (AIC), Akaike Information Criterion corrected (AICc) and Bayesian Information Criterion (BIC). After that, was used the Bayes Factor, as well as Deviance Information Criterion (DIC) and adaptations of the classic model selection criteria above mentioned, using the posteriori sample generated by a MCMC method. As an example, was used a data set related to a clinical manifestation of Chagas disease known as chagasic megacolon (Almeida, 1996) / Mestre
46

Verossimilhança hierárquica em modelos de fragilidade / Hierarchical likelihood in frailty models

William Nilson de Amorim 12 February 2015 (has links)
Os métodos de estimação para modelos de fragilidade vêm sendo bastante discutidos na literatura estatística devido a sua grande utilização em estudos de Análise de Sobrevivência. Vários métodos de estimação de parâmetros dos modelos foram desenvolvidos: procedimentos de estimação baseados no algoritmo EM, cadeias de Markov de Monte Carlo, processos de estimação usando verossimilhança parcial, verossimilhança penalizada, quasi-verossimilhança, entro outros. Uma alternativa que vem sendo utilizada atualmente é a utilização da verossimilhança hierárquica. O objetivo principal deste trabalho foi estudar as vantagens e desvantagens da verossimilhança hierárquica para a inferência em modelos de fragilidade em relação a verossimilhança penalizada, método atualmente mais utilizado. Nós aplicamos as duas metodologias a um banco de dados real, utilizando os pacotes estatísticos disponíveis no software R, e fizemos um estudo de simulação, visando comparar o viés e o erro quadrático médio das estimativas de cada abordagem. Pelos resultados encontrados, as duas metodologias apresentaram estimativas muito próximas, principalmente para os termos fixos. Do ponto de vista prático, a maior diferença encontrada foi o tempo de execução do algoritmo de estimação, muito maior na abordagem hierárquica. / Estimation procedures for frailty models have been widely discussed in the statistical literature due its widespread use in survival studies. Several estimation methods were developed: procedures based on the EM algorithm, Monte Carlo Markov chains, estimation processes based on parcial likelihood, penalized likelihood and quasi-likelihood etc. An alternative currently used is the hierarchical likelihood. The main objective of this work was to study the hierarchical likelihood advantages and disadvantages for inference in frailty models when compared with the penalized likelihood method, which is the most used one. We applied both approaches to a real data set, using R packages available. Besides, we performed a simulation study in order to compare the methods through out the bias and the mean square error of the estimators. Both methodologies presented very similar estimates, mainly for the fixed effects. In practice, the great difference was the computational cost, much higher in the hierarchical approach.
47

Modelo preditivo para perda de crédito e sua aplicação em decisão de spread / A model of credit loss and its application in decision of spread

Joao Fernando Serrajordia Rocha de Mello 01 April 2009 (has links)
Métodos analíticos para concessão de crédito vêm apresentando enormes avanços nas últimas décadas, particularmente no que se refere a métodos estatísticos de classificação para identificar grupos de indivíduos com diferentes taxas de inadimplência. A maioria dos trabalhos existentes sugere decisões do tipo conceder o crédito ou não, considerando apenas de forma marginal o resultado esperado da operação. O presente trabalho tem o objetivo de propor um modelo de avaliação de risco de crédito mais complexo que os tradicionais modelos de Credit Scoring, que forneça uma perspectiva mais detalhada acerca do desempenho futuro de um contrato de crédito, e que vá além da classificação entre bom e mau pagador. Aliado a este ganho de informação na previsibilidade oferecida pelo modelo, também é objetivo ampliar o espaço de decisões do problema, saindo de uma resposta binária (como aceitar/rejeitar o crédito) para algo que responda à seguinte pergunta: qual é a taxa justa para cobrir determinado risco?. / Analytical methods for granting credit are presenting enormous advances in recent decades, particularly in the field of statistical methods of classification to identify groups of individuals with different rates of default. Most of the existing work suggests decisions of the type granting credit or not, regarding just marginally the expected outcome of the operation. This work aims to propose a model to evaluate credit risk with more complexity than the traditional \"Credit Scoring\" models, providing a more detailed view about the future performance of a credit agreement, which goes beyond the classification of good and bad payers. Coupled with this improvement of information offered by the model, it is also this works aim to expand the decision space of the problem, leaving a binary response (such as accept/reject the claim) to something that answers the following question: \"what is the fair rate to cover a given risk \".
48

Modelos baseados em pseudo-valores e sua aplicabilidade em credit scoring / Models based on pseudo-values with application to credit scoring

Liliane Travassos da Silva 02 August 2010 (has links)
Os modelos de credit scoring têm sido bastante difundidos nos últimos anos como uma importante ferramenta para agilizar e tornar mais confiável o processo de concessão de crédito por parte das instituições financeiras. Esses modelos são utilizados para classificar os clientes em relação a seus riscos de inadimplência. Neste trabalho, é avaliada a aplicabilidade de uma nova metodologia, baseada em pseudo-valores, como alternativa para a construção de modelos de credit scoring. O objetivo é compará-la com abordagens tradicionais como a regressão logística e o modelo de riscos proporcionais de Cox. A aplicação prática é feita para dados de operações de crédito pessoal sem consignação, coletados do Sistema de Informações de Crédito do Banco Central do Brasil. As performances dos modelos são comparadas utilizando a estatística de Kolmogorov-Smirnov e a área sob a curva ROC. / Credit Scoring models have become popular in recent years as an important tool in the credit granting process, making it more expedite and reliable. The models are mainly considered to classify customers according to their default risk. In this work we evaluate the apllicability of a new methodology, based on pseudo-values, as an alternative to constructing credit scoring models. The objective is to compare this novel methodology with traditional approaches such as logistic regression and Cox proportional hazards model. The models are applied to a dataset on personal credit data, collected from the Credit Information System of Central Bank of Brazil. The performances of the models are compared via Kolmogorov-Smirnov statistic and the area under ROC curve.
49

Modelo de regressão para um processo de renovação Weibull com termo de fragilidade / Regression model for a Weibull renewall process distribution with a frailty efect

José Carlos Fogo 03 August 2007 (has links)
Processsos de renovação são um caso especial de processos pontuais envolvendo eventos recorrentes nos quais um item ou unidade, após a ocorrência de uma falha, é recolocado na mesma condição de novo. Devido a essa propriedade os tempos entre ocorrências para um processo de renovação são independentes e a sua função intensidade é dada pela função de risco. Fatores que interferem nos tempos de recorrência de unidades distintas, ou indivíduos, e que não são observados, podem ser modelados com a inclusão de um termo de fragilidade no modelo. Neste trabalho é apresentado o desenvolvimento de um modelo de regressão para um processo de renovação com tempos entre ocorrências com distribuição de Weibull. Na modelagem foi considerada, ainda, a presença de censuras e a inclusão de um termo de fragilidade para explicar a relação existente entre os tempos de recorrências de uma unidade. A metodologia é desenvolvida para o caso em que várias unidades são acometidas por eventos recorrentes. Nas simulações realizadas foram analisadas as probabilidades de cobertura empíricas do intervalo de confiança normal assintótico e também o comportamento das variâncias dos estimadores. A presença de censuras na amostra inflacionou as variâncias dos estimadores de máxima verossimilhança além de produzir estimativas viciadas para um dos parâmetros da regressão, sendo que o vício do estimador foi corrigido por meio de um processo "bootstrap". Na modelagem sem termo de fragilidade, os resultados das análises das probabilidades de cobertura empírica dos intervalos de confiança assintóticos mostraram uma boa aproximação com os valores esperados, mas com certos cuidados a serem tomados, especialmente nos procedimentos baseados na simetria das distribuições empíricas. A inclusão de um termo de fragilidade na modelagem, por sua vez, causou uma perturbação na estimação máxima verossimilhança com um aumento nas variâncias dos estimadores diretamente associados à variabilidade do termo de fragilidade. Além disso, as coberturas empíricas dos intervalos de confiança assintóticos foram, na grande maioria superestimadas, com resultados satisfatórios apenas para o parâmetro de forma da distribuição Weibull. / Renewal Processes are a special case of point processes involving recurrent events in which a unit, after a failure, is restored to the like new condition. Due to that property the times between occurrences for a renewal process are independent and its intensity function is given by the hazard function. Random factors not observed, that afects the recurrence times of the units, can be explained by a frailty term added in the model. In this work a regression model is presented for a renewal process with Weibull distribution for the times between occurrences. The modeling considers censored times and a frailty variable to explain the relationship among the recurrence times of a unit. The methodology was developed for the situation where several units are submitted by recurrent events. The empirical probabilities of coverage of the asymptotic normal confidence interval and the behavior of the variances of the estimators were analyzed in the simulations performed. The presence of censures in the sample inflated the variances of the maximum likelihood estimators besides to produce biased estimates for the regression parameters. The bias of the estimator was corrected by "bootstrap" procedure. The analysis of the probability of empirical coverage of the asymptotic confidence intervals, without frailty, presented a good approximation to the nominal values, but some observations about procedures have to be made on the symmetry of the empirical distributions. The frailty term incorporated at the modeling disturbed the maximum likelihood estimation increasing estimators' variability, directly associated to the variance of the fragility term. In the most of the cases, the empirical coverages of the asymptotic confidence intervals were overestimated, with satisfactory results just for the shape parameter of the Weibull distribution.
50

As distribuições Kumaraswamy-log-logística e Kumaraswamy-logística / Distributions Kumaraswamy-log-logistic and Kumaraswamy-logistic

Tiago Viana Flor de Santana 18 October 2010 (has links)
Neste trabalho apresenta-se duas novas distribuições de probabilidade obtidas de dois métodos de generalização da distribuição log-logística com dois parâmetros (LL(?,?)). O primeiro método descrito em Marshall e Olkin (1997) transforma a nova distribuição, agora com três parâmetros e denominada distribuição log-logística modificada (LLM (v,?,?)), mais flexível porém, não muda a forma geral da função de taxa de falha e o novo parâmetro v, não influência no cálculo da assimetria e curtose. O segundo método utiliza a classe de distribuições Kumaraswamy proposta por Cordeiro e Castro (2010), para construir a nova distribuição de probabilidade, denominada distribuição Kumaraswamy log-logística (Kw-LL(a,b,?,?)), a qual considera dois novos parâmetros a e b obtendo ganho nas formas da função de taxa de falha, que agora além de modelar dados onde a função de taxa de falha tem forma decrescente e unimodal, modela forma crescente e forma de U. Também foi proposto as distribuições logística modificada (LM (v,µ,?)) e Kumaraswamy logística (Kw-L (a,b, µ,?)$) para a variável Y=log(T), em que T ~ LLM (v,?,?) no caso da distribuição logística modificada e T ~ Kw-LL(a,b,?,?) no caso da distribuição Kw-L. Com reparametrização ? = exp(µ) e ? = 1/?. Da mesma forma que a distribuição LLM, não há ganho quanto a forma da função de taxa de falha da distribuição logística modificada e o parâmetro v não contribuiu para o cálculo da assimetria e curtose desta distribuição. O modelo de regressão locação e escala foi proposto para ambas as distribuições. Por fim, utilizou-se dois conjuntos de dados, para exemplificar o ganho das novas distribuições Kw-LL e Kw-L em relação as distribuições log-logística e logística. O primeiro conjunto refere-se a dados de tempo até a soro-reversão de 143 crianças expostas ao HIV por via vertical, nascidas no Hospital das Clínicas da Faculdade de Medicina de Ribeirão Preto no período de 1995 a 2001, onde as mães não foram tratadas. O segundo conjunto de dados refere-se ao tempo até a falha de um tipo de isolante elétrico fluido submetivo a sete níveis de voltagem constante. / In this work, are presented two new probability distributions, obtained from two generalization methods of the log-logistic distribution, with two parameters (LL (?, ?)). The first method described in Marshall e Olkin (1997) turns the new distribution, now with three parameters, called modified log-logistic distribution (LLM(v, ?, ?)). This distribution is more flexible, but, does not change the general shape of the failure rate function, as well as the new parameter v, does not influence the calculus of skewness and kurtosis. The second method, uses the class of distributions Kumaraswamy proposed by Cordeiro and Castro (2010). To build the new probability distribution, called Kumaraswamy log-logistic distribution (Kw-LL(a,b,?,?)), which considers two new parameters a and b gaining in the forms of failure rate function, that now, even modeling data where the failure rate function has decreasing and unimodal shape, models the increasing form and the U-shaped. Also, were proposed the distributions modified logistic (LM (v,µ,?)) and Kumaraswamy logistics (Kw-L (a,b,µ,?)) for the variable Y=log(T), where T ~ LLM(v,?,?) in the case of the modified logistic distribution and T ~ Kw-LL (a,b,?,?) in the case of Kw-L distribution, with reparametrization ? =exp(µ) and ? = 1/?. As in the distribution LLM, there is no gain for the shape of the failure rate function of modified logistic distribution and the parameter v does not contribute to the calculation of skewness and kurtosis of the distribution. The location and scale regression models were proposed for both distributions. As illustration, were used two datasets to exemplify the gain of the new distributions Kw-LL and Kw-L compared with the log-logistic and logistic distributions. The first dataset refers to the data of time until soro-reversion of 143 children exposed to HIV through vertical, born in the Hospital of the Medical School of Ribeirão Preto during the period 1995 to 2001, where mothers were not treated. The second dataset refers to the time until the failure of a type of electrical insulating fluid subjected to seven constant voltage levels

Page generated in 0.0963 seconds