• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 358
  • 13
  • Tagged with
  • 371
  • 371
  • 358
  • 358
  • 358
  • 130
  • 86
  • 71
  • 66
  • 66
  • 66
  • 60
  • 50
  • 48
  • 46
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
211

Comparação de métodos para definição do número ótimo de grupos em análise de agrupamento / Comparison of methods for defining the optimal number of groups in cluster analysis

Alves, Suelem Cristina 02 February 2012 (has links)
Made available in DSpace on 2015-03-26T13:32:15Z (GMT). No. of bitstreams: 1 texto completo.pdf: 834675 bytes, checksum: cbd61abff31c731b6961bd0ef022cffa (MD5) Previous issue date: 2012-02-02 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Studies that use hierarchical cluster analysis have a problem in determining the optimal number of groups due to lack of objective criteria. Researches involving the adjustment of nonlinear models to data on growth or survival, in which the main interest is to determine how many curves are needed to describe the behavior of the individuals analyzed, use this technique. Some researchers use indices BSS (Between-group Sum of Squares), SPRSQ (Semi-partial R-Squared), RMSSTD (Root Mean Square Standard Deviation), RS (R-Squared) and Mojena method, as a means of assistance in this decision. However, it is not known which one is the best choice to determine that value. The comparison of these statistics was the aim of this study. The entire methodology used the Ward s method to cluster the observations, the von Bertalanffy model to fit the curves, and a specific function, based on the law of cosines and the idea of the Modified Maximum Curvature Method, to calculate the number of groups indicated by the indices. In chapter 1, a real case study was developed. The data set had seven animal growth curves, forming three groups. After grouping the parameter estimates and the calculation of statistics, it was found that only the index SPRSQ pointed to the correct number of groups. Using a function to re-scale the axis of the indices according to the axis of the number of groups, to improve the results obtained, only RMSSTD did not indicate the expected value. Chapter 2 describes the use of simulation to find out which of the statistics mentioned had the highest percentage of accuracy in determining the optimal number of groups in two cases. In the first one, the observations came from a single generator curve and, in the other, the individuals belonged to three different populations. In the case of a single curve, the RS index pointed to the optimal number of groups in most cases. For the case in which there were three different populations, the Mojena method was the one that indicated the right number of groups more often. In these cases, the use of the function that re-scales the axes did not show efficiency to improve the percentage of correct indices. In general, the indices RS and SPRSQ were the most appropriate to assist in determining the optimal number of groups. / Estudos envolvendo análise de agrupamento hierárquico encontram um problema na hora de determinar o número ótimo de grupos, devido à falta de critérios objetivos. Pesquisas que envolvem o ajuste de modelos não-lineares a dados de crescimento ou de sobrevivência, cujo interesse principal é saber quantas curvas são necessárias para descrever o comportamento dos indivíduos analisados, utilizam dessa técnica. Como forma de auxiliar essa decisão, alguns pesquisadores recorrem aos índices BSS (Between-group Sum of Squares), SPRSQ (Semi-partial R-Squared), RMSSTD (Root Mean Square Standard Deviation), RS (R-Squared) e ao método de Mojena. Entretanto, não se sabe qual deles é a melhor escolha para determinação desse valor. A comparação dessas estatísticas foi o objetivo desse trabalho. Toda a metodologia utilizou o método de Ward para fazer o agrupamento das observações, o modelo de von Bertalanffy para o ajuste das curvas, e uma função própria, baseada na lei dos cossenos e na ideia do Método da Máxima Curvatura Modificado, para calcular o número de grupos indicado pelos índices. No capítulo 1 foi feito o estudo de caso real. O conjunto de dados possuía sete curvas de crescimento animal, que formavam três grupos. Após o agrupamento das estimativas dos parâmetros e o cálculo das estatísticas, foi constatado que apenas o índice SPRSQ apontou o número de grupos correto. Usando uma função que re-escalona o eixo dos índices de acordo com o eixo do número de grupos, para melhorar os resultados obtidos, apenas o RMSSTD não indicou o valor esperado. O capítulo 2 descreve o uso da simulação para descobrir qual das estatísticas citadas possuía maior porcentagem de acerto quanto à determinação do número ótimo de grupos em dois cenários. No primeiro, as observações provinham de uma única curva geradora e no outro, os indivíduos pertenciam a três populações diferentes. Para o caso de uma única curva, o índice RS foi o que apontou o número ótimo de grupos na maioria dos casos. Para o cenário onde se possuía três populações diferentes, o método de Mojena foi o que acertou o número de grupos mais vezes. Nesses cenários, o uso da função que re-escalona os eixos não mostrou eficiência para melhorar a porcentagem de acertos dos índices. De modo geral, os índices RS e SPRSQ mostraram-se os mais indicados para auxiliar na determinação do número ótimo de grupos.
212

Desempenho do delineamento composto central em experimentos com alto coeficiente de variação / Performance of the Rotacional Central Composite Design in experiments with high coefficientes of variation

Mendonça, Layanne Andrade 17 February 2012 (has links)
Made available in DSpace on 2015-03-26T13:32:15Z (GMT). No. of bitstreams: 1 texto completo.pdf: 1445397 bytes, checksum: 2e00a708ce4685a98f700f3d00d17d31 (MD5) Previous issue date: 2012-02-17 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / The present work had the purpose of evaluating the performance of the rotational central composite design (RCCD) in relation to the estimated response surface parameters, under conditions of simulated experimental errors that provide high coefficients of variation. The big impulse of the response methodology was given by Box and Wilson (1951), who developed methods of process optimization in industrial researches. Within these methods, the RCCD may be mentioned as an economic design for the response surface, due to the reduced number of level combinations in the studied factors, when compared to the full factorial. However, it is known that these designs are efficient where experimental mistakes are usually small and the conditions of the experiment are easily controlled. However, given the reduced number of tests by the RCCD, it has become important to verify its potential in designing treatments to adjust response surfaces on experiments related to agrarian sciences, that present, naturally, larger random error. For such, the treatment designs, full factorial and rotational central composite have been used to plan the combinations between the coded levels of two factors (A and B). A second-order model has been established for two factors A and B without interaction among them, named true response surface. A full 5x5 factorial has been established, with the combinations between the coded levels of factors A and B and 40 repetitions per treatment. In total, 1000 experimental units have been built. Afterwards, 100 simulations have been made for the experimental errors ε present in the experiment under normal conditions with average zero and variations σε2. The parameter σε has been specified in 32, 48, 64 and 80, to provide the residual coefficients of variation (CV) equal to 25, 37, 50 and 60 %. The choice of these coefficients of variation has been made in order to include the classifications created by Ferreira (1991), quoted by Silva et al. (2011), and Pimentel Gomes (1985) for the agrarian areas. The observed values of Y have been obtained from the sum of the true values of Y ( ) obtained from the true response surface, with residuals ( ), generated by the simulation. In each type of design (RCCD and full factorial), three, six, nine and twelve repetitions per treatment have been established. According to the combinations between the types of treatment, coefficients of variation and number of repetitions per treatment, 100 adjustments of the response surface have been realized, from which the averages of the coefficient of determination, the average distances between the true and the estimated critical point (CPD) and between the coefficients of variation estimated and simulated (CVD), besides the success percentage and confidence interval of each parameter and the percentage of success from the response surface. Afterwards, a regression of these measures as been made, evaluated based on the design, coefficient of variation and number of repetitions per treatment. The superiority of performance of the full factorial in relation to the RCCD increase in relation to the increase of the CV and the reducing of the number of repetitions per treatment. The RCCD has been recommended under more controlled experimental conditions, for being a more economic treatment design. However, knowing the difficulty of controlling the random error on experiments for the agrarian areas, in experiments of this nature the full factorial or the RCCD were recommended with a larger number of repetitions per treatment. It has also been concluded that the increase of the CV prejudices the adjustment quality of the full factorial and mainly of the RCCD and this prejudice can be compensated with the increase in the number of repetitions per treatment. It has been seen that the adjustment quality provided by the treatment design does not depend only of their quantity, but mostly on the sufficient amount of experimental units to provide proper estimates of the effects of the known and unknown factors. / Esse trabalho teve como objetivo avaliar o desempenho do delineamento composto central rotacional (DCCR) em relação às estimativas dos parâmetros da superfície de resposta estimada, sob condições de erros experimentais simulados que proporcionam altos coeficientes de variação. O grande impulso da metodologia de resposta foi dado por Box e Wilson (1951), que desenvolveram métodos de otimização de processos em pesquisas industriais. Dentre esses métodos, pode-se citar o DCCR como um delineamento econômico para a superfície de resposta, devido ao número reduzido de combinações entre os níveis dos fatores estudados, quando comparado ao fatorial completo. No entanto, sabe-se que estes delineamentos são eficientes onde normalmente os erros experimentais são pequenos e as condições do experimento são mais facilmente controláveis. Portanto, dada a economia do número de ensaios pelo DCCR, tornou-se importante verificar o seu potencial em delinear tratamentos visando o ajuste de superfícies de respostas para experimentos ligados às ciências agrárias, que apresentam, naturalmente, maiores erros aleatórios. Para tanto, os delineamentos de tratamentos, fatorial completo e composto central rotacional foram utilizados para planejar as combinações entre os níveis codificados de dois fatores (A e B). Foi estabelecido um modelo de segunda ordem para dois fatores A e B sem interação entre eles, denominada de superfície de resposta verdadeira. Foi estabelecido um fatorial completo 5x5, com as combinações entre os níveis codificados dos fatores A e B e com 40 repetições por tratamento. No total, foram constituídas 1000 unidades experimentais. Posteriormente, foram feitas 100 simulações para os erros experimentais presentes no experimento sob distribuição normal com média zero e variância σε2. O parâmetro σε foi especificado em 32, 48, 64 e 80, para fornecer os coeficientes de variação residuais (CV) iguais a 25, 37, 50 e 62 %. A escolha de tais coeficientes de variação foi feita de modo a abranger as classificações criadas por Ferreira (1991), citado por Silva et al. (2011), e Pimentel Gomes (1985) para as áreas agrárias. Os valores observados de Y foram obtidos a partir da soma dos valores verdadeiros de Y ( ) obtidos a partir da superfície de resposta verdadeira, com os resíduos , gerados pela simulação. Em cada tipo de delineamento (DCCR e fatorial completo), foram estabelecidas três, seis, nove e doze repetições por tratamento. De acordo com as combinações entre os tipos de delineamentos, coeficientes de variação e número de repetições por tratamento, foram realizados 100 ajustes da superfície de resposta dos quais foram obtidas as médias do coeficiente de determinação, EQM, a distância média entre o ponto crítico verdadeiro e o estimado (DPC) e a diferença média entre os coeficientes de variação estimados e simulados (DCV), além da porcentagem de acerto e intervalo de confiança de cada parâmetro e a porcentagem de acerto da superfície de resposta. Posteriormente foi feita uma regressão dessas medidas avaliadas em função do delineamento, coeficiente de variação e número de repetições por tratamento. A superioridade do desempenho do fatorial completo em relação DCCR aumentou em função do aumento do CV e da diminuição do número de repetições por tratamento. Recomendou-se o DCCR sob condições experimentais mais bem controladas, por ser um delineamento de tratamento mais econômico. No entanto, sabendo do difícil controle do erro aleatório em experimentos das áreas agrárias, em experimentos dessa natureza recomendou-se o fatorial completo ou o DCCR com um número maior de repetições por tratamento. Conclui-se também que o aumento do CV prejudica a qualidade de ajuste do fatorial completo e principalmente a do DCCR e esse prejuízo pode ser compensado com o aumento do número de repetições por tratamento. Percebeu-se que a qualidade de ajuste proporcionada pelo delineamento de tratamento não depende só da quantidade dos mesmos, mas principalmente da quantidade de unidades experimentais suficientes para proporcionar estimativas adequadas dos efeitos dos fatores conhecidos e desconhecidos.
213

Métodos de estimação em regressão logística com efeito aleatório: aplicação em germinação de sementes / Estimation methods in logistic regression with random effects: application in seed germination

Araujo, Gemma Lucia Duboc de 01 February 2012 (has links)
Made available in DSpace on 2015-03-26T13:32:15Z (GMT). No. of bitstreams: 1 texto completo.pdf: 1213757 bytes, checksum: a4899ab14bd6c737501e8ef972e42d9e (MD5) Previous issue date: 2012-02-01 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / In logistic mixed models with random effect on intercept allows capturing the effects of sources of variation from the particular characteristics of a group (heterogeneity), deflating the pure error and causing a fluctuation in the model intercept. This inclusion brings complexity in estimation methods and also changes the interpretation of the parameters that, originally given by the odds ratio, is then seen from the median odds ratio. The estimation parameters of a mixed model can be made by many different methods with varying performance, as the Laplace s approximation method, maximum likelihood (ML) and restricted maximum likelihood (REML). The objective of this work was to verify in logistic mixed models with random effects on intercept the consequences in interpretation of parameters, in quality of experiment and in classification of treatment via the median odds ratio, and verify the performance of the estimation methods above cited. The analyzes were performed under simulation and after in set of real data from seeds germination experiment of physic nut (Jatropha curcas L.). Considering the logistic mixed model with random effects on intercept, it was verified that the REML estimation method performed better and that the variance of the random effect affects the performance of any of these methods being evaluated inversely proportional. We suggest further studies to determine more properly the influence of the inflexion points and the effective median level in performance methods. In the experiment to evaluate the seeds germination of physic nut involving roll paper, on paper, on sand and between sand substrates, the inclusion of random effects in logistic model showed considerable heterogeneity in seeds germination in different units of the same substrate. The median odds ratio showed the superiority of the substrate between sand over on paper in seeds germination of physic nut, result similar to that obtained by the Tukey s test. / Em modelos de regressão logística a inclusão do efeito aleatório no intercepto permite capturar os efeitos de fontes de variação provenientes das características particulares de um grupo (heterogeneidade), desinflacionando o erro puro e provocando uma flutuação no intercepto do modelo. Esta inclusão traz complexidade nos métodos de estimação e também muda a interpretação dos parâmetros que, dada originalmente pela razão de chances, passa a ser vista sob o enfoque da razão de chances mediana. A estimação dos parâmetros de um modelo misto pode ser feita por muitos métodos diferentes com desempenho variado, como o método da aproximação de Laplace, da máxima verossimilhança (ML) e da máxima verossimilhança restrita (REML). Assim, o objetivo deste trabalho foi verificar em modelos de regressão logística com efeito aleatório no intercepto as consequências na interpretação dos parâmetros, na qualidade de um experimento e na classificação de tratamentos via razão de chances mediana, e verificar o desempenho dos métodos de estimação acima citados. As análises foram feitas sob simulação e posteriormente num conjunto de dados reais de um experimento com germinação de sementes de pinhão-manso (Jatropha curcas L.). Considerando o modelo de regressão logística com efeito aleatório no intercepto, verificou-se que o método de estimação REML apresentou melhor desempenho e que a variância do efeito aleatório afeta o desempenho de qualquer um dos métodos avaliados sendo estes inversamente proporcionais. Sugerem-se novos estudos para determinar com mais propriedade a influência dos pontos de estabilização e do nível mediano de efetividade na eficiência dos métodos. No experimento de avaliação de germinação de sementes de pinhão-manso envolvendo os substratos rolo de papel, sobre papel, sobre areia e entre areia, a inclusão do efeito aleatório no modelo logístico apontou considerável heterogeneidade na germinação de sementes em unidades diferentes de um mesmo substrato. A razão de chances mediana apontou a superioridade do substrato entre areia em relação a sobre papel na germinação de sementes de pinhão-manso, resultado semelhante ao obtido pelo teste de Tukey.
214

Técnicas não-paramétricas e paramétricas usadas na análise de sobrevivência de Chrysoperla externa (Neuroptera: Chrysopidae) / Non-Parametric and Parametric Techniques used in the survival analysis of Chrysoperla externa (Neuroptera: Chrysopidae)

Miranda, Marconi Silva 13 March 2012 (has links)
Made available in DSpace on 2015-03-26T13:32:15Z (GMT). No. of bitstreams: 1 texto completo.pdf: 512216 bytes, checksum: fd4223913c0ad60bce75a563695255ec (MD5) Previous issue date: 2012-03-13 / In survival analysis, the response variable is the time of occurrence of an event of interest, denominated failure time. Another characteristic of the survival analysis is to incorporate to the study incomplete sample data, in which for a determined reason the occurrence of the event was not verified, being these data defined as censured. The objective of this paper was to compare the use of the parametric and non-parametric techniques to estimate the survival time of C. externa (Neuroptera: Chrysopidae), predator insect which feed on other insects as well as mite, under the effect of three commercial products nim-based: Neempro (10 g of azadirachtina L-1), Organic neem (3,3 g of Azadirachtina L-1) and Natuneem (1,5 g of azadirachtina L-1). With this objective the survival functions for the different concentrations of each product, through the non-parametric method of Kaplan-Meier were estimated and compared by the logrank test and by parametric techniques, using the Weibull and log-normal exponential tests. Besides that, a study in order to select the most parsimonious model was done, using for that the likelihood ratio test (LRT) as well as the Akaike information criterion (AIC). The estimates of the selected parametric model were used to determine the survival functions in the concentrations of the three products, with the purpose of comparing with the nonparametric estimator Kaplan-Meier. Once the best model was defined the median survival time of C. externa was calculated in the tested concentrations of the products. Taking into consideration the conditions described in this experiment, one can conclude that the concentrations of the nim-based products have influence in the survival of C. externa. The higher the concentration of the used products, the lower was the survival time and among the evaluated products, Neempro was the one which presented the least lethal to the natural predator. / Em análise de sobrevivência, a variável resposta é o tempo de ocorrência de um evento de interesse, denominado tempo de falha. Outra característica da análise de sobrevivência é incorporar ao estudo dados amostrais incompletos, que por algum motivo a ocorrência do evento não foi verificada, dados estes definidos como censurados. O objetivo deste trabalho foi comparar o uso das técnicas paramétricas e não-paramétricas para estimar o tempo de sobrevivência de C. externa (Neuroptera: Chrysopidae), inseto predador que se alimenta de outros insetos e ácaros, sob efeito de três produtos comerciais à base de nim: Neempro (10 g de azadirachtina L-1), Organic neem (3,3 g de Azadirachtina L-1) e Natuneem (1,5 g de azadiractina L-1). Com esse objetivo foram estimadas as funções de sobrevivência para as diferentes concentrações de cada produto, por meio do método não-paramétrico de Kaplan-Meier, e comparadas pelo teste logrank e por meio das técnicas paramétricas, utilizando os modelos exponencial, de Weibull e log-normal. Foi realizado ainda, um estudo com a finalidade de selecionar o modelo mais parcimonioso, utilizando para isto o teste da razão de verossimilhança (TRV) e o critério de informação de Akaike (AIC). As estimativas do modelo paramétrico selecionado foram usadas para determinar as funções de sobrevivência nas concentrações dos três produtos, com o objetivo de comparar com o estimador não-paramétrico de Kaplan-Meier. Definido o melhor modelo foi calculado o tempo mediano de sobrevivência do C. externa nas concentrações testadas dos produtos. Levando em consideração as condições descritas neste experimento, pode-se concluir que as concentrações dos produtos a base de nim possuem influencia na sobrevivência de C. externa. Quanto maior foi a concentração dos produtos utilizados, menor foi o tempo de sobrevivência e entre os produtos avaliados o Neempro foi o que apresentou ser o menos letal ao predador natural.
215

Estimação da Sensibilidade e Especificidade de Testes Diagnósticos da Brucelose Bovina via lnferência Bayesiana / Estimation of Sensitivity and Specificity of Diagnostic Tests of Bovine Brucellosis via Bayesian lnference

Souza, Márcio Rodrigues dos Santos 22 October 2014 (has links)
Made available in DSpace on 2015-03-26T13:32:22Z (GMT). No. of bitstreams: 1 texto completo.pdf: 445502 bytes, checksum: 7d042d373f0007ddc1967700e0e477c8 (MD5) Previous issue date: 2014-10-22 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Brucellosis is an infectious and contagious disease caused by bacteria of the genus Bru- ceIIa. It produces a characteristic infection in animals and may aIso contaminate humans. The tests used for diagnosis of bruceIIosis in Brazil are conducted in samples obtained from animals suspected of having the disease, sIaughtered or that died at the farm. In Brazil there are few vaIidation studies of diagnostic tests for bruceIIosis presenting statistical methodologies for the estimation of sensitivity and Specificity satisfactorily. The present work used the methodology proposed by Joseph, Gyorkos e Coupal (1995) to obtain es- timates of sensitivity and Specificity of screening test Buffered Acidified Antigen (AAT) and confirmatory tests Mercaptoethanol (2-ME) and Bacteriological Diagnosis (DBAC), these tests are in accordance with the National Program for Control and Eradication of AnimaI Brucellosis and Tuberculosis (PNCEBT), which began in Brazil in 2001. The study was complemented with comparisons of the estimates in three different scenario: (i) when the resuIt of onIy one test is avaiIabIe (ii) when results of two test are avaiIabIe, and (iii) results of three tests. The data contained samples from 175 animaIs, obtained by convenience from material sent from aII regions of BraziI, to the Laboratory of Diag- nosis of Bacterial Diseases of LANAGRO-MG, between the years 2008-2011. Statistical computations and Gibbs Sampler algorithm were impIemented in OpenBUGS. Results showed that the estimated prevalence of bovine bruceIIosis in suspected animals is 79%, which means that for every 100 animals suspected of having the disease, 79 are diagnosed with it. Regarding performance measures, AAT was more sensitive for diagnosing Bovine BruceIIosis, 2-ME more Specific for not diagnosing Bovine Brucellosis and DBac showed 100% specific for not diagnosing the disease and Iess sensitive for diagnosing the disease. / A brucelose é uma doença infectocontagiosa provocada por bactérias do gênero Brucella que produz infecção característica nos animais, podendo contaminar o homem. Os testes para diagnóstico da brucelose utiIizados no Brasil são reaIizados a partir de amostras obti- das em animais com suspeita da enfermidade abatidos ou mortos na propriedade. No país são poucos os estudos de vaIidação de testes diagnósticos para brucelose que apresentam metodologias estatísticas para a estimação da sensibilidade e da especificidade satisfatori- amente. Neste trabalho, empregou a metodologia proposta por Joseph, Gyorkos e Coupal (1995) para obter estimativas da sensibilidade e da especificidade do teste de triagem Antígeno Acidificado Tamponado (AAT) e dos testes confirmatórios Mercaptoetanol (2- ME) e Diagnóstico Bacteriológico (DBac), testes estes, em conformidade ao Programa Nacional de Controle e Erradicação da Brucelose e da Tuberculose Animal (PNCEBT) inserido no Brasil em 2001. De forma complementar, comparou-se as estimativas em três cenário distintos: quando dispõe do resultado de somente um teste; (ii) quando dispõe dos resultados de dois testes; e (iii) quando dispõe dos resultados de três testes. A amostra conteve 175 animais, obtida por conveniência a partir de material encaminhado, de todas as regiões do BrasiI, ao Laboratório de Diagnóstico de Doenças Bacterianas do LANAGRO-MG, entre os anos de 2008 a 2011. Os códigos para obter as estimativas foram impIementados no OpenBUGS, por meio do algoritmo Gibbs Sampler. Os resuIta- dos apontaram que a prevalência estimada para brucelose bovina em animais suspeitos é de 79%, ou seja, de cada 100 animais com suspeita da doença, 79 são diagnósticos como doentes. Em relação às medidas de desempenho, AAT se mostrou mais sensível para diagnosticar a Brucelose Bovina, o 2-ME mais Especifico para não diagnosticar a Brucelose Bovina e o DBac mostrou-se 100% específico para não diagnosticar a doença e menos sensível para diagnosticar a doença.
216

Modelos de sobrevivência bivariados baseados na cópula FGM : uma abordagem bayesiana

Suzuki, Adriano Kamimura 07 February 2012 (has links)
Made available in DSpace on 2016-06-02T20:04:51Z (GMT). No. of bitstreams: 1 4292.pdf: 1258858 bytes, checksum: c7d8d771d500d5ab8d54fbaae144001b (MD5) Previous issue date: 2012-02-07 / Financiadora de Estudos e Projetos / In this work we present a Bayesian analysis for bivariate survival data in the presence of a covariate and censored observations. We propose a bivariate distribution for the bivariate survival times based on the Farlie-Gumbel-Morgenstern (FGM) copula to model data with weak dependence. Some survival models with and without cure rate have been assumed for the marginal distributions. For inferential purpose a Bayesian approach via Markov Chain Monte Carlo (MCMC) was considered. Further, some discussions on model selection criteria are given and comparisons with other copula models were performed. To detect influential observations in the data we consider a Bayesian case deletion influence diagnostics based on the -divergence. The OpenBUGS and R systems were used to simulate samples of the posterior distribution. Numerical illustrations are presented considering artificial and real data sets. / Neste trabalho apresentamos uma análise bayesiana para dados de sobrevivência bivariados na presença de covariáveis e observações censuradas. Propomos uma distribuição bivariada para os tempos de sobrevivência baseada na cópula de Farlie- Gumbel-Morgenstern (FGM) para modelar dados com fraca dependência. Alguns modelos de sobrevivência com e sem fração de cura foram assumidos para as distribuições marginais. Para fins inferenciais foi considerada uma abordagem bayesiana usando métodos Monte Carlo em Cadeias de Markov (MCMC). Além disso, algumas discussões sobre os critérios de seleção de modelos são apresentadas e comparações com outras cópulas foram realizadas. A fim de detectar observações influentes nos dados analisados foi utilizado o método bayesiano de análise de influência caso a caso baseado na divergência. Os sistemas OpenBUGS e R foram utilizados para simular amostras da distribuição a posteriori de interesse. Ilustrações numéricas são apresentadas considerando conjunto de dados artificiais e reais.
217

Novos modelos de sobrevivência com fração de cura baseados no processo da carcinogênese

Borges, Patrick 03 May 2012 (has links)
Made available in DSpace on 2016-06-02T20:04:52Z (GMT). No. of bitstreams: 1 4552.pdf: 1449121 bytes, checksum: 5d02e70bde72ea9ef3c257c80ceed1dc (MD5) Previous issue date: 2012-05-03 / Financiadora de Estudos e Projetos / In this dissertation we propose new models for survival with cure fraction to describe the biological mechanism of the event of interest (cancer) in studies of carcinogenesis in the presence of competing causes latent independent or correlated. The formulation of new models is based on stochastic modeling of the occurrence of tumors through three stages: initiation of a tumor not detectable, promotion and progression of the tumor to a detectable cancer. These models allow a simple pattern of the dynamics of tumor growth, and incorporate into the analysis features of the stage of tumor progression that is not possible in most survival models with cure fraction commonly used. For the proposed models, the inferential process was discussed in terms of classical and Bayesian point of view. Simulations studies were conducted in order to analyze the asymptotical properties of the classical estimation procedure. Real data applications demonstrate of use of the models. / Neste trabalho propomos modelos de sobrevivência com fração de cura para descrever o mecanismo biológico da ocorrência do evento de interesse (câncer) em estudos da carcinogênese na presença de causas competitivas latentes independentes ou correlacionadas. A formulação dos novos modelos é baseada na modelagem estocástica da ocorrência dos tumores através de três estágios: iniciação de um tumor não detectável, promoção e a progressão do tumor até um câncer detectável. Estes modelos permitem um padrão simples da dinâmica de crescimento do tumor, além de incorporarem características do estágio de progressão do tumor, que não é possível na maioria dos modelos de sobrevivência com fração de cura comumente utilizados. Para os modelos propostos, discutimos o processo inferencial do ponto de vista clássico e bayesiano. Estudos de simulações foram feitos com o objetivo de analisar as propriedades assintóticas do processo de estimação clássico. Aplicações a conjuntos de dados reais mostraram a aplicabilidade dos modelos.
218

Uma família de modelos de regressão com a distribuição original da variável resposta

Paula, Marcelo de 05 April 2013 (has links)
Made available in DSpace on 2016-06-02T20:04:52Z (GMT). No. of bitstreams: 1 5021.pdf: 1591649 bytes, checksum: 6798e65e3b572fcfe760f083f660ff50 (MD5) Previous issue date: 2013-04-05 / Financiadora de Estudos e Projetos / We know that statistic modeling by regression had a stronger impulse since generalized linear models (GLMs) development in 70 decade beginning of the XX century, proposed by Nelder e Wedderburn (1972). GLMs theory can be interpret like a traditional linear regression model generalization, where outcomes don't need necessary to assume a normal distribution, that is, any distribution belong to exponential distributions family. In binary logistic regression case, however, in many practice situations the outcomes response is originally from a discrete or continuous distribution, that is, the outcomes response has an original distribution that is not Bernoulli distribution and, although, because some purpose this variable was later dicothomized by an arbitrary cut of point C. In this work we propose a regression models family with original outcomes information, whose probability distribution or density function probability belong to exponential family. We present the models construction and development to each class, incorporating the original distribution outcomes response information. The proposed models are an extension of Suissa (1991) and Suissa and Blais (1995) works which present methods of estimating the risk of an event de_ned in a sample subspace of a continuous outcome variable. Simulation studies are presented in order to illustrate the performance of the developed methodology. For original normal outcomes we considered logistic, exponential, geometric, Poisson and lognormal models. For original exponential outcomes we considered logistic, normal, geometric, Poisson and lognormal models. In contribution to Suissa and Blais (1995) works we attribute two discrete outcomes for binary model, geometric and Poisson, and we also considered a normal distributions with multiplicative heteroscedastic structures continuous outcomes. In supplement we also propose the binary model with inated power series distributions outcomes considering a sample subspace of a zero inated geometric outcomes. We do several artificial data studies comparing the model of original distribution information regression model with usual regression model. Simulation studies are presented in order to illustrate the performance of the developed methodology. A real data set is analyzed by using the proposed models. Assuming a correct speci_ed distribution, the incorporation of this information about outcome response in the model produces more eficient likelihood estimates. / É sabido que a área de modelagem estatística por regressão sofreu um grande impulso desde o desenvolvimento dos modelos lineares generalizados (MLGs) no início da década de 70 do Século XX, propostos por Nelder e Wedderburn (1972). A teoria dos MLGs pode ser interpretada como uma generalização do modelo de regressão linear tradicional, em que a variável resposta não precisa necessariamente assumir a distribuição normal, e sim, qualquer distribuição pertencente à família exponencial de distribuições. Em algumas situações, porém, a distribuição da variável resposta Se originalmente fruto de uma outra distribuição discreta ou contínua, ou seja, a variável resposta tem uma distribuição original que não Se a usualmente considerada. Um exemplo desta situação Se a dicotomização de uma variável discreta ou contínua por meio de um ponto de corte arbitrário. Além disso, a variável resposta pode estar relacionada, de alguma forma, com uma outra variável de interesse. Nesse trabalho propomos uma família de modelos de regressão com a informação da variável resposta original, cuja distribuição de probabilidades ou função densidade de probabilidade pertence à família exponencial. O modelo de regressão logística com resposta normal e log-normal desenvolvido por Suissa e Blais (1995) Se apresentado como caso particular dos modelos de regressão com resposta de origem. Para a resposta de origem normal consideramos os modelos logístico, exponencial, geométrico, Poisson e log-normal. Para a resposta de origem exponencial consideramos os modelos logístico, normal, geométrico, Poisson e log-normal. Em contribuição ao trabalho de Suissa e Blais atribuímos duas respostas discretas ao modelo logístico, geométrico e de Poisson, e também consideramos uma resposta contínua normal com estrutura heteroscedástica. Adicionalmente, propomos também o modelo logístico com resposta pertencente à classe de distribuições séries de potências inflacionadas considerando o caso particular da resposta geométrica zero inflacionada. Realizamos vários estudos com dados artificiais comparando o modelo de regressão proposto com a informação da distribuição de origem e o modelo de regressão usual. Dois conjuntos de dados reais também são considerados. Assumindo uma distribuição corretamente especificada, o modelo produz estimativas de máxima verossimilhança mais eficientes e estimativas intervalares mais precisas para os coeficientes de regressão.
219

Algoritmo ejeção-absorção metropolizado para segmentação de imagens

Calixto, Alexandre Pitangui 19 December 2014 (has links)
Made available in DSpace on 2016-06-02T20:04:53Z (GMT). No. of bitstreams: 1 6510.pdf: 2213423 bytes, checksum: 0c9b206a1b5f88772031ed160e9691b3 (MD5) Previous issue date: 2014-12-19 / Financiadora de Estudos e Projetos / We proposed a new split-merge MCMC algorithm for image segmentation. We describe how an image can be subdivided into multiple disjoint regions, with each region having an associated latent indicator variable. The latent indicator variables are modeled with a prior Gibbs distribution governed by a spatial regularization parameter. Regions with same label define a component. Pixels within a component are distributed according to a Gaussian distribution. We treat the spatial regularization parameter and the number of components K as unknown. To estimate K, the spatial regularization parameter and the component parameters we propose the Metropolised split-merge (MSM) algorithm. The MSM comprises two type of moves. The first one, is a data-driven split-merge move. These movements change the number of components K in the neighborhood K _ 1 and are accepted according to Metropolis-Hastings acceptance probability. After a split-merge step, the component parameters, the spatial regularization parameter and latent allocation variables are updated conditional on K by using the Gibbs sampling, the Metropolis- Hastings and Swendsen-Wang algorithm, respectively. The main advantage of the proposed algorithm is that it is easy to implement and the acceptance probability for split-merge movements depends only of the observed data. The performance of the proposed algorithm is verified using artificial datasets as well as real datasets. / Nesta tese, modelamos uma imagem através de uma grade regular retangular e assumimos que esta grade é dividida em múltiplas regiões disjuntas de pixels. Quando duas ou mais regiões apresentam a mesma característica, a união dessas regiões forma um conjunto chamado de componente. Associamos a cada pixel da imagem uma variável indicadora não observável que indica a componente a que o pixel pertence. Estas variáveis indicadoras não observáveis são modeladas através da distribuição de probabilidade de Gibbs com parâmetro de regularização espacial _. Assumimos que _ e o número de componentes K são desconhecidos. Para estimação conjunta dos parâmetros de interesse, propomos um algoritmo MCMC denominado de ejeção-absorção metropolizado (EAM). Algumas vantagens do algoritmo proposto são: (i) O algoritmo não necessita da especificação de uma função de transição para realização dos movimentos ejeção e absorção. Ao contrário do algoritmo reversible jump (RJ) que requer a especificação de boas funções de transição para ser computacionalmente eficiente; (ii) Os movimentos ejeção e absorção são desenvolvidos com base nos dados observados e podem ser rapidamente propostos e testados; (iii) Novas componentes são criadas com base em informações provenientes de regiões de observações e os parâmetros das novas componentes são gerados das distribuições a posteriori. Ilustramos o desempenho do algoritmo EAM utilizando conjuntos de dados simulados e reais.
220

Um novo estimador exponencial por partes da curva de sobrevivência: um estudo comparativo.

Moraes, Fabíola Eugênio Arrabaça 31 May 2006 (has links)
Made available in DSpace on 2016-06-02T20:05:58Z (GMT). No. of bitstreams: 1 DissFEAM.pdf: 568946 bytes, checksum: 953e676ad364fe570f94bc6a67fa2f34 (MD5) Previous issue date: 2006-05-31 / In this work we revise the main basic concepts on survival analysis and reliability. We present the most known nonparametric estimators of the survival function in the presence of censured data. Their estimates are calculed and compared in an real data set on human renal transplants. We point some problems that are not usually considered in the structure of these estimators. As consequense of such problems we can observe possible distortions in the estimates the direction of sub or over estimating the main characteristics of interest. Some alternatives are pointed out for finding lesse vulnerable estimators. Moreover, we propose a new modified piece wise exponential estimator, pointing out its properties. / Neste trabalho, revisamos os principais conceitos básicos de análise de sobre- vivência e confiabilidade, sob a abordagem da inferência clássica. Relacionamos os mais conhecidos estimadores não paramétricos das funções de sobrevivência, com dados cen- surados. Suas estimativas são calculadas e comparadas em um exemplo com dados reais de transplantes renais humanos. Apontamos alguns problemas que, muitas vezes, deixaram de ser considerados na estruturação destes estimadores. Como conseqüência destes pro- blemas, citamos possíveis distorções nas estimativas, no sentido de sub ou super estimar as principais características de interesse, e levantamos as possibilidades de se estar: expondo a riscos desnecessários pacientes, acompanhados em estudos clínicos, ou submetendo-se empresas a prejuízos financeiros, em estudos de fidelidade de clientes. Além disso, propomos um novo estimador modificado do tipo exponencial por partes, pela mudança que realizamos na taxa de risco acumulada de Kitchin nos subin- tervalos formados pelos tempos consecutivos das ocorrências dos eventos de interesse. Finalmente, dentro do conhecimento atualmente disponível, apontamos alternativas na busca de correções para alguns destes problemas e realçamos a necessidade da elaboração de estimadores menos vulneráveis a eles.

Page generated in 0.0213 seconds