• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 358
  • 13
  • Tagged with
  • 371
  • 371
  • 358
  • 358
  • 358
  • 130
  • 86
  • 71
  • 66
  • 66
  • 66
  • 60
  • 50
  • 48
  • 46
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
301

Gráficos de controle adaptativos para monitoramento de perfis / Gráficos de controle adaptativos para monitoramento de perfis / Adaptive control charts for monitoring profiles / Adaptive control charts for monitoring profiles

Viviany Leão Fernandes 23 May 2014 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Processos de produção precisam ser avaliados continuamente para que funcionem de modo mais eficaz e eficiente possível. Um conjunto de ferramentas utilizado para tal finalidade é denominado controle estatístico de processos (CEP). Através de ferramentas do CEP, o monitoramento pode ser realizado periodicamente. A ferramenta mais importante do CEP é o gráfico de controle. Nesta tese, foca-se no monitoramento de uma variável resposta, por meio dos parâmetros ou coeficientes de um modelo de regressão linear simples. Propõe-se gráficos de controle χ2 adaptativos para o monitoramento dos coeficientes do modelo de regressão linear simples. Mais especificamente, são desenvolvidos sete gráficos de controle χ2 adaptativos para o monitoramento de perfis lineares, a saber: gráfico com tamanho de amostra variável; intervalo de amostragem variável; limites de controle e de advertência variáveis; tamanho de amostra e intervalo de amostragem variáveis; tamanho de amostra e limites variáveis; intervalo de amostragem e limites variáveis e por fim, com todos os parâmetros de projeto variáveis. Medidas de desempenho dos gráficos propostos foram obtidas através de propriedades de cadeia de Markov, tanto para a situação zero-state como para a steady-state, verificando-se uma diminuição do tempo médio até um sinal no caso de desvios pequenos a moderados nos coeficientes do modelo de regressão do processo de produção. Os gráficos propostos foram aplicados a um exemplo de um processo de fabricação de semicondutores. Além disso, uma análise de sensibilidade dos mesmos é feita em função de desvios de diferentes magnitudes nos parâmetros do processo, a saber, no intercepto e na inclinação, comparando-se o desempenho entre os gráficos desenvolvidos e também com o gráfico χ2 com parâmetros fixos. Os gráficos propostos nesta tese são adequados para vários tipos de aplicações. Neste trabalho também foi considerado características de qualidade as quais são representadas por um modelo de regressão não-linear. Para o modelo de regressão não-linear considerado, a proposta é utilizar um método que divide o perfil não-linear em partes lineares, mais especificamente, um algoritmo para este fim, proposto na literatura, foi utilizado. Desta forma, foi possível validar a técnica proposta, mostrando que a mesma é robusta no sentido que permite tipos diferentes de perfis não-lineares. Aproxima-se, portanto um perfil não-linear por perfis lineares por partes, o que proporciona o monitoramento de cada perfil linear por gráficos de controle, como os gráficos de controle desenvolvidos nesta tese. Ademais apresenta-se a metodologia de decompor um perfil não-linear em partes lineares de forma detalhada e completa, abrindo espaço para ampla utilização. / Production processes need to be continually evaluated so that they are able to produce in the most effective and efficient way. Statistical process control (SPC) consists of a set of tools used for this purpose. The monitoring can be periodically performed through the SPC tools. The most important tool of SPC is the control chart. In this thesis, we focus on the monitoring of a response variable through the parameters or coefficients of a linear regression model. It is proposed adaptive χ2 control charts for monitoring the coefficients of linear regression models. More specifically, seven adaptive χ2 control charts are proposed for monitoring a simple linear regression model, being distinguished by the following properties: variable sample size; variable sampling interval; variable warning and control limits; variable sample size and sampling interval; variable sample size and limits; variable sampling interval and limits and finally, all design parameters varying. Performance measures of these charts were obtained through properties of Markov chain, for both the zero-state and the steady-state situation. It was found that the average time until a signal in the case of small to moderate shifts in the coefficients of the regression model decreased. The proposed charts were applied to an example of semiconductors manufacturing process. Moreover, a sensitivity analysis of the proposed charts is performed for different shifts magnitudes in the process parameters, namely the intercept and the slope, comparing the performance between the developed charts and also with the fixed parameter χ2 chart. The proposed charts in this thesis are suitable for several applications. In this work, it was also considered quality characteristics represented by nonlinear regression models. To the considered nonlinear regression model, the proposal is to use a method that divides the nonlinear profile in linear parts. More specifically, an algorithm for this purpose, proposed in the literature, was utilized. It approximates nonlinear profile by a set of linear profiles. It was possible to validate this technique, showing that it is robust in the sense that it allows different types of nonlinear profiles to be considered. In this way, techniques such as control charts developed here can be used to monitor each linear part. Furthermore, we present the methodology to decompose a nonlinear profile in linear parts in a detailed and complete way, allowing its widespread use.
302

Decomposição aleatória de matrizes aplicada ao reconhecimento de faces / Stochastic decomposition of matrices applied to face recognition

Mauro de Amorim 22 March 2013 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Métodos estocásticos oferecem uma poderosa ferramenta para a execução da compressão de dados e decomposições de matrizes. O método estocástico para decomposição de matrizes estudado utiliza amostragem aleatória para identificar um subespaço que captura a imagem de uma matriz de forma aproximada, preservando uma parte de sua informação essencial. Estas aproximações compactam a informação possibilitando a resolução de problemas práticos de maneira eficiente. Nesta dissertação é calculada uma decomposição em valores singulares (SVD) utilizando técnicas estocásticas. Esta SVD aleatória é empregada na tarefa de reconhecimento de faces. O reconhecimento de faces funciona de forma a projetar imagens de faces sobre um espaço de características que melhor descreve a variação de imagens de faces conhecidas. Estas características significantes são conhecidas como autofaces, pois são os autovetores de uma matriz associada a um conjunto de faces. Essa projeção caracteriza aproximadamente a face de um indivíduo por uma soma ponderada das autofaces características. Assim, a tarefa de reconhecimento de uma nova face consiste em comparar os pesos de sua projeção com os pesos da projeção de indivíduos conhecidos. A análise de componentes principais (PCA) é um método muito utilizado para determinar as autofaces características, este fornece as autofaces que representam maior variabilidade de informação de um conjunto de faces. Nesta dissertação verificamos a qualidade das autofaces obtidas pela SVD aleatória (que são os vetores singulares à esquerda de uma matriz contendo as imagens) por comparação de similaridade com as autofaces obtidas pela PCA. Para tanto, foram utilizados dois bancos de imagens, com tamanhos diferentes, e aplicadas diversas amostragens aleatórias sobre a matriz contendo as imagens. / Stochastic methods offer a powerful tool for performing data compression and decomposition of matrices. These methods use random sampling to identify a subspace that captures the range of a matrix in an approximate way, preserving a part of its essential information. These approaches compress the information enabling the resolution of practical problems efficiently. This work computes a singular value decomposition (SVD) of a matrix using stochastic techniques. This random SVD is employed in the task of face recognition. The face recognition is based on the projection of images of faces on a feature space that best describes the variation of known image faces. These features are known as eigenfaces because they are the eigenvectors of a matrix constructed from a set of faces. This projection characterizes an individual face by a weighted sum of eigenfaces. The task of recognizing a new face is to compare the weights of its projection with the projection of the weights of known individuals. The principal components analysis (PCA) is a widely used method for determining the eigenfaces. This provides the greatest variability eigenfaces representing information from a set of faces. In this dissertation we discuss the quality of eigenfaces obtained by a random SVD (which are the left singular vectors of a matrix containing the images) by comparing the similarity with eigenfaces obtained by PCA. We use two databases of images, with different sizes and various random sampling applied on the matrix containing the images.
303

Avaliação de testes diagnósticos na ausência de padrão ouro considerando relaxamento da suposição de independência condicional, covariáveis e estratificação da população: uma abordagem Bayesiana

Pereira, Gilberto de Araujo 16 December 2011 (has links)
Made available in DSpace on 2016-06-02T20:04:51Z (GMT). No. of bitstreams: 1 4040.pdf: 1510214 bytes, checksum: 7dfe4542c20ffa8a47309738bc22a922 (MD5) Previous issue date: 2011-12-16 / Financiadora de Estudos e Projetos / The application of a gold standard reference test in all or part of the sample under investigation is often not feasible for the majority of diseases affecting humans, either by a lack of consensus on which testing may be considered a gold standard, the high level of invasion of the gold standard technique, the high cost of financially large-scale application, or by ethical questions, so to know the performance of existing tests is essential for the process of diagnosis of these diseases. In statistical modeling aimed to obtain robust estimates of the prevalence of the disease (x ) and the performance parameters of diagnostic tests (sensitivity (Se) and specificity (Sp)), various strategies have been considered such as the stratification of the population, the relaxation of the assumption of conditional independence, the inclusion of covariates, the verification type (partial or total) and the techniques to replace the gold standard. In this thesis we propose a new structure of stratification of the population considering both the prevalence rates and the parameters of test performance among the different strata (EHW). A Bayesian latent class modeling to estimate these parameters was developed for the general case of K diagnostic tests under investigation, relaxation of the assumption of conditional independence according to the formulations of the fixed effect (FECD) and random (RECD) with dependent order (h _ k) and M covariates. The application of models to two data sets about the performance evaluation of diagnostic tests used in screening for Chagas disease in blood donors showed results consistent with the sensitivity studies. Overall, we observed for the structure of stratification proposal (EHW) superior performance and estimates closer to the nominal values when compared to the structure of stratification when only the prevalence rates are different between the strata (HW), even when we consider data set with rates of Se, Sp and x close among the strata. Generally, the structure of latent class, when we have low or high prevalence of the disease, estimates of sensitivity and specificity rates have higher standard errors. However, in these cases, when there is high concordance of positive or negative results of the tests, the error pattern of these estimates are reduced. Regardless of the structure of stratification (EHW, HW), sample size and the different scenarios used to model the prior information, the model of conditional dependency from the FECD and RECD had, from the information criteria (AIC, BIC and DIC), superior performance to the structure of conditional independence (CI) and to FECD with improved performance and estimates closer to the nominal values. Besides the connection logit, derived from the logistic distribution with symmetrical shape, find in the link GEV, derived from the generalized extreme value distribution which accommodates symmetric and asymmetric shapes, a interesting alternative to construct the conditional dependence structure from the RECD. As an alternative to the problem of identifiability, present in this type of model, the criteria adopted to elicit the informative priors by combining descriptive analysis of data, adjustment models from simpler structures, were able to produce estimates with low standard error and very close to the nominal values. / Na área da saúde a aplicação de teste de referência padrão ouro na totalidade ou parte da amostra sob investigação é, muitas vezes, impraticável devido à inexistência de consenso sobre o teste a ser considerado padrão ouro, ao elevado nível de invasão da técnica, ao alto custo da aplicação em grande escala ou por questões éticas. Contudo, conhecer o desempenho dos testes é fundamental no processo de diagnóstico. Na modelagem estatística voltada à estimação da taxa de prevalência da doença (x ) e dos parâmetros de desempenho de testes diagnósticos (sensibilidade (S) e especificidade (E)), a literatura tem explorado: estratificação da população, relaxamento da suposição de independência condicional, inclusão de covariáveis, tipo de verificação pelo teste padrão ouro e técnicas para substituir o teste padrão ouro inexistente ou inviável de ser aplicado em toda a amostra. Neste trabalho, propomos uma nova estrutura de estratificação da população considerando taxas de prevalências e parâmetros de desempenho diferentes entre os estratos (HWE). Apresentamos uma modelagem bayesiana de classe latente para o caso geral de K testes diagnósticos sob investigação, relaxamento da suposição de independência condicional segundo as formulações de efeito fixo (DCEF) e efeito aleatório (DCEA) com dependência de ordem (h _ K) e inclusão de M covariáveis. A aplicação dos modelos a dois conjuntos de dados sobre avaliação do desempenho de testes diagnósticos utilizados na triagem da doença de Chagas em doadores de sangue apresentou resultados coerentes com os estudos de sensibilidade. Observamos, para a estrutura de estratificação proposta, HWE, desempenho superior e estimativas muito próximas dos valores nominais quando comparados à estrutura de estratificação na qual somente as taxas de prevalências são diferentes entre os estratos (HW), mesmo quando consideramos dados com taxas de S, E e x muito próximas entre os estratos. Geralmente, na estrutura de classe latente, quando temos baixa ou alta prevalência da doença, as estimativas das sensibilidades e especificidades apresentam, respectivamente, erro padrão mais elevado. No entanto, quando há alta concordância de resultados positivos ou negativos, tal erro diminui. Independentemente da estrutura de estratificação (HWE, HW), do tamanho amostral e dos diferentes cenários utilizados para modelar o conhecimento a priori, os modelos de DCEF e de DCEA apresentaram, a partir dos critérios de informação (AIC, BIC e DIC), desempenhos superiores à estrutura de independência condicional (IC), sendo o de DCEF com melhor desempenho e estimativas mais próximas dos valores nominais. Além da ligação logito, derivada da distribuição logística com forma simétrica, encontramos na ligação VEG , derivada da distribuição de valor extremo generalizada a qual acomoda formas simétricas e assimétricas, interessante alternativa para construir a estrutura de DCEA. Como alternativa ao problema de identificabilidade, neste tipo de modelo, os critérios para elicitar as prioris informativas, combinando análise descritiva dos dados com ajuste de modelos de estruturas mais simples, contribuíram para produzir estimativas com baixo erro padrão e muito próximas dos valores nominais.
304

Procedimentos sequenciais Bayesianos aplicados ao processo de captura-recaptura

Santos, Hugo Henrique Kegler dos 30 May 2014 (has links)
Made available in DSpace on 2016-06-02T20:04:52Z (GMT). No. of bitstreams: 1 6306.pdf: 1062380 bytes, checksum: de31a51e2d0a59e52556156a08c37b41 (MD5) Previous issue date: 2014-05-30 / Financiadora de Estudos e Projetos / In this work, we make a study of the Bayes sequential decision procedure applied to capture-recapture with fixed sample sizes, to estimate the size of a finite and closed population process. We present the statistical model, review the Bayesian decision theory, presenting the pure decision problem, the statistical decision problem and the sequential decision procedure. We illustrate the theoretical methods discussed using simulated data. / Neste trabalho, fazemos um estudo do procedimento de decisão sequencial de Bayes aplicado ao processo de captura-recaptura com tamanhos amostrais fixados, para estimação do tamanho de uma população finita e fechada. Apresentamos o modelo estatístico, revisamos a teoria de decisão bayesiana, apresentando o problema de decisão puro, o problema de decisão estatística e o procedimento de decisão sequencial. Ilustramos os métodos teóricos discutidos através de dados simulados.
305

Análise bayesiana objetiva para as distribuições normal generalizada e lognormal generalizada

Jesus, Sandra Rêgo de 21 November 2014 (has links)
Made available in DSpace on 2016-06-02T20:04:53Z (GMT). No. of bitstreams: 1 6424.pdf: 5426262 bytes, checksum: 82bb9386f85845b0d3db787265ea8236 (MD5) Previous issue date: 2014-11-21 / The Generalized Normal (GN) and Generalized lognormal (logGN) distributions are flexible for accommodating features present in the data that are not captured by traditional distribution, such as the normal and the lognormal ones, respectively. These distributions are considered to be tools for the reduction of outliers and for the obtention of robust estimates. However, computational problems have always been the major obstacle to obtain the effective use of these distributions. This paper proposes the Bayesian reference analysis methodology to estimate the GN and logGN. The reference prior for a possible order of the model parameters is obtained. It is shown that the reference prior leads to a proper posterior distribution for all the proposed model. The development of Monte Carlo Markov Chain (MCMC) is considered for inference purposes. To detect possible influential observations in the models considered, the Bayesian method of influence analysis on a case based on the Kullback-Leibler divergence is used. In addition, a scale mixture of uniform representation of the GN and logGN distributions are exploited, as an alternative method in order, to allow the development of efficient Gibbs sampling algorithms. Simulation studies were performed to analyze the frequentist properties of the estimation procedures. Real data applications demonstrate the use of the proposed models. / As distribuições normal generalizada (NG) e lognormal generalizada (logNG) são flexíveis por acomodarem características presentes nos dados que não são capturadas por distribuições tradicionais, como a normal e a lognormal, respectivamente. Essas distribuições são consideradas ferramentas para reduzir as observações aberrantes e obter estimativas robustas. Entretanto o maior obstáculo para a utilização eficiente dessas distribuições tem sido os problemas computacionais. Este trabalho propõe a metodologia da análise de referência Bayesiana para estimar os parâmetros dos modelos NG e logNG. A função a priori de referência para uma possível ordem dos parâmetros do modelo é obtida. Mostra-se que a função a priori de referência conduz a uma distribuição a posteriori própria, em todos os modelos propostos. Para fins de inferência, é considerado o desenvolvimento de métodos Monte Carlo em Cadeias de Markov (MCMC). Para detectar possíveis observações influentes nos modelos considerados, é utilizado o método Bayesiano de análise de influência caso a caso, baseado na divergência de Kullback-Leibler. Além disso, uma representação de mistura de escala uniforme para as distribuições NG e logNG é utilizada, como um método alternativo, para permitir o desenvolvimento de algoritmos de amostrador de Gibbs. Estudos de simulação foram desenvolvidos para analisar as propriedades frequentistas dos processos de estimação. Aplicações a conjuntos de dados reais mostraram a aplicabilidade dos modelos propostos.
306

Estimativas de máxima verosimilhança e bayesianas do número de erros de um software.

Silva, Karolina Barone Ribeiro da 24 February 2006 (has links)
Made available in DSpace on 2016-06-02T20:05:58Z (GMT). No. of bitstreams: 1 DissKBRS.pdf: 617246 bytes, checksum: 9436ee8984a49f5df072023b717747c6 (MD5) Previous issue date: 2006-02-24 / In this work we present the methodology of capture-recapture, under the classic and bayesian approach, to estimate the number of errors of software through inspection by distinct reviewers. We present the general statistical model considering independence among errors and among reviewers and consider the particular cases of equally detectable errors (homogeneous) and reviewers not equally e¢ cient (heterogeneous) and of errors not equally detectable (heterogeneous) and equally e¢ cient reviewers (homogeneous). After that, under the assumption of independence and heterogeneity among errors and independence and homogeneity among reviwers, we supposed that the heterogeneity of the errors was expressed by a classification of these in easy and di¢ cult of detecting, admitting known the probabilities of detection of an easy error and of a di¢ cult error. Finally, under the hypothesis of independence and homogeneity among errors, we presented a new model considering heterogeneity and dependence among reviewers. Besides, we presented examples with simulate and real data. / Nesta dissertação apresentamos a metodologia de captura-recaptura, sob os enfoques clássico e bayesiano, para estimar o número de erros de um software através de sua inspeção por revisores distintos. Apresentamos o modelo estatístico geral considerando independência entre erros e entre revisores e consideramos os casos particulares de erros igualmente.detectáveis (homogêneos) e revisores não igualmente eficientes (heterogêneos) e de erros não igualmente detectáveis (heterogêneos) e revisores igualmente eficientes (homogêneos). Em seguida, sob a hipótese de heterogeneidade e independência entre erros e homogeneidade e independência entre revisores, supusemos que a heterogeneidade dos erros era expressa por uma classificação destes em fácil e difícil de detectar, admitindo conhecidas as probabilidades de detecção de um erro fácil e de um erro difícil. Finalmente, sob a hipótese de independência e homogeneidade entre erros, apresentamos um novo modelo considerando heterogeneidade e dependência entre revisores. Além disso, apresentamos exemplos com dados simulados e reais.
307

Planejamento de experimentos bayesianos: aplicações em experimentos na presença de tendências lineares.

Lima, Luis Gustavo Guedes Bessa 11 January 2007 (has links)
Made available in DSpace on 2016-06-02T20:05:58Z (GMT). No. of bitstreams: 1 DissLGGBL.pdf: 694668 bytes, checksum: fbe25c1e4093e12425b0a024c8a95456 (MD5) Previous issue date: 2007-01-11 / Financiadora de Estudos e Projetos / We present a general introduction in the construction of experimental design, spe- cially a general factorial design and factorial design 2k and some Bayesian criteria in the construction of experimental design. In practice, usually the researcher can have a priori knowledge of specialists for estimated quantities from an experiment. The use of Bayesian methods can take on best results with low costs. Many Bayesian criteria in- troduced in literature are presented. One of the main applications in the experimental design construction involve the existance of linear trends with objective of verifying the best sequence of runs, specially the factorial designs with eight runs. In this disertation, we introduce some basic concepts in design of experiments and the use of the Bayesian approach to have more e¢ cient and less cost experiments. The main goal of the work, is to consider a special case of great importance in applied indistrial work: the presence of linear trend. In this case, we present a comparative study in design of experiments under the classical and Bayesian approaches. / Inicialmente apresentamos uma introdução geral sobre planejamentos de experimen- tos, em especial, o planejamento fatorial geral e o planejamento fatorial 2k, e alguns critérios Bayesianos na construção de planejamentos de experimentos. Na prática, usual- mente o pesquisador pode ter conhecimento a priori de especialistas das quantidades a serem estimadas, a partir de um experimento. O uso de métodos Bayesianos pode levar à melhores resultados com menores custos. Vários critérios Bayesianos introduzidos na liter- atura são apresentados. Algumas aplicações são consideradas para ilustrar a metodologia proposta. Uma das principais aplicações na construção de um planejamento de exper- imentos envolve a presença de tendências lineares com o objetivo de verificar a melhor seqüência possível de ensaios, em especial o planejamento fatorial com oito ensaios. Nesta dissertação, pretendemos introduzir alguns conceitos básicos em planejamen- tos de experimentos e o uso do enfoque Bayesiano que leva à experimentos com melhor eficiência e menores custos. Como objetivo principal de trabalho, vamos considerar um caso especial de grande importância nas aplicações industriais: a presença de tendên- cias lineares. Neste caso, vamos apresentar um estudo comparativo em planejamento de experimentos clássicos e planejamento de experimentos Bayesianos.
308

Modelos de resposta ao item com função de ligação t - assimétrica.

Pinheiro, Alessandra Noeli Craveiro 20 April 2007 (has links)
Made available in DSpace on 2016-06-02T20:05:59Z (GMT). No. of bitstreams: 1 DissANCP.pdf: 696592 bytes, checksum: 1733e6a92a2421365932309fcb98d372 (MD5) Previous issue date: 2007-04-20 / The Item Response Theory (IRT) is a set of mathematical models representing the probability of an individual to take a correct response of an item and its ability. The purpose of our research is to show the models formulated in the IRT under the skew-normal distributions and to develop flexible alternative models. With this goal in mind we introduced the t-skew distributions (Azzalini et al. 1999) and results similar to Bazan s results are obtained. Some applications using Bayesian methods are also considered. / A Teoria de Resposta ao Item (TRI) e um conjunto de modelos matematicos que representam a probabilidade de um indivıduo dar uma resposta certa a um item (questao) como funcao dos parametros do item e da habilidade do indivıduo. O objetivo de nossa pesquisa e apresentar os modelos propostos na TRI normal assimetrica e desenvolver modelos alternativos mais flexıveis. Com esta finalidade em mente, introduzimos a distribuicao t-assimetrica (Azzalini e Capitanio 1999) e obtemos resultados similares aos obtidos por Bazan (2005). Algumas aplicacoes utilizando metodos bayesianos sao consideradas.
309

O processo de Poisson estendido e aplicações. / O processo de Poisson estendido e aplicações.

Salasar, Luis Ernesto Bueno 14 June 2007 (has links)
Made available in DSpace on 2016-06-02T20:05:59Z (GMT). No. of bitstreams: 1 DissLEBS.pdf: 1626270 bytes, checksum: c18112f89ed0a1eea09a198885cf2c2c (MD5) Previous issue date: 2007-06-14 / Financiadora de Estudos e Projetos / Abstract In this dissertation we will study how extended Poisson process can be applied to construct discrete probabilistic models. An Extended Poisson Process is a continuous time stochastic process with the state space being the natural numbers, it is obtained as a generalization of homogeneous Poisson process where transition rates depend on the current state of the process. From its transition rates and Chapman-Kolmogorov di¤erential equations, we can determine the probability distribution at any …xed time of the process. Conversely, given any probability distribution on the natural numbers, it is possible to determine uniquely a sequence of transition rates of an extended Poisson process such that, for some instant, the unidimensional probability distribution coincides with the provided probability distribution. Therefore, we can conclude that extended Poisson process is as a very ‡exible framework on the analysis of discrete data, since it generalizes all probabilistic discrete models. We will present transition rates of extended Poisson process which generate Poisson, Binomial and Negative Binomial distributions and determine maximum likelihood estima- tors, con…dence intervals, and hypothesis tests for parameters of the proposed models. We will also perform a bayesian analysis of such models with informative and noninformative prioris, presenting posteriori summaries and comparing these results to those obtained by means of classic inference. / Nesta dissertação veremos como o proceso de Poisson estendido pode ser aplicado à construção de modelos probabilísticos discretos. Um processo de Poisson estendido é um processo estocástico a tempo contínuo com espaço de estados igual ao conjunto dos números naturais, obtido a partir de uma generalização do processo de Poisson homogê- neo onde as taxas de transição dependem do estado atual do processo. A partir das taxas de transição e das equações diferenciais de Chapman-Kolmogorov pode-se determinar a distribuição de probabilidades para qualquer tempo …xado do processo. Reciprocamente, dada qualquer distribuição de probabilidades sobre o conjunto dos números naturais é pos- sível determinar, de maneira única, uma seqüência de taxas de transição de um processo de Poisson estendido tal que, para algum instante, a distribução unidimensional do processo coincide com a dada distribuição de probabilidades. Portanto, o processo de Poisson es- tendido se apresenta como uma ferramenta bastante ‡exível na análise de dados discretos, pois generaliza todos os modelos probabilísticos discretos. Apresentaremos as taxas de transição dos processos de Poisson estendido que ori- ginam as distribuições de Poisson, Binomial e Binomial Negativa e determinaremos os estimadores de máxima verossimilhança, intervalos de con…ança e testes de hipóteses dos parâmetros dos modelos propostos. Faremos também uma análise bayesiana destes mod- elos com prioris informativas e não informativas, apresentando os resumos a posteriori e comparando estes resultados com aqueles obtidos via inferência clássica.
310

Um modelo de risco proporcional dependente do tempo

Parreira, Daniela Ribeiro Martins 30 March 2007 (has links)
Made available in DSpace on 2016-06-02T20:06:00Z (GMT). No. of bitstreams: 1 1662.pdf: 571364 bytes, checksum: 6091268473b4a7cb920748fd364c2a99 (MD5) Previous issue date: 2007-03-30 / Survival data analysis models is used to study experimental data where, normally, the variable "answer"is the time passed until an event of interest. Many authors do prefer modeling survival data, in the presence of co-variables, by using a hazard function - which is related with its interpretation. The Cox model (1972) - most commonly used by the authors - is applicable when the fail rates are proportional. This model is very flexible and used in the survival analysis. It can be easily extended to, for example, incorporate the time-dependent co-variables. In the present work we propose a proportional risk model which incorporates a time-dependent parameter named "time-dependent proportional risk model". / A análise de sobrevivência tem por objetivo estudar dados de experimento em que a variável resposta é o tempo até a ocorrência de um evento de interesse. Vários autores têm preferido modelar dados de sobrevivência na presença de covariáveis por meio da função de risco, fato este relacionado à sua interpretação. Ela descreve como a probabilidade instantânea de falha se modifca com o passar do tempo. Nesse contexto, um dos modelos mais utilizados é o modelo de Cox (Cox, 1972), onde a suposição básica para o seu uso é que as taxas de falhas sejam proporcionais. O modelo de riscos proporcionais de Cox é bastante flexível e extensivamente usado em análise de sobrevivência. Ele pode ser facilmente estendido para incorporar, por exemplo, o efeito de covariáveis dependentes do tempo. Neste estudo, propõe-se um modelo de risco proporcional, que incorpora um parâmetro dependente do tempo, denominado modelo de risco proporcional dependente do tempo. Uma análise clássica baseada nas propriedades assintóticas dos estimadores de máxima verossimilhança dos parâmetros envolvidos é desenvolvida, bem como um estudo de simulação via técnicas de reamostragem para estimação intervalar e testes de hipóteses dos parâmetros do modelo. É estudado o custo de estimar o efeito da covariável quando o parâmetro que mede o efeito do tempo é considerado na modelagem. E, finalizando, apresentamos uma abordagem do ponto de vista Bayesiano.

Page generated in 0.0574 seconds