• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 122
  • 19
  • 18
  • 18
  • 17
  • 13
  • 12
  • 5
  • 5
  • 5
  • 5
  • 1
  • Tagged with
  • 137
  • 137
  • 137
  • 79
  • 77
  • 42
  • 30
  • 23
  • 23
  • 22
  • 22
  • 21
  • 21
  • 21
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Dynamic bayesian statistical models for the estimation of the origin-destination matrix

Pitombeira Neto, Anselmo Ramalho 29 June 2015 (has links)
PITOMBEIRA NETO, A. R. Dynamic bayesian statistical models for the estimation of the origin-destination matrix. 2015. 101 f. Tese (Doutorado em Engenharia de Transportes) – Centro de Tecnologia, Universidade Federal do Ceará, Fortaleza, 2015. / Submitted by Marlene Sousa (mmarlene@ufc.br) on 2015-07-14T12:20:03Z No. of bitstreams: 1 2015_tese_arpitombeiraneto.pdf: 2121783 bytes, checksum: f0246de3974b017d77474279b6e4c702 (MD5) / Approved for entry into archive by Marlene Sousa(mmarlene@ufc.br) on 2015-07-17T14:15:30Z (GMT) No. of bitstreams: 1 2015_tese_arpitombeiraneto.pdf: 2121783 bytes, checksum: f0246de3974b017d77474279b6e4c702 (MD5) / Made available in DSpace on 2015-07-17T14:15:30Z (GMT). No. of bitstreams: 1 2015_tese_arpitombeiraneto.pdf: 2121783 bytes, checksum: f0246de3974b017d77474279b6e4c702 (MD5) Previous issue date: 2015-06-29 / In transportation planning, one of the first steps is to estimate the travel demand. A product of the estimation process is the so-called origin-destination matrix (OD matrix), whose entries correspond to the number of trips between pairs of zones in a geographic region in a reference time period. Traditionally, the OD matrix has been estimated through direct methods, such as home-based surveys, road-side interviews and license plate automatic recognition. These direct methods require large samples to achieve a target statistical error, which may be technically or economically infeasible. Alternatively, one can use a statistical model to indirectly estimate the OD matrix from observed traffic volumes on links of the transportation network. The first estimation models proposed in the literature assume that traffic volumes in a sequence of days are independent and identically distributed samples of a static probability distribution. Moreover, static estimation models do not allow for variations in mean OD flows or non-constant variability over time. In contrast, day-to-day dynamic models are in theory more capable of capturing underlying changes of system parameters which are only indirectly observed through variations in traffic volumes. Even so, there is still a dearth of statistical models in the literature which account for the day-today dynamic evolution of transportation systems. In this thesis, our objective is to assess the potential gains and limitations of day-to-day dynamic models for the estimation of the OD matrix based on link volumes. First, we review the main static and dynamic models available in the literature. We then describe our proposed day-to-day dynamic Bayesian model based on the theory of linear dynamic models. The proposed model is tested by means of computational experiments and compared with a static estimation model and with the generalized least squares (GLS) model. The results show some advantage in favor of dynamic models in informative scenarios, while in non-informative scenarios the performance of the models were equivalent. The experiments also indicate a significant dependence of the estimation errors on the assignment matrices
2

Identificação Automática de Situações de Emergência Através de Técnicas de Fusão de Sinais Vitais e de Movimentos

MARTINS, V. R. 15 April 2008 (has links)
Made available in DSpace on 2016-08-29T15:32:30Z (GMT). No. of bitstreams: 1 tese_2743_DissertacaoMestradoViniciusRuizMartins.pdf: 3194018 bytes, checksum: 9972e4e2a7cfa2d02f816ce78db42204 (MD5) Previous issue date: 2008-04-15 / O objetivo principal do presente trabalho é o desenvolvimento de uma plataforma multimodal para monitoramento de pessoas idosas e/ou com problemas cardíacos, sendo também objeto do trabalho o desenvolvimento de um programa de simulação de dados fisiológicos. É proposto um sistema para identificação automática de situações de urgência baseado no emprego de redes probabilísticas (com o uso da técnica Rede Bayesiana) para a fusão de sinais vitais e de movimento, fornecidos por um sistema de telemonitoramento de pacientes em domicílio, chamado TELEPAT. São mostradas as vantagens de se utilizar redes probabilísticas, além da metodologia utilizada para se obter a classificação dos sinais dos sensores. Finalmente, o emprego desse sistema como uma importante ferramenta para auxiliar pacientes idosos ou pacientes com problemas cardíacos é demonstrado através de experimentos. Para a constituição de bases de dados fisiológicos sintéticos foi desenvolvido um programa de simulação de dados, a partir de sinais normais perturbados artificialmente, de acordo com os perfis de situações alarmantes. Os sinais simulados podem ser utilizados nas etapas de treinamento e teste da Rede Bayesiana para fusão de dados, além de servirem para outros programas, com outras finalidades. Os programas, tanto de simulação quanto de fusão de dados, foram desenvolvidos em ambiente Matlab.
3

Avaliação de políticas macroprudenciais em um modelo novo Keynesiano com Intermediação financeira

Brandi, Vinicius Ratton 05 1900 (has links)
Tese (doutorado)—Universidade de Brasília, Departamento de Economia, 2013. / Submitted by Alaíde Gonçalves dos Santos (alaide@unb.br) on 2013-11-06T10:34:04Z No. of bitstreams: 1 2013_ViniciusRattonBrandi.pdf: 2252623 bytes, checksum: df37eca7ed86771d0a09e860c73c4bf4 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2013-11-12T09:52:51Z (GMT) No. of bitstreams: 1 2013_ViniciusRattonBrandi.pdf: 2252623 bytes, checksum: df37eca7ed86771d0a09e860c73c4bf4 (MD5) / Made available in DSpace on 2013-11-12T09:52:51Z (GMT). No. of bitstreams: 1 2013_ViniciusRattonBrandi.pdf: 2252623 bytes, checksum: df37eca7ed86771d0a09e860c73c4bf4 (MD5) / A recente crise financeira internacional despertou o debate acadêmico para a necessidade de incorporação de fricções financeiras na investigação sobre as flutuações econômicas e a eficiência alocativa da economia. No âmbito da regulação financeira, as medidas macroprudenciais ganharam maior destaque como instrumento na busca pela estabilidade financeira. O objetivo desta tese de doutorado consiste em avaliar a aplicação de determinadas políticas macroprudenciais com base em um modelo novo keynesiano que incorpora a atividade de intermediação financeira com fricções financeiras e custos de ajustamento. O modelo é estimado por método bayesiano com base em dados da economia brasileira. Por se tratar de um tema relativamente novo e que envolve pouca experiência prática, a literatura apresenta mais questões e desafios em relação à sua implementação do que soluções e respostas conclusivas. Neste debate que compreende as mais diversas questões envolvendo o papel e a implementação das políticas macroprudenciais, este trabalho traz contribuições que buscam esclarecer os efeitos de determinados instrumentos de regulação macroprudencial sobre variáveis macroeconômicas e financeiras. No que concerne ao requerimento de capital contracíclico, estende-se a análise para avaliar a contribuição desse instrumento específico para o alcance dos objetivos perseguidos pela autoridade prudencial e, ainda, a coordenação com os objetivos da autoridade monetária. _______________________________________________________________________________________ ABSTRACT / The recent international financial crisis has made clear that the academic debate should incorporate financial frictions to investigate business cycle fluctuations and allocative efficiency. At the financial regulation side, macroprudential measures have gained a growing importance as an instrument in the search for financial stability. The main objective of this thesis consists in the evaluation of the role of specific macroprudential policies within a new keynesian model incorporating a financial system with frictions and adjustment costs. Parameters are estimated based on bayesian methods and time series from the Brazilian economy. As a relatively new literature, the debate is more populated by questions and challenges than by conclusive answers. In this broad debate, this work aims to contribute for the understanding of the effects of some macroprudential policy instruments over relevant macroeconomic and financial variables. In what concerns specifically the countercyclical capital buffer, the analysis is extended to evaluate its contributions to the objectives pursued by the prudenctial authority and, also, its coordination with monetary authority ones.
4

Power of QTL mapping of different genome-wide association methods for traits under different genetic structures : a simulation study /

Garcia Neto, Baltasar Fernandes. January 2018 (has links)
Orientador: Roberto Carvalheiro / Banca: Ricardo Vieira Ventura / Banca: Danísio Prado Munari / Abstract: The complexity of the traits that can present different genetic structures, such as polygenic or affected by genes of major effect, in addition to different heritabilities, among other factors, make the detection of QTLs challenging. Several methods have been employed with the purpose of performing genome wide association studies (GWAS), aiming the mapping of QTL. The single-step weighted GBLUP (wssGBLUP) method, for example, is an alternative to GWAS, which allows the simultaneous use of genotypic, pedigree and phenotypic information, even from non-genotyped animals. Bayesian methods are also used to perform GWAS, starting from the basic premise that the observed variance can vary at each locus with a specific priori distribution. The objective of the present study was to evaluate, through simulation, which methods, among the evaluated ones, more assist in the identification of QTLs for polygenic and major gene affected traits, presenting different heritabilities. We used the following methods: wssGBLUP, with or without additional phenotypic information from non-genotyped animals and two different weights for markers, where w1 represented the same weight (w1=1) and w2 the weight calculated according to the previous iteration process (w1); Bayes C, assuming two values for π (π = 0.99 and π = 0.999), where π is the proportion of SNPs not included in the model, and Bayesian LASSO. The results showed that for polygenic scenarios the detection power is lower and the additional us... (Complete abstract click electronic access below) / Resumo: A complexidade das características que podem apresentar diferentes estruturas de ação gênica como, por exemplo, poligênicas ou afetadas por genes de efeito maior, aliado a diferentes herdabilidades, entre outros fatores, tornam a detecção de QTLs desafiadora. Diversos métodos têm sido empregados com o intuito de realizar estudos de associação ampla do genoma (GWAS), objetivando o mapeamento de QTL. A metodologia weighted single-step GBLUP (wssGBLUP), por exemplo, é uma alternativa para a realização de GWAS, que permite o uso simultâneo de informações genotípicas, de pedigree e fenotípicas, mesmo de animais não genotipados. Métodos Bayesianos também são utilizados para a realização de GWAS, partindo da premissa básica de que a variância observada pode variar em cada locus em uma distribuição a priori específica. O objetivo do presente estudo foi avaliar, por meio de simulações, quais métodos, dentre os avaliados, mais auxiliaria na identificação de QTLs para características poligênicas e afetadas por genes de efeito maior, apresentando diferentes herdabilidades. Utilizamos os métodos: wssGBLUP, com a inclusão ou não de informação adicional fenotípica de animais não genotipados e dois distintos ponderadores para os marcadores, onde w1 representou a mesma ponderação (w1=1) e w2 a ponderação calculada de acordo com o processo de iteração anterior (w1) ; Bayes C, assumindo dois valores para π (π=0.99 and π=0.999), onde π é a proporção de SNPs não incluída no modelo, além do LASSO ... (Resumo completo, clicar acesso eletrônico abaixo) / Mestre
5

Abordagem bayesiana e modelos mistos para experimentos multiambientes na cultura da soja /

Silva, Alysson Jalles da. January 2017 (has links)
Orientador: Antonio Orlando Di Mauro / Resumo: A utilização da abordagem Bayesiana pode permitir maior eficiência na aplicação de modelos complexos no melhoramento de plantas, tendo em vista a disponibilidade da computação com alto poder de processamento de dados. Objetivou-se neste estudo a obtenção de valores genéticos pela abordagem Bayesiana, comparando com a inferência frequentista (modelos mistos, lsmeans e médias aritméticas simples), em experimentos multiambientes na cultura da soja. Foram avaliadas 51 linhagens de soja e mais 4 testemunhas no delineamento em blocos casualizados em 6 ambientes com 3 repetições para a característica produtividade de grãos da soja kg.ha-1. Os parâmetros de interesse foram obtidos com o método de Monte Carlo via cadeias de Markov (MCMC) na obtenção de amostras da distribuição a posteriori conjunta. Como informação a priori foram utilizadas as distribuições half-normal a partir dos valores da variância de 18 genótipos de experimentos anteriores e relacionados, bem como a distribuição uniforme. Os valores genotípicos pela abordagem Bayesiana diferiram das médias com a inferência frequentista (modelos mistos, lsmeans e médias aritméticas simples), em experimentos multiambientes na cultura da soja, para os genótipos com alta e baixa produção de grãos. Para os demais casos os quatro métodos testados foram equivalentes. A abordagem Bayesiana com informações a priori derivadas de experimentos anteriores com soja pode ser utilizada nas análises no melhoramento genético dessa cultura. O métod... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: The Bayesian approach can allow higher efficiency in solving complex models in plant breeding especially with the availability of computing with high-powered data processing. This study aimed to obtain genetic values using Bayesian approach and to compare with frequentist inference (mixed models, lsmeans and simple arithmetic mean) to multienvironment trials in soybean. We evaluated 51 soybean lines and 4 more checks in a randomized complete block design in 6 environments with 3 replications to soybean grain yield kg.ha-1. The parameters of interest were obtained with the method of Monte Carlo Markov chains (MCMC) to obtain samples of the joint posterior distribution. As a priori information the half-normal distribution was used from the values of the variance of 18 genotypes from previous and related experiments as well as the uniform distribution. The genotypic values via Bayesian approach differed from the average with frequentist inference in multienvironment trials in soybean, for genotypes with high and low grain yield. In the other cases the four tested methods were equivalents. The Bayesian approach with priori information derived from previous experiments of soybean can be used in genetic breeding of this crop. The method of mixed models (REML/BLUP) showed slightly different values of means and genetic parameters of the Bayesian method to average heritability (h2mg), accuracy of genotypes selection (Acgen), coefficient of genetic variation (CVgi%) and coefficien... (Complete abstract click electronic access below) / Doutor
6

Dynamic bayesian statistical models for the estimation of the origin-destination matrix / Dynamic bayesian statistical models for the estimation of the origin-destination matrix / Dynamic bayesian statistical models for the estimation of the origin-destination matrix

Anselmo Ramalho Pitombeira Neto 29 June 2015 (has links)
In transportation planning, one of the first steps is to estimate the travel demand. A product of the estimation process is the so-called origin-destination matrix (OD matrix), whose entries correspond to the number of trips between pairs of zones in a geographic region in a reference time period. Traditionally, the OD matrix has been estimated through direct methods, such as home-based surveys, road-side interviews and license plate automatic recognition. These direct methods require large samples to achieve a target statistical error, which may be technically or economically infeasible. Alternatively, one can use a statistical model to indirectly estimate the OD matrix from observed traffic volumes on links of the transportation network. The first estimation models proposed in the literature assume that traffic volumes in a sequence of days are independent and identically distributed samples of a static probability distribution. Moreover, static estimation models do not allow for variations in mean OD flows or non-constant variability over time. In contrast, day-to-day dynamic models are in theory more capable of capturing underlying changes of system parameters which are only indirectly observed through variations in traffic volumes. Even so, there is still a dearth of statistical models in the literature which account for the day-today dynamic evolution of transportation systems. In this thesis, our objective is to assess the potential gains and limitations of day-to-day dynamic models for the estimation of the OD matrix based on link volumes. First, we review the main static and dynamic models available in the literature. We then describe our proposed day-to-day dynamic Bayesian model based on the theory of linear dynamic models. The proposed model is tested by means of computational experiments and compared with a static estimation model and with the generalized least squares (GLS) model. The results show some advantage in favor of dynamic models in informative scenarios, while in non-informative scenarios the performance of the models were equivalent. The experiments also indicate a significant dependence of the estimation errors on the assignment matrices. / In transportation planning, one of the first steps is to estimate the travel demand. A product of the estimation process is the so-called origin-destination matrix (OD matrix), whose entries correspond to the number of trips between pairs of zones in a geographic region in a reference time period. Traditionally, the OD matrix has been estimated through direct methods, such as home-based surveys, road-side interviews and license plate automatic recognition. These direct methods require large samples to achieve a target statistical error, which may be technically or economically infeasible. Alternatively, one can use a statistical model to indirectly estimate the OD matrix from observed traffic volumes on links of the transportation network. The first estimation models proposed in the literature assume that traffic volumes in a sequence of days are independent and identically distributed samples of a static probability distribution. Moreover, static estimation models do not allow for variations in mean OD flows or non-constant variability over time. In contrast, day-to-day dynamic models are in theory more capable of capturing underlying changes of system parameters which are only indirectly observed through variations in traffic volumes. Even so, there is still a dearth of statistical models in the literature which account for the day-today dynamic evolution of transportation systems. In this thesis, our objective is to assess the potential gains and limitations of day-to-day dynamic models for the estimation of the OD matrix based on link volumes. First, we review the main static and dynamic models available in the literature. We then describe our proposed day-to-day dynamic Bayesian model based on the theory of linear dynamic models. The proposed model is tested by means of computational experiments and compared with a static estimation model and with the generalized least squares (GLS) model. The results show some advantage in favor of dynamic models in informative scenarios, while in non-informative scenarios the performance of the models were equivalent. The experiments also indicate a significant dependence of the estimation errors on the assignment matrices. / In transportation planning, one of the first steps is to estimate the travel demand. A product of the estimation process is the so-called origin-destination matrix (OD matrix), whose entries correspond to the number of trips between pairs of zones in a geographic region in a reference time period. Traditionally, the OD matrix has been estimated through direct methods, such as home-based surveys, road-side interviews and license plate automatic recognition. These direct methods require large samples to achieve a target statistical error, which may be technically or economically infeasible. Alternatively, one can use a statistical model to indirectly estimate the OD matrix from observed traffic volumes on links of the transportation network. The first estimation models proposed in the literature assume that traffic volumes in a sequence of days are independent and identically distributed samples of a static probability distribution. Moreover, static estimation models do not allow for variations in mean OD flows or non-constant variability over time. In contrast, day-to-day dynamic models are in theory more capable of capturing underlying changes of system parameters which are only indirectly observed through variations in traffic volumes. Even so, there is still a dearth of statistical models in the literature which account for the day-today dynamic evolution of transportation systems. In this thesis, our objective is to assess the potential gains and limitations of day-to-day dynamic models for the estimation of the OD matrix based on link volumes. First, we review the main static and dynamic models available in the literature. We then describe our proposed day-to-day dynamic Bayesian model based on the theory of linear dynamic models. The proposed model is tested by means of computational experiments and compared with a static estimation model and with the generalized least squares (GLS) model. The results show some advantage in favor of dynamic models in informative scenarios, while in non-informative scenarios the performance of the models were equivalent. The experiments also indicate a significant dependence of the estimation errors on the assignment matrices.
7

Análise Bayesiana para a distribuição Exponencial-Logarítmica

Garcia, Lívia Matos [UNESP] 26 September 2013 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:27:09Z (GMT). No. of bitstreams: 0 Previous issue date: 2013-09-26Bitstream added on 2014-06-13T20:35:13Z : No. of bitstreams: 1 garcia_lm_me_prud.pdf: 1906128 bytes, checksum: 64b495d9df86af5176ab0d42da0461ad (MD5) / A Exponencial-Logarítmica (EL(p; )) é uma distribuição para modelos de sobrevivência com taxa de falha decrescente. Esta distribuição pode ser usada para estudar os tempos de vida de organismos, materiais, dispositivos, etc, em ciências biológicas e na engenharia. Neste trabalho foram utilizadas as abordagens Clássica e Bayesiana para inferir sobre os parâmetros do modelo com conjunto de dados completos e censurados. A abordagem Bayesiana requer a seleção de distribuições a priori para os parâmetros do modelo. No caso onde há informação dos dados, foram escolhidas distribuições a priori não-informativas. Por outro lado, quando há poucos dados e/ou são dados censurados, torna-se necessária uma priori informativa obtida a partir das informações de um especialista. Neste trabalho propôs-se uma priori informativa elicitada através de informações de especialistas e derivada da aproximação de Laplace. Portanto, a análise Bayesiana foi realizada considerando os dois tipos de distribuição a priori: informativa e não-informativa. As distribuições a priori não-informativas usadas foram: priori de Jeffreys (Jeffreys (1967)), priori de Referência (Berger and Bernardo (1992)), priori de Máxima Informação dos Dados (Zellner (1977)) e priori derivada da função Cópula (Achcar et al. (2010)). Estas distribuições a priori também foram comparadas com outras distribuições a priori comuns, tais como Beta, Gama e Uniforme. A fim de avaliar o desempenho das distribuições a priori, foi apresentado um estudo comparativo utilizando dados simulados a partir da distribuição EL(p; ) e um conjunto de dados reais introduzido por Lawless (1982). Utilizou-se o algoritmo MCMC para obter uma amostra de valores da posteriori conjunta, a fim de extrair características das distribuições posteriores marginais, tais como médias a posteriori, moda e intervalos de credibilidade / The Exponential-Logarithmic, denoted by EL(p; ), is a lifetime distribution with decreasing failure rate. This distribution can be used to study the lengths of organisms, devices, materials, etc., in the biological and engineering sciences. In this dissertation we use classical and Bayesian approaches to make inferences for the parameters of the model under complete and censored data set. Bayesian approach requires the selection of prior distributions for all parameters of the model. In this case, we will seek to choose a noninformative prior that provides best estimation when there is absence of information or with large data set and uncensored data. On the other hand, when there is few data to use or presence of censored data, an informative prior obtained from the expert’s information is necessary. We propose an informative prior elicited from the expert’s opinion and derived though Laplace’s approximation. Thus, we carry out the Bayesian estimation by considering the two types of prior distributions. Different noninformative prior distributions are used as Jeffreys (Jeffreys (1967)), Reference (Berger and Bernardo (1992)), maximal data information prior (Zellner (1977)) and prior derived from copula function (Achcar et al. (2010)). These priors are also compared with other common priors such as beta, gamma, and uniform distributions. A comparative study to evaluate the performance of the prior distributions through simulated data from the EL(p; ) distribution and a practical data set introduced by Lawless (1982) presented. We also need to appeal to the MCMC algorithm to obtain a sample of values of and from the joint posterior in order to extract characteristics of marginal posterior distributions such as Bayes estimator, mode and credible intervals
8

Análise clássica e bayesiana do modelo Weibull modificado generalizado

Niiyama, Clóvis Augusto [UNESP] 06 September 2013 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:27:09Z (GMT). No. of bitstreams: 0 Previous issue date: 2013-09-06Bitstream added on 2014-06-13T20:35:14Z : No. of bitstreams: 1 niiyama_ca_me_prud.pdf: 2194202 bytes, checksum: 1d4085451f5927aafb1646af4b09ac61 (MD5) / Na literatura existem varias distribuições de probabilidade utilizadas em confiabilida e analise de sobrevivência. Entre as famílias de distribuições utilizadas para este fim é a mais popular e a distribuição de Weibull cuja fução de risco apresenta formas: constante, crescente e decrescente. No entanto, quando a função de risco e do tipo unimodal ou em forma de banheira, a Weibull distribui c~ao n~ao e apropriada. Assim, nos ultimos anos, t em sido propostas novas distribui c~oes que acomodam as v arias formas que a fun c~ao de risco pode tomar e consequentemente, para se ajustar a um maior n umero de problemas pr aticos. Carrasco et al. (2008) prop os uma nova distribui c~ao chamada Weibull Modi cada Generalizada, denotada por WMG, sua fun c~ao de risco pode assumir muitas formas, tais como constante, crescente, decrescente, unimodal e banheira. A distribui c~ao Weibull Modi cada Generalizada proposta por Carrasco, Ortega e Cordeiro (2008) foi amplamente estudada no contexto de infer encia cl assica, por em n~ao existem ainda trabalhos desenvolvidos na literatura sob o enfoque Bayesiano. O objetivo deste trabalho foi realizar uma compara c~ao entre os m etodos de estima c~ao cl assico e Bayesiano para a distribui c~ao Weibull Modi cada Generalizada. Tal distribui c~ao ainda tem como sub-modelos as distribui c~oes Exponencial, Exponencial Generalizada, Weibull, Weibull Modi cada, Weibull Exponenciada e valor extremo. Foram realizados estudos sobre as propriedades da distribui c~aoWeibull Modi cada Generalizada e simula c~oes para comparar o desempenho dos estimadores de m axima verossimilhan ca e Bayesiano. Uma abordagem Cl assica e Bayesiana para a esta distribui c~ao foi proposta e exempli cada, modelando conjunto de dados de sobreviv encia e de con abilidade / In the literature there are various probability distributions to model lifetimes of equipment or individual problems in survival analysis. Among the families of distributions used for this purpose, the most popular is the Weibull distribution whose hazard function presents constant, increasing and decreasing forms. However, when the hazard function is the type unimodal or bathtub shaped, the Weibull distribution is not appropriated. Thus, in recent years, there have been proposed new distributions that t the various forms that the hazard function can take and consequently to t a greater number of practical problems. Carrasco et al. (2008) has proposed a new distribution called Generalized Modi ed Weibull, denoted by GMW, whose hazard function can take many forms such as constant, increasing, decreasing, unimodal and bathtub. The Generalized Modi ed Weibull distribution proposed by Carrasco, Ortega e Cordeiro (2008) was most studied in the context of classical inference. However, no studies were found under the Bayesian approach. The aim of this work was to do a comparison of estimation methods for classical and Bayesian Generalized Modi ed Weibull distribution. The Generelized Modi ed Weibull distribuition has a function of risk that can be increasing, decreasing, unimodal and bathtub shaped and has as sub-models Exponential distributions, Exponentiated Exponential, Weibull, Modi ed Weibull, Exponentiated Weibull and extreme value. It was performed the properties of Generalized Modi ed Weibull distribution and a simulation study to compare the performance of maximum likelihood estimator and Bayesian estimator. Classical and Bayesian approach to this distribution was proposed and exempli ed, modeling data sets of survival and reliability
9

Inversão sísmica bayesiana com modelagem a priori integrada com física de rocha

Figueiredo, Leandro Passos de January 2017 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro de Ciências Físicas e Matemáticas, Programa de Pós-Graduação em Física, Florianópolis, 2017. / Made available in DSpace on 2018-02-13T03:08:58Z (GMT). No. of bitstreams: 1 349925.pdf: 18871539 bytes, checksum: 846f4adbd4a9aeda130790b9d6286edf (MD5) Previous issue date: 2017 / A inversão sísmica conjunta para as propriedades elásticas e petrofísicas é um problema inverso com solução não única. Existem vários fatores que afetam a precisão dos resultados como a relação estatística de física de rocha, os erros dos dados experimentais e de modelagem. Apresentamos uma metodologia para incorporar um modelo linearizado de física de rocha em uma distribuição Gaussiana multivariada. A proposta é usada para definir um modelo de mistura Gaussiana para a distribuiçãoconjunta a priori das propriedades elásticas e petrofísicas, no qual cada componente é interpretada como uma litofácies. Este processo permite introduzir uma correlação teórica entre as propriedades, com interpretação geológica específica dos parâmetros da física de rocha para cada fácies. Com base nesta modelagem a priori e no modelo convolucional, obtemos analiticamente as distribuições condicionais da amostragem de Gibbs. Em seguida, combinamos o algoritmo de amostragem com métodos de simulação geoestatística para obter a distribuição a posteriori de Bayes. Aplicamos a proposta em um conjunto de dados sísmicos reais, com três poços, para obter múltiplas realizações geoestatísticas tridimensionais das propriedades e das litofácies. A proposta é validada através de testes de poço cego e comparações com a inversão Bayesiana tradicional. Usando a probabilidade das litofácies, também calculamos a isosuperfície de probabilidade do reservatório de óleo principal do campo estudado. Além da proposta de inversão sísmica conjunta, apresentamos também uma formulação revisitada para o método de simulação geoestatística FFT-Moving Average. Nessa formulação, o filtro de correlação é derivado através de apenas um único ruído aleatório, o que permite a aplicação do método sem qualquer suposição sobre as características do ruído. / Abstract : Joint seismic inversion for elastic and petrophysical properties is an inverse problem with a nonunique solution. There are several factors that affect the accuracy of the results such as the statistical rock-physics relation and observation errors. We present a general methodology to incorporate a linearized rock-physics model into a multivariate Gaussian distribution. The proposal is used to define a Gaussian mixture model for the joint prior distribution of the elastic and petrophysical properties, in which each component is interpreted as a lithofacies. This process allows to introduce a theoretical correlation between the properties with specific geological interpretation for the rock physicsparameters of each facies. Based on the prior model and on the convolutional model, we analytically obtain the conditional distributions of the Gibbs sampling. Then, we combine the sampling algorithm with geostatistical simulation methods to calculate the Bayesian posterior distribution. We applied the proposal to a real seismic data set with three wells to obtain multiple three-dimensional geostatistical simulations of the properties and the lithofacies. The proposal is validated through a blind well test and a comparison with the traditional Bayesian inversion. Using the probability of the reservoir lithofacies, we also calculated a 3D isosurface probability model of the main oil reservoir in the studied field.
10

Bayesianismo e o problema da indução : uma avaliação crítica da abordagem de Colin Howson /

Souza, Pedro Bravo de. January 2018 (has links)
Orientador: Marcos Antonio Alves / Banca: Rodrigo Martins Borges / Banca: Hércules Araújo de Feitosa / Resumo: Objetivamos avaliar a razoabilidade da abordagem bayesiana de Colin Howson ao problema da indução, tal como formulado por David Hume. Propomos que uma abordagem ao problema da indução será razoável se nossa compreensão da indução não regride em relação àquela fornecida por Hume. Por sua vez, o bayesianismo é uma corrente teórica derivada da adoção das teses conhecidas como gradualismo, probabilismo e revisão pela condicionalização; seu mérito é fornecer um modelo para representar e atualizar graus de crença. Em seu turno, o problema da indução configura-se como a busca para justificar racionalmente argumentos indutivos, tendo em vista a tese humeana segundo a qual é impossível fazê-lo, seja mediante argumentos demonstrativos, seja mediante argumentos prováveis. Para satisfazer a nosso objetivo, esta Dissertação divide-se em quatro capítulos. No primeiro capítulo, expomos o problema da indução e como Howson o interpreta. No segundo capítulo, comentamos propostas de solução ao problema da indução analisadas por ele. No terceiro capítulo, introduzimos conceitos e teses de probabilidade e bayesianismo. No quarto capítulo, apresentamos, em primeiro lugar, as teses específicas de Howson em relação ao problema da indução; em segundo lugar, criticamos sua interpretação de Hume, suas objeções a outras abordagens e sua própria proposta; finalmente, averiguamos a sua razoabilidade. Finalizamos o trabalho sintetizando as considerações realizadas. / Abstract: We aim to evaluate the reasonability of Colin Howson's bayesian approach to the problem of induction, as elaborated by David Hume. We propose that an approach to the problem of induction will be reasonable if our induction understanding does not regress in relation to that provided by Hume. In turn, bayesianism is a theoretical position derived from the adoption of gradualism, probabilism and conditionalization theses; its merit is to provide a model for representing and updating degrees of belief. The problem of induction is the search to rationally justify inductive arguments, due to the humean thesis according to which it is impossible to do so, neither through demonstrative arguments, nor through probable arguments. To achieve our goal, this Dissertation is divided into four chapters. In the first chapter, we expose the problem of induction and how Howson interprets it. In the second chapter, we discuss solutions to the problem of induction analyzed by him. In the third chapter, we introduce probability and bayesianism concepts and theses. In the fourth chapter, we present, first, Howson's specific theses regarding the problem of induction; second, we criticize his interpretation of Hume, his objections to other approaches, and his own proposal; finally, we examine whether it is reasonable or not. We finish this master's degree dissertation summarizing ours considerations. / Mestre

Page generated in 0.0737 seconds