• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 21
  • Tagged with
  • 21
  • 15
  • 9
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Arbitragem nos mercados financeiros: uma proposta bayesiana de verificação / Arbitrage in financial markets: a Bayesian approach for verification

Fernando Valvano Cerezetti 20 May 2013 (has links)
Hipóteses precisas são características naturais das teorias econômicas de determinação do valor ou preço de ativos financeiros. Nessas teorias, a precisão das hipóteses assume a forma do conceito de equilíbrio ou da não arbitragem. Esse último possui um papel fundamental nas teorias de finanças. Sob certas condições, o Teorema Fundamental do Apreçamento de Ativos estabelece um sistema único e coerente para valorização dos ativos em mercados não arbitrados, valendo-se para tal das formulações para processos de martingal. A análise da distribuição estatística desses ativos financeiros ajuda no entendimento de como os participantes se comportam nos mercados, gerando assim as condições para se arbitrar. Nesse sentido, a tese defendida é a de que o estudo da hipótese de não arbitragem possui contrapartida científica, tanto do lado teórico quanto do empírico. Utilizando-se do modelo estocástico Variância Gama para os preços dos ativos, o teste Bayesiano FBST é implementado com o intuito de se verificar a existência da arbitragem nos mercados, potencialmente expressa nos parâmetros destas densidades. Especificamente, a distribuição do Índice Bovespa é investigada, com os parâmetros risco-neutros sendo estimados baseandose nas opções negociadas no Segmento de Ações e no Segmento de Derivativos da BM&FBovespa. Os resultados aparentam indicar diferenças estatísticas significantes em alguns períodos de tempo. Até que ponto esta evidência é a expressão de uma arbitragem perene nesses mercados ainda é uma questão em aberto. / Precise hypotheses are natural characteristics of the economic theories for determining the value or prices of financial assets. Within these theories the precision is expressed in terms of equilibrium and non-arbitrage hypotheses. The former concept plays an essential role in the theories of finance. Under certain conditions, the Fundamental Theorem of Asset Pricing establishes a coherent and unique asset pricing framework in non-arbitraged markets, grounded on martingales processes. Accordingly, the analysis of the statistical distributions of financial assets can assist in understanding how participants behave in the markets, and may or may not engender conditions to arbitrage. On this regard, the dissertation proposes that the study of non-arbitrage hypothesis has a scientific counterparty, theoretically and empirically. Using a variance gamma stochastic model for prices, the Bayesian test FBST is conducted to verify the presence of arbitrage potentially incorporated on these densities parameters. Specifically, the Bovespa Index distribution is investigated, with risk neutral parameters estimated based on options traded in the Equities Segment and the Derivatives Segment at the BM&FBovespa Exchange. Results seem to indicate significant statistical differences at some periods of time. To what extent this evidence is actually the expression of a perennial arbitrage between the markets still is an open question.
12

Testes bayesianos para homogeneidade marginal em tabelas de contingência / Bayesian tests for marginal homogeneity in contingency tables

Helton Graziadei de Carvalho 06 August 2015 (has links)
O problema de testar hipóteses sobre proporções marginais de uma tabela de contingência assume papel fundamental, por exemplo, na investigação da mudança de opinião e comportamento. Apesar disso, a maioria dos textos na literatura abordam procedimentos para populações independentes, como o teste de homogeneidade de proporções. Existem alguns trabalhos que exploram testes de hipóteses em caso de respostas dependentes como, por exemplo, o teste de McNemar para tabelas 2 x 2. A extensão desse teste para tabelas k x k, denominado teste de homogeneidade marginal, usualmente requer, sob a abordagem clássica, a utilização de aproximações assintóticas. Contudo, quando o tamanho amostral é pequeno ou os dados esparsos, tais métodos podem eventualmente produzir resultados imprecisos. Neste trabalho, revisamos medidas de evidência clássicas e bayesianas comumente empregadas para comparar duas proporções marginais. Além disso, desenvolvemos o Full Bayesian Significance Test (FBST) para testar a homogeneidade marginal em tabelas de contingência bidimensionais e multidimensionais. O FBST é baseado em uma medida de evidência, denominada e-valor, que não depende de resultados assintóticos, não viola o princípio da verossimilhança e respeita a várias propriedades lógicas esperadas para testes de hipóteses. Consequentemente, a abordagem ao problema de teste de homogeneidade marginal pelo FBST soluciona diversas limitações geralmente enfrentadas por outros procedimentos. / Tests of hypotheses for marginal proportions in contingency tables play a fundamental role, for instance, in the investigation of behaviour (or opinion) change. However, most texts in the literature are concerned with tests that assume independent populations (e.g: homogeneity tests). There are some works that explore hypotheses tests for dependent proportions such as the McNemar Test for 2 x 2 contingency tables. The generalization of McNemar test for k x k contingency tables, called marginal homogeneity test, usually requires asymptotic approximations. Nevertheless, for small sample sizes or sparse tables, such methods may occasionally produce imprecise results. In this work, we review some classical and Bayesian measures of evidence commonly applied to compare two marginal proportions. We propose the Full Bayesian Significance Test (FBST) to investigate marginal homogeneity in two-way and multidimensional contingency tables. The FBST is based on a measure of evidence, called e-value, which does not depend on asymptotic results, does not violate the likelihood principle and satisfies logical properties that are expected from hypothesis testing. Consequently, the FBST approach to test marginal homogeneity overcomes several limitations usually met by other procedures.
13

Pesquisas sob amostragem informativa utilizando o FBST / Surveys under informative sampling using the FBST

Azerêdo, Daniel Mendes 28 May 2013 (has links)
Pfeffermann, Krieger e Rinott (1998) apresentaram uma metodologia para modelar processos de amostragem que pode ser utilizada para avaliar se este processo de amostragem é informativo. Neste cenário, as probabilidades de seleção da amostra são aproximadas por uma função polinomial dependendo das variáveis resposta e concomitantes. Nesta abordagem, nossa principal proposta é investigar a aplicação do teste de significância FBST (Full Bayesian Significance Test), apresentado por Pereira e Stern (1999), como uma ferramenta para testar a ignorabilidade amostral, isto é, para avaliar uma relação de significância entre as probabilidades de seleção da amostra e a variável resposta. A performance desta modelagem estatística é testada com alguns experimentos computacionais. / Pfeffermann, Krieger and Rinott (1998) introduced a framework for modeling sampling processes that can be used to assess if a sampling process is informative. In this setting, sample selection probabilities are approximated by a polynomial function depending on outcome and auxiliary variables. Within this framework, our main purpose is to investigate the application of the Full Bayesian Significance Test (FBST), introduced by Pereira and Stern (1999), as a tool for testing sampling ignorability, that is, to detect a significant relation between the sample selection probabilities and the outcome variable. The performance of this statistical modelling framework is tested with some simulation experiments.
14

Métodos estatísticos para a análise de bibliotecas digitais de expressão gênica. / Statistical methods for the analysis of digital libraries of gene expression

Varuzza, Leonardo 03 September 2008 (has links)
Esta tese trata da aplicação de técnicas de estatística para a resolução de problemas encontrados na análise de dados provenientes da área de biologia molecular -- mais especificamente, dados gerados por estudos de expressão gênica obtidos pela contagem de transcritos, também chamados de perfis digitais de expressão. / This thesis is about the analysis of gene expression data produced by transcript counting methods, also known as digital gene profiles.
15

Utilidade para testes de significância / Utility for significance tests

Moura, Nathália Demetrio Vasconcelos 16 May 2014 (has links)
Neste trabalho discutimos os principais argumentos da inferência bayesiana subjetivista. Posteriormente, a partir de uma revisão da literatura dos testes de hipóteses, os principais testes são analisados sob a ótica da teoria da decisão, particularmente no que tange às hipóteses precisas. Adicionalmente, funções de perda para testes de significância, seguindo a proposta de Fisher e do FBST, são analisadas e comparadas. / This work discusses the main points of the bayesian subjectivist inference. Posteriorly, from a literature review of hypothesis testing, the main approaches are interpreting from a decision-theoretic viewpoint, particularly regarding the precise hypotheses. Additionally, loss functions for tests of significance, following the proposal of Fisher and FBST, are analyzed and compared.
16

Utilidade para testes de significância / Utility for significance tests

Nathália Demetrio Vasconcelos Moura 16 May 2014 (has links)
Neste trabalho discutimos os principais argumentos da inferência bayesiana subjetivista. Posteriormente, a partir de uma revisão da literatura dos testes de hipóteses, os principais testes são analisados sob a ótica da teoria da decisão, particularmente no que tange às hipóteses precisas. Adicionalmente, funções de perda para testes de significância, seguindo a proposta de Fisher e do FBST, são analisadas e comparadas. / This work discusses the main points of the bayesian subjectivist inference. Posteriorly, from a literature review of hypothesis testing, the main approaches are interpreting from a decision-theoretic viewpoint, particularly regarding the precise hypotheses. Additionally, loss functions for tests of significance, following the proposal of Fisher and FBST, are analyzed and compared.
17

Pesquisas sob amostragem informativa utilizando o FBST / Surveys under informative sampling using the FBST

Daniel Mendes Azerêdo 28 May 2013 (has links)
Pfeffermann, Krieger e Rinott (1998) apresentaram uma metodologia para modelar processos de amostragem que pode ser utilizada para avaliar se este processo de amostragem é informativo. Neste cenário, as probabilidades de seleção da amostra são aproximadas por uma função polinomial dependendo das variáveis resposta e concomitantes. Nesta abordagem, nossa principal proposta é investigar a aplicação do teste de significância FBST (Full Bayesian Significance Test), apresentado por Pereira e Stern (1999), como uma ferramenta para testar a ignorabilidade amostral, isto é, para avaliar uma relação de significância entre as probabilidades de seleção da amostra e a variável resposta. A performance desta modelagem estatística é testada com alguns experimentos computacionais. / Pfeffermann, Krieger and Rinott (1998) introduced a framework for modeling sampling processes that can be used to assess if a sampling process is informative. In this setting, sample selection probabilities are approximated by a polynomial function depending on outcome and auxiliary variables. Within this framework, our main purpose is to investigate the application of the Full Bayesian Significance Test (FBST), introduced by Pereira and Stern (1999), as a tool for testing sampling ignorability, that is, to detect a significant relation between the sample selection probabilities and the outcome variable. The performance of this statistical modelling framework is tested with some simulation experiments.
18

Métodos estatísticos para a análise de bibliotecas digitais de expressão gênica. / Statistical methods for the analysis of digital libraries of gene expression

Leonardo Varuzza 03 September 2008 (has links)
Esta tese trata da aplicação de técnicas de estatística para a resolução de problemas encontrados na análise de dados provenientes da área de biologia molecular -- mais especificamente, dados gerados por estudos de expressão gênica obtidos pela contagem de transcritos, também chamados de perfis digitais de expressão. / This thesis is about the analysis of gene expression data produced by transcript counting methods, also known as digital gene profiles.
19

Inferência bayesiana objetiva e freqüentista para a probabilidade de sucesso

Pires, Rubiane Maria 10 February 2009 (has links)
Made available in DSpace on 2016-06-02T20:06:02Z (GMT). No. of bitstreams: 1 2203.pdf: 1300161 bytes, checksum: 2c1f11d939eab9ab849bb04bf2363a53 (MD5) Previous issue date: 2009-02-10 / Financiadora de Estudos e Projetos / This study considers two discrete distributions based on Bernoulli trials: the Binomial and the Negative Binomial. We explore credibility and confidence intervals to estimate the probability of success of each distribution. The main goal is to analyze their performance coverage probability and average range across the parametric space. We also consider point analysis of bayesian estimators and maximum likelihood estimators, whose interest is to confirm through simulation their consistency, bias and mean square error. In this paper the Objective Bayesian Inference is applied through the noninformative Bayes-Laplace prior, Haldane prior, reference prior and least favorable prior. By analyzing the prior distributions in the minimax decision theory context we verified that the least favorable prior distribution has every other considered prior distributions as particular cases when a quadratic loss function is applied, and matches the Bayes-Laplace prior in considering the quadratic weighed loss function for the Binomial model (which was never found in literature). We used the noninformative Bayes-Laplace prior and Jeffreys prior for the Negative Binomial model. Our findings show through coverage probability, average range of bayesian intervals and point estimation that the Objective Bayesian Inference has good frequentist properties for the probability of success of Binomial and Negative Binomial models. The last stage of this study discusses the presence of correlated proportions in matched-pairs (2 × 2 table) of Bernoulli with the goal of obtaining more information in relation of the considered measures for testing the occurrence of correlated proportions. In this sense the Trinomial model and the partial likelihood function were used from the frequentist and bayesian point of view. The Full Bayesian Significance Test (FBST) was used for real data sets and was shown sensitive to parameterization, however, this study was not possible for the frequentist method since distinct methods are needed to be applied to Trinomial model and the partial likelihood function. / Neste estudo são abordadas duas distribuições discretas baseadas em ensaios de Bernoulli, a Binomial e a Binomial Negativa. São explorados intervalos de credibilidade e confiança para estimação da probabilidade de sucesso de ambas as distribuições. A principal finalidade é analisar nos contextos clássico e bayesiano o desempenho da probabilidade de cobertura e amplitude média gerada pelos intervalos de confiança e intervalos de credibilidade ao longo do espaço paramétrico. Considerou-se também a análise dos estimadores pontuais bayesianos e o estimador de máxima verossimilhança, cujo interesse é confirmar por meio de simulação a consistência e calcular o viés e o erro quadrático médio dos mesmos. A Inferência Bayesiana Objetiva é empregada neste estudo por meio das distribuições a priori não-informativas de Bayes-Laplace, de Haldane, de Jeffreys e menos favorável. Ao analisar as distribuições a priori no contexto de teoria de decisões minimax, a distribuição a priori menos favorável resgata as demais citadas ao empregar a função de perda quadrática e coincide com a distribuição a priori de Bayes-Laplace ao considerar a função de perda quadrática ponderada para o modelo Binomial, o que não foi encontrado até o momento na literatura. Para o modelo Binomial Negativa são consideradas as distribuições a priori não-informativas de Bayes-Laplace e de Jeffreys. Com os estudos desenvolvidos pôde-se observar que a Inferência Bayesiana Objetiva para a probabilidade de sucesso dos modelos Binomial e Binomial Negativa apresentou boas propriedades freqüentistas, analisadas a partir da probabilidade de cobertura e amplitude média dos intervalos bayesianos e por meio das propriedades dos estimadores pontuais. A última etapa do trabalho consiste na análise da ocorrência de proporções correlacionadas em pares de eventos de Bernoulli (tabela 2×2) com a finalidade de determinar um possível ganho de informação em relação as medidas consideradas para testar a ocorrência de proporções correlacionadas. Para tanto fez-se uso do modelo Trinomial e da função de verossimilhança parcial tanto numa abordagem clássica quanto bayesiana. Nos conjuntos de dados analisados observou-se a medida de evidência bayesiana (FBST) como sensível à parametrização, já para os métodos clássicos essa comparação não foi possível, pois métodos distintos precisam ser aplicados para o modelo Trinomial e para a função de verossimilhança parcial.
20

Estatística em confiabilidade de sistemas: uma abordagem Bayesiana paramétrica / Statistics on systems reliability: a parametric Bayesian approach

Rodrigues, Agatha Sacramento 17 August 2018 (has links)
A confiabilidade de um sistema de componentes depende da confiabilidade de cada componente. Assim, a estimação da função de confiabilidade de cada componente do sistema é de interesse. No entanto, esta não é uma tarefa fácil, pois quando o sistema falha, o tempo de falha de um dado componente pode não ser observado, isto é, um problema de dados censurados. Neste trabalho, propomos modelos Bayesianos paramétricos para estimação das funções de confiabilidade de componentes e sistemas em quatro diferentes cenários. Inicialmente, um modelo Weibull é proposto para estimar a distribuição do tempo de vida de um componente de interesse envolvido em sistemas coerentes não reparáveis, quando estão disponíveis o tempo de falha do sistema e o estado do componente no momento da falha do sistema. Não é imposta a suposição de que os tempos de vida dos componentes sejam identicamente distribuídos, mas a suposição de independência entre os tempos até a falha dos componentes é necessária, conforme teorema anunciado e devidamente demonstrado. Em situações com causa de falha mascarada, os estados dos componentes no momento da falha do sistema não são observados e, neste cenário, um modelo Weibull com variáveis latentes no processo de estimação é proposto. Os dois modelos anteriormente descritos propõem estimar marginalmente as funções de confiabilidade dos componentes quando não são disponíveis ou necessárias as informações dos demais componentes e, por consequência, a suposição de independência entre os tempos de vida dos componentes é necessária. Com o intuito de não impor esta suposição, o modelo Weibull multivariado de Hougaard é proposto para a estimação das funções de confiabilidade de componentes envolvidos em sistemas coerentes não reparáveis. Por fim, um modelo Weibull para a estimação da função de confiabilidade de componentes de um sistema em série reparável com causa de falha mascarada é proposto. Para cada cenário considerado, diferentes estudos de simulação são realizados para avaliar os modelos propostos, sempre comparando com a melhor solução encontrada na literatura até então, em que, em geral, os modelos propostos apresentam melhores resultados. Com o intuito de demonstrar a aplicabilidade dos modelos, análises de dados são realizadas com problemas reais não só da área de confiabilidade, mas também da área social. / The reliability of a system of components depends on reliability of each component. Thus, the initial statistical work should be the estimation of the reliability of each component of the system. This is not an easy task because when the system fails, the failure time of a given component can be not observed, that is, a problem of censored data. We propose parametric Bayesian models for reliability functions estimation of systems and components involved in four scenarios. First, a Weibull model is proposed to estimate component failure time distribution from non-repairable coherent systems when there are available the system failure time and the component status at the system failure moment. Furthermore, identically distributed failure times are not a required restriction. An important result is proved: without the assumption that components\' lifetimes are mutually independent, a given set of sub-reliability functions does not identify the corresponding marginal reliability function. In masked cause of failure situations, it is not possible to identify the statuses of the components at the moment of system failure and, in this second scenario, we propose a Bayesian Weibull model by means of latent variables in the estimation process. The two models described above propose to estimate marginally the reliability functions of the components when the information of the other components is not available or necessary and, consequently, the assumption of independence among the components\' failure times is necessary. In order to not impose this assumption, the Hougaard multivariate Weibull model is proposed for the estimation of the components\' reliability functions involved in non-repairable coherent systems. Finally, a Weibull model for the estimation of the reliability functions of components of a repairable series system with masked cause of failure is proposed. For each scenario, different simulation studies are carried out to evaluate the proposed models, always comparing then with the best solution found in the literature until then. In general, the proposed models present better results. In order to demonstrate the applicability of the models, data analysis are performed with real problems not only from the reliability area, but also from social area.

Page generated in 0.0166 seconds