• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 64
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • Tagged with
  • 71
  • 71
  • 67
  • 66
  • 29
  • 21
  • 20
  • 20
  • 17
  • 17
  • 16
  • 13
  • 12
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Três ensaios sobre política monetária e crédito

Barbi, Fernando Carvalhaes 08 April 2014 (has links)
Submitted by Fernando Barbi (fcbarbi@gmail.com) on 2014-05-07T22:24:44Z No. of bitstreams: 1 TESE_FERNANDO_CARVALHAES_BARBI_204089_CDEE_FINAL.pdf: 966201 bytes, checksum: 6f481f17555ebd92319058e7f6e4c7ee (MD5) / Rejected by Suzinei Teles Garcia Garcia (suzinei.garcia@fgv.br), reason: Bom dia Fernando, Conforme conversamos por telefone. Att. Suzi on 2014-05-08T12:02:11Z (GMT) / Submitted by Fernando Barbi (fcbarbi@gmail.com) on 2014-05-08T12:30:01Z No. of bitstreams: 1 TESE_FERNANDO_CARVALHAES_BARBI_204089_CDEE.pdf: 963867 bytes, checksum: 6b78db46891b72b31e89059c2a176bc9 (MD5) / Rejected by Suzinei Teles Garcia Garcia (suzinei.garcia@fgv.br), reason: Fernando on 2014-05-08T12:33:32Z (GMT) / Submitted by Fernando Barbi (fcbarbi@gmail.com) on 2014-05-08T12:36:15Z No. of bitstreams: 1 TESE_FERNANDO_CARVALHAES_BARBI_204089_CDEE.pdf: 963906 bytes, checksum: 467d3c75aa7e81be984b8b5f22430c0b (MD5) / Approved for entry into archive by Suzinei Teles Garcia Garcia (suzinei.garcia@fgv.br) on 2014-05-08T12:38:09Z (GMT) No. of bitstreams: 1 TESE_FERNANDO_CARVALHAES_BARBI_204089_CDEE.pdf: 963906 bytes, checksum: 467d3c75aa7e81be984b8b5f22430c0b (MD5) / Made available in DSpace on 2014-05-08T13:28:07Z (GMT). No. of bitstreams: 1 TESE_FERNANDO_CARVALHAES_BARBI_204089_CDEE.pdf: 963906 bytes, checksum: 467d3c75aa7e81be984b8b5f22430c0b (MD5) Previous issue date: 2014-04-08 / In the first essay, 'Determinants of Credit Expansion in Brazil', analyzes the determinants of credit using an extensive bank level panel dataset. Brazilian economy has experienced a major boost in leverage in the first decade of 2000 as a result of a set factors ranging from macroeconomic stability to the abundant liquidity in international financial markets before 2008 and a set of deliberate decisions taken by President Lula's to expand credit, boost consumption and gain political support from the lower social strata. As relevant conclusions to our investigation we verify that: credit expansion relied on the reduction of the monetary policy rate, international financial markets are an important source of funds, payroll-guaranteed credit and investment grade status affected positively credit supply. We were not able to confirm the importance of financial inclusion efforts. The importance of financial sector sanity indicators of credit conditions cannot be underestimated. These results raise questions over the sustainability of this expansion process and financial stability in the future. The second essay, 'Public Credit, Monetary Policy and Financial Stability', discusses the role of public credit. The supply of public credit in Brazil has successfully served to relaunch the economy after the Lehman-Brothers demise. It was later transformed into a driver for economic growth as well as a regulation device to force private banks to reduce interest rates. We argue that the use of public funds to finance economic growth has three important drawbacks: it generates inflation, induces higher loan rates and may induce financial instability. An additional effect is the prevention of market credit solutions. This study contributes to the understanding of the costs and benefits of credit as a fiscal policy tool. The third essay, 'Bayesian Forecasting of Interest Rates: Do Priors Matter?', discusses the choice of priors when forecasting short-term interest rates. Central Banks that commit to an Inflation Target monetary regime are bound to respond to inflation expectation spikes and product hiatus widening in a clear and transparent way by abiding to a Taylor rule. There are various reports of central banks being more responsive to inflationary than to deflationary shocks rendering the monetary policy response to be indeed non-linear. Besides that there is no guarantee that coefficients remain stable during time. Central Banks may switch to a dual target regime to consider deviations from inflation and the output gap. The estimation of a Taylor rule may therefore have to consider a non-linear model with time varying parameters. This paper uses Bayesian forecasting methods to predict short-term interest rates. We take two different approaches: from a theoretic perspective we focus on an augmented version of the Taylor rule and include the Real Exchange Rate, the Credit-to-GDP and the Net Public Debt-to-GDP ratios. We also take an 'atheoretic' approach based on the Expectations Theory of the Term Structure to model short-term interest. The selection of priors is particularly relevant for predictive accuracy yet, ideally, forecasting models should require as little a priori expert insight as possible. We present recent developments in prior selection, in particular we propose the use of hierarchical hyper-g priors for better forecasting in a framework that can be easily extended to other key macroeconomic indicators. / O primeiro ensaio, "Determinantes da expansão do crédito no Brasil", analisa os determinantes do crédito usando um extenso conjunto de dados em painel sobre o sistema bancário. A economia brasileira teve um grande impulso na alavancagem na primeira década de 2000 como resultado de um conjunto de fatores que vão desde a estabilidade macroeconômica passando pela liquidez abundante nos mercados financeiros internacionais antes de 2008 até um conjunto de decisões deliberadas tomadas pelo presidente Lula para expandir o crédito, impulsionar o consumo e obter apoio político das camadas sociais mais baixas. Como conclusões verificamos que a expansão do crédito beneficiou-se da redução da taxa de juros, os mercados financeiros internacionais são uma fonte importante de recursos, o crédito garantido em folha de pagamento e o grau de investimento afetaram positivamente a oferta de crédito. Nós não fomos capazes de confirmar a importância dos esforços de inclusão financeira. A importância dos indicadores de sanidade do setor financeiro de condições de crédito não pode ser subestimada. Estes resultados levantam questões quanto à sustentabilidade desse processo de expansão e estabilidade financeira no futuro. O segundo ensaio, "Crédito Público, Política Monetária e Estabilidade Financeira", discute o papel do crédito público. A oferta de crédito público no Brasil serviu para relançar a economia após a crise desencadeada pela quebra do banco Lehman-Brothers. Mais tarde, ele foi transformado em um motor de crescimento econômico bem como num dispositivo de regulação para forçar os bancos privados a reduzir as taxas de juros. Argumenta-se que a utilização de fundos públicos para financiar o crescimento econômico tem três desvantagens importantes: ele gera inflação, induz taxas de financiamento mais elevadas e pode induzir à instabilidade financeira. Um efeito adicional é impedir o desenvolvimento de soluções de crédito de mercado. O terceiro ensaio, "Previsão Bayesiana de Taxas de Juros: as priors importam?", discute a escolha de priors para previsão das taxas de juros de curto prazo. Bancos Centrais que se comprometem com regimes de metas de inflação devem responder a variações nas expectativa de inflação e no hiato do produto de uma forma clara e transparente, respeitando a regra de Taylor. A estimativa de uma regra de Taylor pode ter que considerar um modelo não-linear com parâmetros variáveis no tempo. Este trabalho usa métodos de previsão bayesiana para as taxas de juro de curto prazo por duas abordagens diferentes. Por uma perspectiva teórica nos concentramos em uma versão aumentada da regra de Taylor. Também testamos uma abordagem baseada na teoria das expectativas da estrutura a termo cauva de juros para modelar os juros de curto prazo. A seleção dos priores é particularmente relevante para a precisão da previsão, no entanto deseja-se usar prior robustas a falta de conhecimento prévio. Apresentamos os recentes desenvolvimentos na seleção de priors, em especial, propomos o uso de priors hierárquicas da família de distribuição hiper-geométrica.
62

Análise de portfólio: uma perspectiva bayesiana

Tito, Edison Americo Huarsaya 03 June 2016 (has links)
Submitted by EDISON AMERICO HUARSAYA TITO (edison.tito@gmail.com) on 2016-06-23T14:02:55Z No. of bitstreams: 1 EdisonMscFGV(20160619).pdf: 2366030 bytes, checksum: 231be2cde1e7f8e01331fddff3f227a1 (MD5) / Approved for entry into archive by GILSON ROCHA MIRANDA (gilson.miranda@fgv.br) on 2016-06-23T14:36:07Z (GMT) No. of bitstreams: 1 EdisonMscFGV(20160619).pdf: 2366030 bytes, checksum: 231be2cde1e7f8e01331fddff3f227a1 (MD5) / Approved for entry into archive by GILSON ROCHA MIRANDA (gilson.miranda@fgv.br) on 2016-06-24T12:51:11Z (GMT) No. of bitstreams: 1 EdisonMscFGV(20160619).pdf: 2366030 bytes, checksum: 231be2cde1e7f8e01331fddff3f227a1 (MD5) / Made available in DSpace on 2016-06-29T12:06:48Z (GMT). No. of bitstreams: 1 EdisonMscFGV(20160619).pdf: 2366030 bytes, checksum: 231be2cde1e7f8e01331fddff3f227a1 (MD5) Previous issue date: 2016-06-03 / This work has the objective to address the problem of asset allocation (portfolio analysis) under a Bayesian perspective. For this it was necessary to review all the theoretical analysis of the classical mean-variance model and following identify their deficiencies that compromise its effectiveness in real cases. Interestingly, its biggest deficiency this not related to the model itself, but by its input data in particular the expected return calculated on historical data. To overcome this deficiency the Bayesian approach (Black-Litterman model) treat the expected return as a random variable and after that builds a priori distribution (based on the CAPM model) and a likelihood distribution (based on market investor’s views) to finally apply Bayes theorem resulting in the posterior distribution. The expected value of the return of this posteriori distribution is to replace the estimated expected return calculated on historical data. The results showed that the Bayesian model presents conservative and intuitive results in relation to the classical model of mean-variance. / Este trabalho tem com objetivo abordar o problema de alocação de ativos (análise de portfólio) sob uma ótica Bayesiana. Para isto foi necessário revisar toda a análise teórica do modelo clássico de média-variância e na sequencia identificar suas deficiências que comprometem sua eficácia em casos reais. Curiosamente, sua maior deficiência não esta relacionado com o próprio modelo e sim pelos seus dados de entrada em especial ao retorno esperado calculado com dados históricos. Para superar esta deficiência a abordagem Bayesiana (modelo de Black-Litterman) trata o retorno esperado como uma variável aleatória e na sequência constrói uma distribuição a priori (baseado no modelo de CAPM) e uma distribuição de verossimilhança (baseado na visão de mercado sob a ótica do investidor) para finalmente aplicar o teorema de Bayes tendo como resultado a distribuição a posteriori. O novo valor esperado do retorno, que emerge da distribuição a posteriori, é que substituirá a estimativa anterior do retorno esperado calculado com dados históricos. Os resultados obtidos mostraram que o modelo Bayesiano apresenta resultados conservadores e intuitivos em relação ao modelo clássico de média-variância.
63

Aplicação de modelos gráficos probabilísticos computacionais em economia

Colla, Ernesto Coutinho 29 June 2009 (has links)
Made available in DSpace on 2010-04-20T20:56:57Z (GMT). No. of bitstreams: 4 Ernesto_Colla.pdf.jpg: 21014 bytes, checksum: 4f059b37f39662752479b4c41e7d0ccd (MD5) Ernesto_Colla.pdf.txt: 293178 bytes, checksum: bbca88752988b32a6da9e503e9fbe5cf (MD5) license.txt: 4810 bytes, checksum: 4ca799e651215ccf5ee1c07a835ee897 (MD5) Ernesto_Colla.pdf: 1784465 bytes, checksum: 7c45a00d36db536ce2c8e1eff4a23b6b (MD5) Previous issue date: 2009-06-29T00:00:00Z / We develop a probabilistic model using Machine Learning tools to classify the trend of the Brazilian country risk expressed EMBI+ (Emerging Markets Bond Index Plus). The main goal is verify if Machine Learning is useful to build economic models which could be used as reasoning tools under uncertainty. Specifically we use Bayesian Networks to perform pattern recognition in observed macroeconomics and financial data. The results are promising. We get the main expected theoretical relationship between country risk and economic variables, as well as international economic context and market expectations. / O objetivo deste trabalho é testar a aplicação de um modelo gráfico probabilístico, denominado genericamente de Redes Bayesianas, para desenvolver modelos computacionais que possam ser utilizados para auxiliar a compreensão de problemas e/ou na previsão de variáveis de natureza econômica. Com este propósito, escolheu-se um problema amplamente abordado na literatura e comparou-se os resultados teóricos e experimentais já consolidados com os obtidos utilizando a técnica proposta. Para tanto,foi construído um modelo para a classificação da tendência do 'risco país' para o Brasil a partir de uma base de dados composta por variáveis macroeconômicas e financeiras. Como medida do risco adotou-se o EMBI+ (Emerging Markets Bond Index Plus), por ser um indicador amplamente utilizado pelo mercado.
64

Desenvolvendo o conceito de redes bayesianas na construção de cenários prospectivos

Fischer, Ricardo Balieiro 26 March 2010 (has links)
Submitted by Marcia Bacha (marcia.bacha@fgv.br) on 2011-05-06T18:11:59Z No. of bitstreams: 1 1417127.pdf: 5400521 bytes, checksum: b6ddcc4cf2fe2855e50cb7bc0be5c242 (MD5) / Approved for entry into archive by Marcia Bacha(marcia.bacha@fgv.br) on 2011-05-06T18:12:06Z (GMT) No. of bitstreams: 1 1417127.pdf: 5400521 bytes, checksum: b6ddcc4cf2fe2855e50cb7bc0be5c242 (MD5) / Approved for entry into archive by Marcia Bacha(marcia.bacha@fgv.br) on 2011-05-06T18:12:15Z (GMT) No. of bitstreams: 1 1417127.pdf: 5400521 bytes, checksum: b6ddcc4cf2fe2855e50cb7bc0be5c242 (MD5) / Made available in DSpace on 2011-05-06T18:12:24Z (GMT). No. of bitstreams: 1 1417127.pdf: 5400521 bytes, checksum: b6ddcc4cf2fe2855e50cb7bc0be5c242 (MD5) Previous issue date: 2010-03-26 / A incerteza é o principal elemento do futuro. Desde os primórdios, o homem busca métodos para estruturar essas incertezas futuras e assim poder guiar suas ações. Apenas a partir da segunda metade do século XX, porém, quando os métodos projetivos e preditivos já não eram mais capazes de explicar o futuro em um ambiente mundial cada vez mais interligado e turbulento, é que nasceram os primeiros métodos estruturados de construção de cenários. Esses métodos prospectivos visam lançar a luz sobre o futuro não para projetar um futuro único e certo, mas para visualizar uma gama de futuros possíveis e coerentes. Esse trabalho tem como objetivo propor uma nova abordagem à construção de cenários, integrando o Método de Impactos Cruzados à Análise Morfológica, utilizando o conceito de Rede Bayesianas, de fonna a reduzir a complexidade da análise sem perda de robustez. Este trabalho fará uma breve introdução histórica dos estudos do futuro, abordará os conceitos e definições de cenários e apresentará os métodos mais utilizados. Como a abordagem proposta pretende-se racionalista, será dado foco no Método de Cenários de Michel Godet e suas ferramentas mais utilizadas. Em seguida, serão apresentados os conceitos de Teoria dos Grafos, Causalidade e Redes Bayesianas. A proposta é apresentada em três etapas: 1) construção da estrutura do modelo através da Análise Estrutural, propondo a redução de um modelo inicialmente cíclico para um modelo acíclico direto; 2) utilização da Matriz de Impactos Cruzados como ferramenta de alimentação, preparação e organização dos dados de probabilidades; 3) utilização da Rede Bayesiana resultante da primeira etapa como subespaço de análise de uma Matriz Morfológica. Por último, um teste empírico é realizado para comprovar a proposta de redução do modelo cíclico em um modelo acíclico.
65

Aplicações em meta-análise sob um enfoque bayesiano usando dados médicos.

Pissini, Carla Fernanda 21 March 2006 (has links)
Made available in DSpace on 2016-06-02T20:06:11Z (GMT). No. of bitstreams: 1 DissCFP.pdf: 956101 bytes, checksum: e21a11e1dc4754a5751b0b0840943082 (MD5) Previous issue date: 2006-03-21 / Financiadora de Estudos e Projetos / In this work, we consider the use of Meta-analysis with a Bayesian approach. Meta-analysis is a statistical technique that combines the results of di¤erent independent studies with purpose to find general conclusions. This term was introduced by Glass (1976) and it has been used when the number of studies about some research project is small. Usually, the models for Meta-analysis assume a large number of parameters and the Bayesian approach using MCMC (Markov Chain Monte Carlo) methods is a good alternative to combine information of independent studies, to obtain accutrate inferences about a specified treatment. As illustration, we consider real medical data sets on di¤erent studies, in which, we consider fixed and random e¤ects models. We also assume mixture of normal distributions for the error of the models. Another application is considered with educational data. / Neste trabalho, consideramos o uso de Meta-análise sob um enfoque Bayesiano. Meta-análise é uma técnica estatística que combina resultados de diversos estudos in-dependentes, com o propósito de descrever conclusões gerais. Este termo foi introduzido por Glass (1976) usado quando o número de estudos sobre alguma pesquisa científica é pequeno. Os modelos propostos para Meta-análise usualmente assumem muitos parâmetros e o enfoque Bayesiano com MCMC (Monte Carlo em Cadeias de Markov) é uma alternativa apropriada para combinar informações de estudos independentes. O uso de modelos Bayesianos hierárquicos permite combinações de vários estudos independentes, para a obtenção de inferências precisas sobre um determinado tratamento. Como ilustração numérica consideramos conjuntos de dados médicos de diferentes estudos e, na análise, utilizamos modelos de efeitos fixos e aleatórios e mistura de distribuições normais para o erro do modelo de regressão. Em uma outra aplicação relacionamos Meta-análise e Educação, através do efeito da espectativa do professor associada ao QI dos estudantes.
66

Definição automática de classificadores fuzzy probabilísticos / Automatic design of probabilistic fuzzy classifiers

Melo Jr., Luiz Ledo Mota 18 September 2017 (has links)
CNPq / Este trabalho apresenta uma abordagem para a definição automática de bases de regras em Classificadores Fuzzy Probabilísticos (CFPs), um caso particular dos Sistemas Fuzzy Probabilísticos. Como parte integrante deste processo, são utilizados métodos de redução de dimensionalidade como: análise de componentes principais e discriminante de Fisher. Os algoritmos de agrupamento testados para particionar o universo das variáveis de entrada do sistema são Gustafson-Kessel, Supervised Fuzzy Clustering ambos já consolidados na literatura. Adicionalmente, propõe-se um novo algoritmo de agrupamento denominado Gustafson-Kessel com Ponto Focal como parte integrante do projeto automático de CFPs. A capacidade deste novo algoritmo em identificar clusters elipsoidais e não elipsoidais também é avaliada neste trabalho. Em dados altamente correlacionados ou totalmente correlacionados ocorrem problemas na inversão da matriz de covariância fuzzy. Desta forma, um método de regularização é necessário para esta matriz e um novo método está sendo proposto neste trabalho.Nos CFPs considerados, a combinação de antecedentes e consequentes fornece uma base de regras na qual todos os consequentes são possíveis em uma regra, cada um associado a uma medida de probabilidade. Neste trabalho, esta medida de probabilidade é calculada com base no Teorema de Bayes que, a partir de uma função de verossimilhança, atualiza a informação a priori de cada consequente em cada regra. A principal inovação é o cálculo da função de verossimilhança que se baseia no conceito de “região Ideal” de forma a melhor identificar as probabilidades associadas aos consequentes da regra. Os CFPs propostos são comparados com classificadores fuzzy-bayesianos  e outros tradicionais na área de aprendizado de máquina considerando conjuntos de dados gerados artificialmente, 30 benchmarks e também dados extraídos diretamente de problemas reais  como detecção de falhas em rolamentos de máquinas industriais. Os resultados dos experimentos mostram que os classificadores fuzzy propostos superam, em termos de acurácia, os classificadores fuzzy-bayesianos considerados e alcançam  resultados competitivos com classificadores não-fuzzy tradicionais usados na comparação. Os resultados também mostram que o método de regularização proposto é uma alternativa para a técnica de agrupamento Gustafson-Kessel (com ou sem ponto focal) quando se consideram dados com alta correção linear. / This work presents a new approach for the automatic design of Probabilistic Fuzzy Classifiers (PFCs), which are a special case of Probabilistic Fuzzy Systems. As part of the design process we consider methods for reducing the dimensionality like the principal component analysis and the Fisher discriminant. The clustering methods tested for partitioning the universe of input variables are Gustafson-Kessel and Supervised Fuzzy Clustering, both consolidated in the literature. In addition, we propose a new clustering method called Gustafson-Kessel with Focal Point as part of the automatic design of PFCs. We also tested the capacity of this method to deal with ellipsoidal and non-ellipsoidal clusters. Highly correlated data represent a challenge to fuzzy clustering due to the inversion of the fuzzy covariance matrix. Therefore, a regularization method is necessary for this matrix and a new one is proposed in this work. In the proposed PFCs, the combination of antecedents and consequents provides a rule base in which all consequents are possible, each one associated with a probability measure. In this work, the probability is calculated based on the Bayes Theorem by updating, through the likelihood function, a priori information concerning every consequent in each rule. The main innovation is the calculus of the likelihood functions which is based on the “ideal region” concept, aiming to improve the estimation of the probabilities associated with rules’ consequents. The proposed PFCs are compared with fuzzy-bayesian classifiers and other ones traditional in machine learning over artificial generated data, 30 different benchmarks and also on data directly extracted from real world like the problem of detecting bearings fault in industrial machines. Experiments results show that the proposed PFCs outperform, in terms of accuracy, the fuzzy-bayesian approaches and are competitive with the traditional non-fuzzy classifiers used in the comparison. The results also show that the proposed regularization method is an alternative to the Gustafson-Kessel clustering technique (with or without focal point) when using linearly correlated data.
67

Definição automática de classificadores fuzzy probabilísticos / Automatic design of probabilistic fuzzy classifiers

Melo Jr., Luiz Ledo Mota 18 September 2017 (has links)
CNPq / Este trabalho apresenta uma abordagem para a definição automática de bases de regras em Classificadores Fuzzy Probabilísticos (CFPs), um caso particular dos Sistemas Fuzzy Probabilísticos. Como parte integrante deste processo, são utilizados métodos de redução de dimensionalidade como: análise de componentes principais e discriminante de Fisher. Os algoritmos de agrupamento testados para particionar o universo das variáveis de entrada do sistema são Gustafson-Kessel, Supervised Fuzzy Clustering ambos já consolidados na literatura. Adicionalmente, propõe-se um novo algoritmo de agrupamento denominado Gustafson-Kessel com Ponto Focal como parte integrante do projeto automático de CFPs. A capacidade deste novo algoritmo em identificar clusters elipsoidais e não elipsoidais também é avaliada neste trabalho. Em dados altamente correlacionados ou totalmente correlacionados ocorrem problemas na inversão da matriz de covariância fuzzy. Desta forma, um método de regularização é necessário para esta matriz e um novo método está sendo proposto neste trabalho.Nos CFPs considerados, a combinação de antecedentes e consequentes fornece uma base de regras na qual todos os consequentes são possíveis em uma regra, cada um associado a uma medida de probabilidade. Neste trabalho, esta medida de probabilidade é calculada com base no Teorema de Bayes que, a partir de uma função de verossimilhança, atualiza a informação a priori de cada consequente em cada regra. A principal inovação é o cálculo da função de verossimilhança que se baseia no conceito de “região Ideal” de forma a melhor identificar as probabilidades associadas aos consequentes da regra. Os CFPs propostos são comparados com classificadores fuzzy-bayesianos  e outros tradicionais na área de aprendizado de máquina considerando conjuntos de dados gerados artificialmente, 30 benchmarks e também dados extraídos diretamente de problemas reais  como detecção de falhas em rolamentos de máquinas industriais. Os resultados dos experimentos mostram que os classificadores fuzzy propostos superam, em termos de acurácia, os classificadores fuzzy-bayesianos considerados e alcançam  resultados competitivos com classificadores não-fuzzy tradicionais usados na comparação. Os resultados também mostram que o método de regularização proposto é uma alternativa para a técnica de agrupamento Gustafson-Kessel (com ou sem ponto focal) quando se consideram dados com alta correção linear. / This work presents a new approach for the automatic design of Probabilistic Fuzzy Classifiers (PFCs), which are a special case of Probabilistic Fuzzy Systems. As part of the design process we consider methods for reducing the dimensionality like the principal component analysis and the Fisher discriminant. The clustering methods tested for partitioning the universe of input variables are Gustafson-Kessel and Supervised Fuzzy Clustering, both consolidated in the literature. In addition, we propose a new clustering method called Gustafson-Kessel with Focal Point as part of the automatic design of PFCs. We also tested the capacity of this method to deal with ellipsoidal and non-ellipsoidal clusters. Highly correlated data represent a challenge to fuzzy clustering due to the inversion of the fuzzy covariance matrix. Therefore, a regularization method is necessary for this matrix and a new one is proposed in this work. In the proposed PFCs, the combination of antecedents and consequents provides a rule base in which all consequents are possible, each one associated with a probability measure. In this work, the probability is calculated based on the Bayes Theorem by updating, through the likelihood function, a priori information concerning every consequent in each rule. The main innovation is the calculus of the likelihood functions which is based on the “ideal region” concept, aiming to improve the estimation of the probabilities associated with rules’ consequents. The proposed PFCs are compared with fuzzy-bayesian classifiers and other ones traditional in machine learning over artificial generated data, 30 different benchmarks and also on data directly extracted from real world like the problem of detecting bearings fault in industrial machines. Experiments results show that the proposed PFCs outperform, in terms of accuracy, the fuzzy-bayesian approaches and are competitive with the traditional non-fuzzy classifiers used in the comparison. The results also show that the proposed regularization method is an alternative to the Gustafson-Kessel clustering technique (with or without focal point) when using linearly correlated data.
68

Modelos de processo de Poisson não-homogêneo na presença de um ou mais pontos de mudança, aplicados a dados de poluição do ar / Non-homogeneous Poisson process in the presence of one or more change-points, an application to air pollution data

Vicini, Lorena 06 December 2012 (has links)
Orientadores: Luiz Koodi Hotta, Jorge Alberto Achcar / Tese (doutorado) ¿ Universidade Estadual de Campinas, Instituto de Matemática, Estatística e Computação Científica / Made available in DSpace on 2018-08-20T14:22:26Z (GMT). No. of bitstreams: 1 Vicini_Lorena_D.pdf: 75122511 bytes, checksum: 796c27170036587b321bbe88bc0d369e (MD5) Previous issue date: 2012 / Resumo: A poluição do ar é um problema que tem afetado várias regiões ao redor do mundo. Em grandes centros urbanos, como é esperado, a concentração de poluição do ar é maior. Devido ao efeito do vento, no entanto, este problema não se restringe a esses centros, e consequentemente a poluição do ar se espalha para outras regiões. Os dados de poluição do ar são modelados por processos de Poisson não-homogêneos (NHPP) em três artigos: dois usando métodos Bayesianos com Markov Chain Monte Carlo (MCMC) para dados de contagem, e um usando análise de dados funcionais. O primeiro artigo discute o problema da especificação das distribuições a priori, incluindo a discussão de sensibilidade e convergência das cadeias MCMC. O segundo artigo introduz um modelo incluindo pontos de mudança para NHPP com a função taxa modelada por uma distribuição gama generalizada, usando métodos Bayesianos. Modelos com e sem pontos de mudança foram considerados para fins de comparação. O terceiro artigo utiliza análise de dados funcionais para estimar a função taxa de um NHPP. Esta estimação é feita sob a suposição de que a função taxa é contínua, mas com um número finito de pontos de descontinuidade na sua primeira derivada, localizados exatamente nos pontos de mudança. A função taxa e seus pontos de mudança foram estimadas utilizando suavização splines e uma função de penalização baseada nos candidatos a pontos de mudança. Os métodos desenvolvidos neste trabalho foram testadas através de simulações e aplicados a dados de poluição de ozônio da Cidade do México, descrevendo a qualidade do ar neste centro urbano. Ele conta quantas vezes, em um determinado período, a poluição do ar excede um limiar especificado de qualidade do ar, com base em níveis de concentração de ozônio. Observou-se que quanto mais complexos os modelos, incluindo os pontos de mudança, melhor foi o ajuste / Abstract: Air pollution is a problem that is currently affecting several regions around the world. In major urban centers, as expected, the concentration of air pollution is higher. Due to wind effect, however, this problem does not remain constrained in such centers, and air pollution spreads to other regions. In the thesis the air pollution data is modeled by Non-Homogeneous Poisson Process (NHPP) in three papers: two using Bayesian methods with Markov Chain Monte Carlo (MCMC) for count data, and one using functional data analysis. Paper one discuss the problem of the prior specification, including discussion of the sensitivity and convergence of the MCMC chains. Paper two introduces a model including change point for NHPP with rate function modeled by a generalized gamma distribution, using Bayesian methods. Models with and without change points were considered for comparison purposes. Paper three uses functional data analysis to estimate the rate function of a NHPP. This estimation is done under the assumption that the rate function is continuous, but with a finite number of discontinuity points in its first derivative, exactly at the change-points. The rate function and its change-points were estimated using splines smoothing and a penalty function based on candidate change points. The methods developed in this work were tested using simulations and applied to ozone pollution data from Mexico City, describing the air quality in this urban center. It counts how many times, in a determined period, air pollution exceeds a specified threshold of air quality, based on ozone concentration levels. It was observed that the more complex the models, including change-points, the better the fitting / Doutorado / Estatistica / Doutor em Estatística
69

Métodos bayesianos em alocação de ativos: avaliação de desempenho

Atem, Guilherme Muniz 05 February 2013 (has links)
Submitted by Guilherme Atem (guiatem@gmail.com) on 2013-03-19T16:02:06Z No. of bitstreams: 1 Dissertação - Guilherme Atem.pdf: 2045602 bytes, checksum: 3d2427a0fdd1376baf5c274252a390a2 (MD5) / Approved for entry into archive by Suzinei Teles Garcia Garcia (suzinei.garcia@fgv.br) on 2013-03-19T16:04:40Z (GMT) No. of bitstreams: 1 Dissertação - Guilherme Atem.pdf: 2045602 bytes, checksum: 3d2427a0fdd1376baf5c274252a390a2 (MD5) / Made available in DSpace on 2013-03-19T16:24:11Z (GMT). No. of bitstreams: 1 Dissertação - Guilherme Atem.pdf: 2045602 bytes, checksum: 3d2427a0fdd1376baf5c274252a390a2 (MD5) Previous issue date: 2013-02-05 / Neste trabalho, comparamos algumas aplicações obtidas ao se utilizar os conhecimentos subjetivos do investidor para a obtenção de alocações de portfólio ótimas, de acordo com o modelo bayesiano de Black-Litterman e sua generalização feita por Pezier e Meucci. Utilizamos como medida de satisfação do investidor as funções utilidade correspondentes a um investidor disciplinado, isto é, que é puramente averso a risco, e outro que procura risco quando os resultados são favoráveis. Aplicamos o modelo a duas carteiras de ações que compõem o índice Ibovespa, uma que replica a composição do índice e outra composta por pares de posições long&short de ações ordinárias e preferenciais. Para efeito de validação, utilizamos uma análise com dados fora da amostra, dividindo os dados em períodos iguais e revezando o conjunto de treinamento. Como resultado, foi possível concluir que: i) o modelo de Black-Litterman não é suficiente para contornar as soluções de canto quando o investidor não é disciplinado, ao menos para o modelo utilizado; ii) para um investidor disciplinado, o P&L médio obtido pelos modelos de média-variância e de Black-Litterman é consideravelmente superior ao do benchmark para as duas carteiras; iii) o modelo de Black Litterman somente foi superior ao de média-variância quando a visão do investidor previu bem os resultados do mercado. / On this work, we compare results obtained when the investor chooses to use his subjective views on the market to calculate the allocation optimization of a given portfolio, according to the bayesian model of Black-Litterman (BLACK; LITTERMAN, 1992) and the generelization provided by Pezier (PEZIER, 2007) and Meucci (MEUCCI, 2008). As a measure of satisfaction of the investor, we use utility functions describing an investor with discipline that is always risk-averse and other function for an investor who seeks risk when the results are favourable. The model is applied to two portfolios consisting of stock from the Ibovespa index: one of them consists of all stocks from the index, with time horizon of half an year, and the other presents four long short positions betwen ordinary and preferential stocks and time horizon of one month. The results are validated with out of sample data, according to a 10-fold cross validation. As a result, we conclude that: i) the Black-Litterman model may not be enougth to avoid corner solutions when the investor has no discipline, according to our model; ii) both the Black-Litterman and the Mean-Variance models perform better then the benchmarks; iii) but the winner model depends on the forecast power of the investor views.
70

Estimação conjunta de atraso de tempo subamostral e eco de referência para sinais de ultrassom / Joint subsample time delay and echo template estimation for ultrasound signals

Antelo Junior, Ernesto Willams Molina 20 September 2017 (has links)
CAPES / Em ensaios não destrutivos por ultrassom, o sinal obtido a partir de um sistema de aquisição de dados real podem estar contaminados por ruído e os ecos podem ter atrasos de tempo subamostrais. Em alguns casos, esses aspectos podem comprometer a informação obtida de um sinal por um sistema de aquisição. Para lidar com essas situações, podem ser utilizadas técnicas de estimativa de atraso temporal (Time Delay Estimation ou TDE) e também técnicas de reconstrução de sinais, para realizar aproximações e obter mais informações sobre o conjunto de dados. As técnicas de TDE podem ser utilizadas com diversas finalidades na defectoscopia, como por exemplo, para a localização precisa de defeitos em peças, no monitoramento da taxa de corrosão em peças, na medição da espessura de um determinado material e etc. Já os métodos de reconstrução de dados possuem uma vasta gama de aplicação, como nos NDT, no imageamento médico, em telecomunicações e etc. Em geral, a maioria das técnicas de estimativa de atraso temporal requerem um modelo de sinal com precisão elevada, caso contrário, a localização dessa estimativa pode ter sua qualidade reduzida. Neste trabalho, é proposto um esquema alternado que estima de forma conjunta, uma referência de eco e atrasos de tempo para vários ecos a partir de medições ruidosas. Além disso, reinterpretando as técnicas utilizadas a partir de uma perspectiva probabilística, estendem-se suas funcionalidades através de uma aplicação conjunta de um estimador de máxima verossimilhança (Maximum Likelihood Estimation ou MLE) e um estimador máximo a posteriori (MAP). Finalmente, através de simulações, resultados são apresentados para demonstrar a superioridade do método proposto em relação aos métodos convencionais. / Abstract (parágrafo único): In non-destructive testing (NDT) with ultrasound, the signal obtained from a real data acquisition system may be contaminated by noise and the echoes may have sub-sample time delays. In some cases, these aspects may compromise the information obtained from a signal by an acquisition system. To deal with these situations, Time Delay Estimation (TDE) techniques and signal reconstruction techniques can be used to perform approximations and also to obtain more information about the data set. TDE techniques can be used for a number of purposes in the defectoscopy, for example, for accurate location of defects in parts, monitoring the corrosion rate in pieces, measuring the thickness of a given material, and so on. Data reconstruction methods have a wide range of applications, such as NDT, medical imaging, telecommunications and so on. In general, most time delay estimation techniques require a high precision signal model, otherwise the location of this estimate may have reduced quality. In this work, an alternative scheme is proposed that jointly estimates an echo model and time delays for several echoes from noisy measurements. In addition, by reinterpreting the utilized techniques from a probabilistic perspective, its functionalities are extended through a joint application of a maximum likelihood estimator (MLE) and a maximum a posteriori (MAP) estimator. Finally, through simulations, results are presented to demonstrate the superiority of the proposed method over conventional methods.

Page generated in 0.0989 seconds