• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 543
  • 82
  • 64
  • 20
  • 18
  • 18
  • 17
  • 12
  • 5
  • 5
  • 5
  • 5
  • 4
  • 3
  • 1
  • Tagged with
  • 706
  • 416
  • 267
  • 216
  • 176
  • 166
  • 151
  • 144
  • 132
  • 125
  • 101
  • 87
  • 85
  • 85
  • 83
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Atualização das previsões de curto prazo de afluências ao sistema hidroelétrico brasileiro a partir da técnica de ponderação bayesiana e de previsões mensais de afluência com uso de informação climática

Oliveira, Vinicius Grossi de 04 May 2015 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Civil e Ambiental, 2015. / Submitted by Raquel Viana (raquelviana@bce.unb.br) on 2015-11-10T20:25:49Z No. of bitstreams: 1 2015_ViniciusGrossideOliveira.pdf: 7861039 bytes, checksum: 18f415933f7bae6e489362d71e7c522e (MD5) / Approved for entry into archive by Marília Freitas(marilia@bce.unb.br) on 2015-12-20T15:38:45Z (GMT) No. of bitstreams: 1 2015_ViniciusGrossideOliveira.pdf: 7861039 bytes, checksum: 18f415933f7bae6e489362d71e7c522e (MD5) / Made available in DSpace on 2015-12-20T15:38:45Z (GMT). No. of bitstreams: 1 2015_ViniciusGrossideOliveira.pdf: 7861039 bytes, checksum: 18f415933f7bae6e489362d71e7c522e (MD5) / O uso de sistemas eficientes de previsão de afluências de curto, médio e longo prazo permite otimizar a operação do conjunto de reservatórios hidroelétricos brasileiros, elevando o grau de segurança no fornecimento de energia elétrica e minimizando os custos operacionais. Os modelos atuais de previsão utilizados pelo Operador Nacional do Sistema Elétrico (ONS) tendem a ser limitados no horizonte de previsão e na modelagem da estrutura de dependência existente entre as diversas escalas temporais, reduzindo a qualidade das previsões e simulações de afluências. Nesta dissertação, visando contribuir com a melhoria das previsões de vazão de curto prazo, são desenvolvidos e aperfeiçoados modelos estatísticos de previsão a partir de uma estrutura hierárquica, onde as vazões geradas para as menores escalas temporais (semanais) apresentam uma estrutura de dependência das vazões geradas para as maiores escalas (mensais). As previsões mensais são obtidas por meio de um modelo periódico auto-regressivo exógeno (PARX), que utiliza informações climáticas de larga escala como covariáveis, de forma a aumentar os horizontes temporais de previsões das vazões e melhor representar a variabilidade espacial entre os postos fluviométricos. O modelo mensal PARX é aplicado na previsão de afluências aos vinte e oito principais reservatórios hidroelétricos de regularização do país. Previsões semanais para os mesmos reservatórios são obtidas a partir dos modelos utilizados pelo ONS e são atualizadas a partir da integração com as previsões mensais obtidas pelo modelo mensal PARX por meio da técnica de Ponderação Bayesiana de Modelos (BMA), que consiste em estimar pesos para os modelos semanal e mensal tendo como base o desempenho desses modelos, permitindo também obter uma estimativa das incertezas acerca dos mesmos. Assim, as previsões semanais atualizadas irão consistir de uma média ponderada das previsões obtidas pelos modelos semanal e mensal e o contexto Bayesiano de estimação dos pesos. Os resultados obtidos por meio de validação cruzada apontam um ganho estatisticamente significante em termos de previsibilidade quando as previsões semanais disponibilizadas pelo ONS são integradas via BMA com as previsões mensais oriundas do modelo PARX, a partir da análise das quatro métricas de desempenho utilizadas – raiz do erro médio quadrático (RMSE), erro médio percentual absoluto (MAPE), indicador de Nash-Sutcliffe (NS) e distância multicritério (DM). Tendo como base os dados observados e as previsões semanais utilizadas pelo ONS para o período entre janeiro de 2009 e setembro de 2014, observa-se um aumento médio na qualidade das previsões: 7,46% de ganho médio no indicador DM, para as previsões com uma semana de antecedência; 10,99%, para as previsões com duas semanas; 6,39%, nas previsões com três semanas; 10,08%, nas previsões com quatro semanas; 4,39%, nas previsões com cinco semanas de antecedência e 4,14%, com seis semanas. A partir desses resultados e em virtude da praticidade de implementação da técnica BMA nas atuais previsões semanais utilizadas pelo ONS, julga-se ser essa uma ferramenta eficaz e promissora para o aperfeiçoamento das previsões de vazão dos reservatórios do Sistema Interligado Nacional (SIN). / The use of efficient systems of short, medium and long term inflows forecast, allows optimizing the operation of the Brazilian interconnected hydroelectric reservoirs, raising the level of security of electricity supply and minimizing operating costs. The current forecast models used by the Brazilian Electric System Operator (ONS) tend to be limited in the forecast horizon and in the modeling of the dependence structure among the different time scales, thus reducing the quality of inflows forecasts and simulations. In this dissertation, in order to contribute to the improvement of short-term flow forecasts, it has developed and improved statistical forecasting models based on a hierarchical structure, where the flows generated for smaller time scales (weekly) present a structure dependence on the flows generated for the larger scales (monthly). The monthly forecasts are obtained from a periodic autoregressive exogenous model (PARX), which makes use of large-scale climate information as covariates in order to increase the time horizons of flow forecasts and better represent the spatial variability among gauging stations. The monthly PARX model is tested to inflows forecasts in the twenty eight major hydroelectric regularization reservoirs in the country. Weekly forecasts for the same reservoirs are obtained from the models used by ONS and updated from the integration with the monthly predictions obtained by the monthly model PARX through Bayesian Models Averaging technique (BMA), which is to estimate weights for the weekly and monthly models based on the performance of these models, also allowing to obtain an estimation of the uncertainty about them. Thus, updated weekly forecasts will consist of a weighted average of the forecasts obtained by weekly and monthly models and the Bayesian context of estimation of weights. The results obtained by cross validation show a statistically significant gain in terms of predictability when the weekly forecasts provided by the ONS are integrated via BMA with monthly forecasts derived from the PARX model, based on the analysis of four performance metrics used - root mean square error (RMSE), mean absolute percentage error (MAPE), Nash-Sutcliffe indicator (NS) and multicriteria distance (DM). Based on the observed data and the weekly forecasts used by the ONS for the period between January 2009 and September 2014, there was an average increase in the quality of the forecasts: 7,46% average gain in the DM indicator, for predictions for one week lead time; 10,99% for two weeks forecasts lead time; 6,39%, for three weeks; 10,08%, for four weeks; 4,39%, for five weeks forecasts lead time and 4,14%, for six weeks. From these results and because of the practicality of implementing the BMA technique on current weekly forecasts used by the ONS, is believed to be such an effective and promising tool for improving inflows forecasts to the National Interconnected Power System (SIN) reservoirs.
32

Avaliação de políticas macroprudenciais em um modelo novo Keynesiano com Intermediação financeira

Brandi, Vinicius Ratton 05 1900 (has links)
Tese (doutorado)—Universidade de Brasília, Departamento de Economia, 2013. / Submitted by Alaíde Gonçalves dos Santos (alaide@unb.br) on 2013-11-06T10:34:04Z No. of bitstreams: 1 2013_ViniciusRattonBrandi.pdf: 2252623 bytes, checksum: df37eca7ed86771d0a09e860c73c4bf4 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2013-11-12T09:52:51Z (GMT) No. of bitstreams: 1 2013_ViniciusRattonBrandi.pdf: 2252623 bytes, checksum: df37eca7ed86771d0a09e860c73c4bf4 (MD5) / Made available in DSpace on 2013-11-12T09:52:51Z (GMT). No. of bitstreams: 1 2013_ViniciusRattonBrandi.pdf: 2252623 bytes, checksum: df37eca7ed86771d0a09e860c73c4bf4 (MD5) / A recente crise financeira internacional despertou o debate acadêmico para a necessidade de incorporação de fricções financeiras na investigação sobre as flutuações econômicas e a eficiência alocativa da economia. No âmbito da regulação financeira, as medidas macroprudenciais ganharam maior destaque como instrumento na busca pela estabilidade financeira. O objetivo desta tese de doutorado consiste em avaliar a aplicação de determinadas políticas macroprudenciais com base em um modelo novo keynesiano que incorpora a atividade de intermediação financeira com fricções financeiras e custos de ajustamento. O modelo é estimado por método bayesiano com base em dados da economia brasileira. Por se tratar de um tema relativamente novo e que envolve pouca experiência prática, a literatura apresenta mais questões e desafios em relação à sua implementação do que soluções e respostas conclusivas. Neste debate que compreende as mais diversas questões envolvendo o papel e a implementação das políticas macroprudenciais, este trabalho traz contribuições que buscam esclarecer os efeitos de determinados instrumentos de regulação macroprudencial sobre variáveis macroeconômicas e financeiras. No que concerne ao requerimento de capital contracíclico, estende-se a análise para avaliar a contribuição desse instrumento específico para o alcance dos objetivos perseguidos pela autoridade prudencial e, ainda, a coordenação com os objetivos da autoridade monetária. _______________________________________________________________________________________ ABSTRACT / The recent international financial crisis has made clear that the academic debate should incorporate financial frictions to investigate business cycle fluctuations and allocative efficiency. At the financial regulation side, macroprudential measures have gained a growing importance as an instrument in the search for financial stability. The main objective of this thesis consists in the evaluation of the role of specific macroprudential policies within a new keynesian model incorporating a financial system with frictions and adjustment costs. Parameters are estimated based on bayesian methods and time series from the Brazilian economy. As a relatively new literature, the debate is more populated by questions and challenges than by conclusive answers. In this broad debate, this work aims to contribute for the understanding of the effects of some macroprudential policy instruments over relevant macroeconomic and financial variables. In what concerns specifically the countercyclical capital buffer, the analysis is extended to evaluate its contributions to the objectives pursued by the prudenctial authority and, also, its coordination with monetary authority ones.
33

Ferramenta para auxiliar a construção de quizzes apoiada por uma ontologia

FARIAS, Fabrízio Barbosa 12 September 2013 (has links)
Submitted by João Arthur Martins (joao.arthur@ufpe.br) on 2015-03-10T18:08:35Z No. of bitstreams: 2 Dissertação Fabrizio Farias.pdf: 1508370 bytes, checksum: 769acc0eeacdafb7e7de1d58a3d0fb7a (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-11T17:39:31Z (GMT). No. of bitstreams: 2 Dissertação Fabrizio Farias.pdf: 1508370 bytes, checksum: 769acc0eeacdafb7e7de1d58a3d0fb7a (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2013-09-12 / Atualmente espera-se que a Web se torne uma plataforma de comunicação e interação entre alunos e professores. Dessa forma o conhecimento pode ser construído de forma iterativa e coletiva. A utilização da tecnologia tem grande potencial no suporte ao ensino a distância, por exemplo: os quizzes online permitem avaliar uma grande quantidade de pessoas através de perguntas diretas e com respostas curtas. Existem inúmeras ferramentas de construções de quizzes na Web. Contudo elas possuem a desvantagem de não ter uma base de conhecimento formal, permitindo o compartilhamento, manipulação e reuso de conhecimento que estão nos quizzes. Neste ponto o uso de ontologia pode contribuir com compartilhamento, manipulação e reuso de conhecimento em nível de software ou como modelos conceituais de referência. Neste trabalho desenvolveu-se um modelo de ferramenta para construção de quizzes apoiada por uma ontologia lightweight sobre a leishmaniose. Para complementar o uso do modelo foi modelada uma rede bayesiana com o objetivo de regular um assunto de um quiz para um aluno específico. Os resultados encontrados são promissores desde a concepção, regulação e validação de quizzes por um grupo de alunos de medicina.
34

Redes bayesianas para inferência de redes regulatórias de genes

SANTOS, Gustavo Bastos dos January 2005 (has links)
Made available in DSpace on 2014-06-12T16:01:12Z (GMT). No. of bitstreams: 2 arquivo7177_1.pdf: 1928980 bytes, checksum: 7200aed58639d2418b3492895d4e9061 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2005 / Nos últimos anos, um grande volume de dados de várias espécies vem sendo obtido através de novas técnicas criadas e aperfeiçoadas pela biologia. Entre elas, tecnologias para medir as diferenças das expressões dos genes, através de concentrações de mRNA (microarray), estão se tornando extremamente populares e seus custos estão diminuindo. A inferência de redes regulatórias de genes a partir de dados de expressão gênica para estudar o metabolismo dos organismos é um processo importante e faz surgir o desafio de conectar os genes e seus produtos em vias metabólicas, circuitos e redes funcionais. O conhecimento sobre redes regulatórias de genes pode fornecer informações valiosas para tratamento de doenças, identificação de quais genes controlam e regulam eventos celulares e descoberta de vias metabólicas mais complexas. Uma rede regulatória de genes é um modelo que representa as regulações entre genes usando um grafo direcionado, no qual os nós indicam os genes e uma aresta (Gene 1, Gene 2) indica que o Gene 1 regula o Gene 2 (através de ativação ou repressão). Vários métodos foram propostos no decorrer dos anos para inferir uma rede regulatória de genes a partir de dados de microarray de DNA usando modelos matemáticos, tais como equações diferenciais, redes Booleanas e redes Bayesianas. Este trabalho apresenta o estudo do modelo de Rede Bayesiana e a implementação de dois programas, um usando o modelo de Rede Bayesiana e o outro usando o modelo Rede Bayesiana dinâmica, ambos com regressão não-paramétrica para inferir redes regulatórias de genes a partir de dados de expressão gênica de microarray de DNA. O critério usado para escolher as melhores redes foi o Bayesian Information Criterion (BIC), que é mais simples do que outros critérios existentes, mas ainda assim, é uma abordagem eficiente. Os resultados do trabalho foram comparados com os de trabalhos anteriores usando dois conjuntos de dados: dados artificiais para inferir uma rede regulatória artificial de genes; e dados reais de microarray do ciclo celular da levedura Saccharomyces cerevisiae para inferir o ciclo do ácido tricarboxílico (TCA). Os experimentos com os dados artificiais apresentaram bons resultados quando comparados com modelos anteriores, principalmente quando informações a priori foram adicionadas. Os experimentos com dados biológicos foram mais surpreendentes, pois a quantidade de amostras existentes era pequena e, mesmo assim, os resultados obtidos foram tão bons quanto os resultados dos modelos anteriormente propostos. A inferência de redes de genes a partir de dados de microarray usando modelos matemáticos é um problema recente e difícil. Este trabalho apresenta um modelo relativamente simples com resultados promissores, podendo ser estendido em trabalhos futuros
35

As Supernovas tipo Ia e a Cosmologia.

OLIVEIRA, P. L. C. 09 August 2010 (has links)
Made available in DSpace on 2018-08-01T22:29:32Z (GMT). No. of bitstreams: 1 tese_4557_.pdf: 3091584 bytes, checksum: f3f8012b211cf4052797c2a8cbf07695 (MD5) Previous issue date: 2010-08-09 / Esta dissertação é dedicada à investigação sobre a natureza da matéria e da energia escura no Universo através da técnica que utiliza observações a explosões de supernovae do tipo Ia como indicadoras de distâncias, usada no -fim do séc. XX para detectar a aceleração da expansão do Universo. Desde então alguns projetos voltados à observação de supernovae foram executados e tornaram públicos os seus dados, que são usados neste trabalho para a estimativa de parâmetros e comparação de modelos cosmológicos. O objetivo deste trabalho é de estudar a capacidade do teste cosmolgico feito com os dados das distâncias às supernovae tipo Ia e a sua resposta a diferentes modelos cosmológicos e parâmetros livres. Para isto foi feito uma revisão do modelo padrão da Cosmologia e das evidências que apontam para a presença da matéria e da energia escuras, seguida de um estudo sobre o fenômeno das supernovae tipo Ia em seus aspectos observacionais e astrofísicos, que permitem a construção das técnicas de calibração de suas magnitudes e a estimativa de suas distâncias. Antes de seguir para a análise cosmológica introduz-se a ferramenta apropriada que é a estatística bayesiana, estudada aqui apenas em suas ferramentas e aplicações mais elementares. E por último aplicamos estas ferramentas às amostras de dados de supernovae tipo Ia disponíveis na literatura conhecidas como Gold, SNLS, Essence e Constitution, para estudar alguns modelos cosmológicos de interesse, a começar pelo próprio modelo de concordância CDM e a parametrização wCDM que testa a consistência da suposição wX = -1 para a energia escura. Em seguida testamos dois modelos de energia do vácuo dinâmica (t) e por último um caso especial de quartessência, o Gás de Chaplygin generalisado. Os resultados mostram que os dados das supernovae usados isoladamente dão resultados bem menos expressivos do que os encontrados na literatura onde são usados em conjunto com outras evidências. Duas das amostras de dados incluindo a mais atual dão origem a resultados que apresentam irregularidades inesperadas, que apontam para a existência de fatores ainda não controlados pelas técnicas de calibração da supernovae. Ambos os resultados indicam que o teste cosmológico baseados nas distância às supernovae Ia ainda passará por um outro salto de qualidade num futuro próximo.
36

Estimativa da confiabilidade dos sensores ópticos de pressão e temperatura nas condições de uso a partir de testes acelerados de vida

DAMACENO, Wanderley Silva January 2005 (has links)
Made available in DSpace on 2014-06-12T17:42:20Z (GMT). No. of bitstreams: 2 arquivo7440_1.pdf: 698554 bytes, checksum: bc22291833a90a220d3c70ed17229607 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2005 / Devido ao acirrado mercado de exploração de petróleo as empresas do setor têm buscado consideráveis investimentos em novas tecnologias para obterem uma maior otimização na suas atividades e melhor gerenciamento da produção de petróleo. Para terem uma melhor noção do potencial de produção essa empresam têm investido no desenvolvimento e utilização de sensores ópticos em poços de petróleo. Por ser uma nova tecnologia são escassos os trabalhos que avaliem a confiabilidade de sensores ópticos nas condições operacionais em poços de produção. Nesta dissertação será utilizada uma metodologia Bayesiana para fazer uma análise da confiabilidade desses sensores nas condições usuais baseado em resultados dos tempos de falha obtidos com a aplicação de testes acelerados de vida. Será utilizada a opinião do especialista para encontrarmos os valores dos parâmetros da distribuição a priori da taxa de falha transformada como também será utilizado o procedimento Markov Chain Monte Carlo (MCMC) para se obter a distribuição a posteriori da taxa de falha transformada. Com a obtenção da distribuição a posteriori da taxa de falha transformada pode-se inferir sobre a confiabilidade dos sensores ópticos nas condições normais de operação
37

Filtrado bayesiano para estimación de parámetros orbitales en estrellas binarias visuales

Clavería Vega, Rubén Matías January 2015 (has links)
Ingeniero Civil Eléctrico / La masa es la propiedad más crítica de una estrella, ya que determina en gran medida su estructura y evolución. Se estima que un porcentaje mayoritario de las estrellas observadas en el cielo corresponde no a estrellas individuales sino a sistemas estelares múltiples. El estudio del movimiento relativo entre los componentes de un sistema estelar es la principal herramienta para calcular masas estelares; de hecho, la mayor parte de las estrellas fuera del Sistema Solar cuya masa ha podido ser determinada de manera directa corresponde a estrellas binarias ─sistemas compuestos por dos estrellas ligadas gravitacionalmente─. De esta manera, los sistemas estelares múltiples constituyen la base observacional de la teoría de estructura y evolución estelar. Dadas las características y el volumen de las observaciones astronómicas, es necesario que los métodos computacionales utilizados en el estudio de sistemas estelares múltiples sean automáticos y robustos frente a la existencia de ruido de observación, brechas temporales y pérdida de datos. Con esta motivación, el presente Trabajo de Título propone y evalúa un método de estimación automática de elementos orbitales (y con ello, de la masa total) para estrellas binarias visuales. La herramienta desarrollada utiliza un enfoque Bayesiano, planteando un esquema de estimación basado en Filtro de Partículas. En este esquema, los parámetros orbitales son formulados como un vector de estado que evoluciona a través del tiempo ─concepto conocido como Evolución Artificial de Parámetros─ y la función de verosimilitud corresponde a la caracterización estadística del error cuadrático medio del conjunto de observaciones de posición relativa en el plano del cielo. A fin de reducir la dimensionalidad del problema, se utiliza la representación de Thiele-Innes para la descripción de las órbitas. El método propuesto es probado sobre datos artificiales basados en el sistema estelar Sirius, con diferentes niveles de cobertura de órbita y error de observación característico. En la mayor parte de los casos estudiados, el método logra estimar los elementos orbitales con gran exactitud y precisión ─mejor en la medida que el error observacional característico disminuye y la cobertura de la órbita aumenta─; sin embargo, se lograron identificar casos límite en que, sin importar la calidad de los datos, los parámetros orbitales estimados presentan un error significativo (a pesar de generar órbitas concordantes con las observaciones). Finalmente, se muestra que el algoritmo desarrollado permite no sólo obtener un estimador ─un valor puntual dentro del espacio paramétrico─, sino también caracterizar la distribución a posteriori de los parámetros orbitales.
38

Análisis de datos y métodos bayesianos

Bernardo, Jose M. 25 September 2017 (has links)
En este trabajo se describen las nuevas perspectivas abiertas en la ciencia estadística por dos hechos históricos relativamente recientes, el espectacular desarrollo de los métodos gráficos en microordenadores, y la axiomatización de la estadística matemática proporcionada por el paradigma Bayesiano.
39

Análise bayesiana de densidades aleatórias simples / Bayesian analysis of simple random densities

Paulo Cilas Marques Filho 19 December 2011 (has links)
Definimos, a partir de uma partição de um intervalo limitado da reta real formada por subintervalos, uma distribuição a priori sobre uma classe de densidades em relação à medida de Lebesgue construindo uma densidade aleatória cujas realizações são funções simples não negativas que assumem um valor constante em cada subintervalo da partição e possuem integral unitária. Utilizamos tais densidades aleatórias simples na análise bayesiana de um conjunto de observáveis absolutamente contínuos e provamos que a distribuição a priori é fechada sob amostragem. Exploramos as distribuições a priori e a posteriori via simulações estocásticas e obtemos soluções bayesianas para o problema de estimação de densidade. Os resultados das simulações exibem o comportamento assintótico da distribuição a posteriori quando crescemos o tamanho das amostras dos dados analisados. Quando a partição não é conhecida a priori, propomos um critério de escolha a partir da informação contida na amostra. Apesar de a esperança de uma densidade aleatória simples ser sempre uma densidade descontínua, obtemos estimativas suaves resolvendo um problema de decisão em que os estados da natureza são realizações da densidade aleatória simples e as ações são densidades suaves de uma classe adequada. / We define, from a known partition in subintervals of a bounded interval of the real line, a prior distribution over a class of densities with respect to Lebesgue measure constructing a random density whose realizations are nonnegative simple functions that integrate to one and have a constant value on each subinterval of the partition. These simple random densities are used in the Bayesian analysis of a set of absolutely continuous observables and the prior distribution is proved to be closed under sampling. We explore the prior and posterior distributions through stochastic simulations and find Bayesian solutions to the problem of density estimation. Simulations results show the asymptotic behavior of the posterior distribution as we increase the size of the analyzed data samples. When the partition is unknown, we propose a choice criterion based on the information contained in the sample. In spite of the fact that the expectation of a simple random density is always a discontinuous density, we get smooth estimates solving a decision problem where the states of nature are realizations of the simple random density and the actions are smooth densities of a suitable class.
40

Análise bayesiana de densidades aleatórias simples / Bayesian analysis of simple random densities

Marques Filho, Paulo Cilas 19 December 2011 (has links)
Definimos, a partir de uma partição de um intervalo limitado da reta real formada por subintervalos, uma distribuição a priori sobre uma classe de densidades em relação à medida de Lebesgue construindo uma densidade aleatória cujas realizações são funções simples não negativas que assumem um valor constante em cada subintervalo da partição e possuem integral unitária. Utilizamos tais densidades aleatórias simples na análise bayesiana de um conjunto de observáveis absolutamente contínuos e provamos que a distribuição a priori é fechada sob amostragem. Exploramos as distribuições a priori e a posteriori via simulações estocásticas e obtemos soluções bayesianas para o problema de estimação de densidade. Os resultados das simulações exibem o comportamento assintótico da distribuição a posteriori quando crescemos o tamanho das amostras dos dados analisados. Quando a partição não é conhecida a priori, propomos um critério de escolha a partir da informação contida na amostra. Apesar de a esperança de uma densidade aleatória simples ser sempre uma densidade descontínua, obtemos estimativas suaves resolvendo um problema de decisão em que os estados da natureza são realizações da densidade aleatória simples e as ações são densidades suaves de uma classe adequada. / We define, from a known partition in subintervals of a bounded interval of the real line, a prior distribution over a class of densities with respect to Lebesgue measure constructing a random density whose realizations are nonnegative simple functions that integrate to one and have a constant value on each subinterval of the partition. These simple random densities are used in the Bayesian analysis of a set of absolutely continuous observables and the prior distribution is proved to be closed under sampling. We explore the prior and posterior distributions through stochastic simulations and find Bayesian solutions to the problem of density estimation. Simulations results show the asymptotic behavior of the posterior distribution as we increase the size of the analyzed data samples. When the partition is unknown, we propose a choice criterion based on the information contained in the sample. In spite of the fact that the expectation of a simple random density is always a discontinuous density, we get smooth estimates solving a decision problem where the states of nature are realizations of the simple random density and the actions are smooth densities of a suitable class.

Page generated in 0.0429 seconds