• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 9
  • 2
  • 1
  • Tagged with
  • 12
  • 10
  • 7
  • 5
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

[en] DYNAMIC BAYESIAN MODEL FOR A TRUNCATED NORMAL / [pt] MODELO DINÂMICO BAYESIANO PARA A DENSIDADE NORMAL TRUNCADA

MONICA BARROS 08 May 2006 (has links)
[pt] Nesta tese desenvolvemos um Modelo Dinâmico Bayesiano para a densidade Normal Truncada. A estimação clássica e estática de observações desta densidade foi desenvolvida por A.C. Cohen nas décadas de 1950 e 1960, enquanto R. C. Souza apresentou, em 1978, um modelo dinâmico Bayesiano para esta densidade, no qual utilizava idéias da Teoria de Informação. O presente trabalho estende a formulação dinâmica Bayesiana de West, Harrinson e Migon por tratar de observações que não pertencem à família exponencial. Ao mesmo tempo, estendemos os resultados de Souza por não mais supor a estacionariedade da série. Algumas séries reais e simuladas são analisadas e, em particular, comparamos nossos resultados com aqueles obtidos por Souza. / [en] This thesis describes a Dynamic Bayesian Model for a Truncated Normal distribution. The classical and static solution to the problem of finding estimators for the parameters of the original Normal distribution was treated by A.C. Cohen in the 1950s and 1960s R.C. Souza (1978) described in his Doctoral thesis a Dynamic Bayesian Model for this distribution, in which Information Theory concepts were used. The present thesis extends the dynamic formulation of West, Harrison and Migon by considering a distribution which is not a member of a an Exponential Family. Moreover, we extend the results derived by Souza by dropping the assumptions of a steady state model. Some real and simulated series are analyzed and, in particular, we compare our results with those obtained by souza.
2

Simulação perfeita da distribuição normal multivariada truncada / Perfect simulation of the multivariate truncated normal distribution

Campos, Thiago Feitosa 09 March 2010 (has links)
No presente trabalho apresentamos o algoritmo de simulacão perfeita CFTP, proposto em Propp & Wilson (1996). Seguindo o trabalho de Philippe & Robert (2003) implementamos o CFTP gerando amostras da distribuicão normal bivariada truncada no quadrante positivo. O algoritmo proposto e comparado com o amostrador de Gibbs e o método de rejeição. Finalmente, apresentamos sugestões para a implementação do CFTP para gerar amostras da distribuição normal truncada em dimensões maiores que dois e a geração de amostras em conjuntos diferente do quadrante positivo. / This project will display the CFTP perfect simulation algorithm presented at Propp & Wilson (1996). According to Philippe & Robert (2003) will be implemented the CFTP providing samples of the bivariate normal distribution truncated at the positive quadrant. The proposed algorithm is compared to the samples generated by Gibbs Sampler and by the rejection sampling ( or acceptance rejection method or \"accept-reject algorithm\"). Finally, suggestions to the implementation of CFTP in order to produce truncated normal distribution samples at bigger dimensions than two and the provide a diferent set of samples from the positive quadrant.
3

Simulação perfeita da distribuição normal multivariada truncada / Perfect simulation of the multivariate truncated normal distribution

Thiago Feitosa Campos 09 March 2010 (has links)
No presente trabalho apresentamos o algoritmo de simulacão perfeita CFTP, proposto em Propp & Wilson (1996). Seguindo o trabalho de Philippe & Robert (2003) implementamos o CFTP gerando amostras da distribuicão normal bivariada truncada no quadrante positivo. O algoritmo proposto e comparado com o amostrador de Gibbs e o método de rejeição. Finalmente, apresentamos sugestões para a implementação do CFTP para gerar amostras da distribuição normal truncada em dimensões maiores que dois e a geração de amostras em conjuntos diferente do quadrante positivo. / This project will display the CFTP perfect simulation algorithm presented at Propp & Wilson (1996). According to Philippe & Robert (2003) will be implemented the CFTP providing samples of the bivariate normal distribution truncated at the positive quadrant. The proposed algorithm is compared to the samples generated by Gibbs Sampler and by the rejection sampling ( or acceptance rejection method or \"accept-reject algorithm\"). Finally, suggestions to the implementation of CFTP in order to produce truncated normal distribution samples at bigger dimensions than two and the provide a diferent set of samples from the positive quadrant.
4

Modelos de Localización y Escala. Algunas consideraciones teóricas y aplicaciones a pequeñas muestras

Damilano Scarpinello, Gabriela L. 14 July 2005 (has links)
La tesis se centra en el estudio de las características y procedimientos de inferencia de los Modelos de Localización y Escala. Por una parte, se caracteriza a todos los modelos de localización simétricos para los cuales una combinación lineal de la media y mediana muestrales es un estimador asintóticamente eficiente del parámetro de localización. El modelo resultante, a tres parámetros, puede entenderse como una distribución Normal Truncada Simetrizada. Se presentan además dos métodos alternativos para estimar los parámetros que, por sus propiedades asintóticas, resultan buenos competidores de los estimadores de máxima verosimilitud (EMV): uno basado en la "Curtosis Empírica" que se destaca por su sencillez de cálculo y un "Algoritmo" iterativo que puede implementarse fácilmente usando software estándar que trabaje con la distribución Normal Truncada simple. También se realizan estudios basados en simulaciones a fin de comparar el comportamiento de los distintos estimadores cuando el tamaño muestral es pequeño. Extendiendo este resultado al caso particular del estimador de Hodges-Lehmann, se caracteriza a las distribución Logística como el único modelo de localización simétrico para el cual este estimador es asintóticamente eficiente. Por otra parte, se investigan los procedimientos de inferencia en modelos de localización y escala en presencia de censura de Tipo I (time censored) y se demuestra una condición suficiente para la unicidad del EMV. Además, se aplica el estadístico Z* de Barndorff-Nielsen, basado en la aproximación asintótica de orden superior Saddlepoint, para la estimación por intervalos de la media poblacional de la distribución Normal y el parámetro de escala de la distribución Valor Extremo (Log-Weibull); asimismo, y a través de simulaciones, se estudia su comportamiento para pequeñas muestras. En la extensión al caso de dos muestras se considera la comparación de medias para muestras emparejadas e independientes (problema de Behrens-Fisher) y la comparación de los parámetros de escala de dos distribuciones Valor Extremo.Si bien el ámbito de la investigación se desarrolla dentro de la Estadística Matemática, todos los tópicos tratados se ilustran con ejemplos de aplicación a situaciones prácticas. / The thesis is focused on the study of the characteristics and procedures of statistical inference for the Location and Scale Models.First, we have characterized all the symmetric location models for which a linear combination of the median and sample mean is an asymptotically efficient estimator of the location parameter. The resulting model can be understood as a symmetrized or doubled truncated normal distribution. Two alternative methods to estimate the parameters are given, which are good competitors of the maximum likelihood estimators because their asymptotic properties: one is based on the empirical curtosis and is remarkable for its simplicity; the other is a simple iterative algorithm that can be performed by using standard software working with the singly truncated normal distribution. In order to compare the available estimators we have studied their performance for small sample sizes by Monte Carlo simulations.On the other hand, for location and scale models with Type I Censored data, the estimation of the parameters based on likelihood is analysed and a sufficient condition for the uniquely of the maximum likelihood estimator is given. We have used the Barndorff-Nielsen Z*-statistic based on higher-order asymptotic methods (saddlepoint approximations) for several inferential purposes: to obtain confidence intervals for the theoretical mean of a normal distribution and for the scale parameter of an Extreme Value (Log-Weibull) distribution, to compare the means of two normal populations when the samples are matched and independents with not equally variances (Bhrens-Fisher problem) and also, to compare the scale parameters of two Extreme Value distribution. More over, the performance of the Z*-statistic for small samples sizes is investigated by Monte Carlo experiments. Although the investigation is basically developed on the field of Mathematical Statistics, examples of applications to practical situations are given illustrate all the topics considered.
5

Modelamiento Geoestadístico de Abundancias de Minerales en el Yacimiento Radomiro Tomic

Cornejo González, Javier January 2009 (has links)
El consumo de ácido en yacimientos con zonas de óxidos superficiales es una variable importante dentro del proceso, ya que una pequeña variación en el porcentaje de minerales como la crisocola, el copper wad, las arcillas de cobre y la atacamita puede aumentar el costo asociado a este consumo y además disminuir la extracción final. Con esto, es clave realizar una buena estimación de las abundancias de minerales, ayudando a tomar decisiones que pueden derivar en el éxito o fracaso económico del proyecto y a reducir los costos de procesamiento. El presente estudio se realizó en el yacimiento Radomiro Tomic, en particular para el banco 28.250 que forma parte de la zona de óxidos superficiales. Dentro de esta zona, se consideró cuatro variables (arcillas de cobre, atacamita, crisocola y copper wad) que corresponden a una asociación de óxidos. Los datos disponibles provienen de pozos de tronadura y corresponden a apreciaciones visuales del porcentaje de presencia dentro de los óxidos, de forma que su medida (entre 0% y 100%) tiene un error asociado debido a su naturaleza cualitativa. Por esta razón, se clasificaron los datos en un número limitado de valores, con lo que se obtuvieron cuatro variables discretas ordenadas. Con la información anterior, se aplicaron dos métodos geoestadísticos (co-kriging y co-simulación) para modelar la distribución de las abundancias de minerales en el banco. Estos métodos se diferencian por cuanto el primero está pensado para estimación de variables produciendo un alisamiento de los valores, mientras que el segundo está pensado para reproducir la variabilidad de las abundancias reales. Ambos están basados en un modelamiento de la correlación espacial de cada variable y de las correlaciones entre variables. Luego, se buscó comparar los dos enfoques, en cuanto a sus capacidades de predecir las abundancias en sectores sin información y de medir la incertidumbre en los valores reales de estas abundancias. Los métodos propuestos presentan tiempos de cálculo disímiles, así como complejidades muy superiores en el caso de la co-simulación, la cual requiere convertir las variables discretas en variables Gaussianas. Sin embargo, a diferencia del co-kriging, la co-simulación permite reproducir la variabilidad espacial de las abundancias de minerales, con lo cual se puede determinar intervalos en donde las abundancias reales son susceptibles de hallarse y tener una mejor idea de los riesgos de tener excesos o deficiencias de ciertos minerales en el proceso metalúrgico. Finalmente la co-simulación es una herramienta muy útil para la producción en el corto plazo, a fin de determinar las mezclas enviadas a planta, pudiendo mejorarse la recuperación y la extracción y minimizar los costos de consumo de ácido y así mejorar las utilidades del negocio.
6

[en] DATA DISAGGREGATION WITH ECOLOGICAL INFERENCE: IMPLEMENTATION OF MODELS BASED IN THE TRUNCATED NORMAL AND ON THE BINOMIAL-BETA VIA EM ALGORITHM / [es] DESAGREGACIÓN DE DATOS CON INFERENCIA ECOLÓGICA: IMPLEMENTACIÓN DE MODELOS CON BASE EN LA NORMAL TRUNCADA Y EN LA BINOMIAL-BETA VÍA ALGORITMO EM / [pt] DESAGREGAÇÃO DE DADOS COM INFERÊNCIA ECOLÓGICA: IMPLEMENTAÇÕES DE MODELOS BASEADOS NA NORMAL TRUNCADA E NA BINOMIAL-BETA VIA ALGORITMO EM

ROGERIO SILVA DE MATTOS 13 March 2001 (has links)
[pt] Inferência ecológica reúne o conjunto de procedimentos estatísticos para se prever dados desagregados quando só estão disponíveis dados agregados. Duas novas metodologias propostas recentemente vêm motivando novos desenvolvimentos na área: o modelo baseado na normal bivariada truncada (MNBT) e o modelo hierárquico binomial-beta (MHBB). A tese reavalia estas metodologias e explora implementações computacionais mais eficientes através do Algoritmo EM e uma de suas extensões, o Algoritmo ECM. Comparando-se com métodos de quase-Newton, uma versão estável, porém mais lenta, é obtida para implementação do MNBT e uma versão estável e mais rápida é obtida para o MHBB. Adicionalmente, as metodologias são comparadas em termos de suas capacidades preditivas através de um extenso experimento de Monte Carlo e da aplicação sobre bases de dados reais selecionadas. A superioridade do MNBT se evidencia na maioria dos casos. Problemas de modelagem do MHBB são corrigidos e é apontada uma limitação assintótica das previsões produzidas por este último. / [en] Ecological inference comprises the set of statistical procedures for the prediction of disaggegate data when data are available only in aggregate form. Two recently proposed approaches have motivated new developments in the field: the model based on a truncated bivariate normal (MNBT) and the hierchical binomial-beta model (MHBB). The thesis reevaluates these approaches and explores more efficient computational implementations via the EM Algorithm and one of its extensions, the ECM Algorithm. As compared to quasi-Newton algorithms, a stable yet slower version is obtained for the implementation of the MNBT, and a stable and faster version is obtained for the MHBB. The methodologies are compared in predictive terms by means of an extensive Monte Carlo experiment and of the application to real datasets. The superiority of the MNBT is evident in the majority of cases. Modeling mistakes of the MHBB are corrected and an asymptotic restriction of the predictions made with this model is pointed. / [es] La inferencia ecológica reúne un conjunto de procedimentos estatísticos para prever datos desagregados cuando solo están disponibles datos agregados. Dos nuevas metodologías propuestas recientemente han motivando nuevos desarrollos en el área: el modelo que tiene como base la normal bivariada truncada (MNBT) y el modelo jerárquico binomial- beta (MHBB). La tesis reevalúa estas metodologías y explora implementaciones computacionales más eficientes a través del Algoritmo EM y una de sus extensiones, el Algoritmo ECM. Estos métodos se comparan con métodos de quase- Newton. Se obtiene una versión estable aunque más lenta, para la implementación de MNBT y una versión estable y más rápida para el MHBB. Adicionalmente, se comparan las metodologías en función de sus capacidades predictivas a través de un extenso experimento de Monte Carlo. Em la mayor parte de los casos se observa superioridad del MHNBT. Se corrigen problemas de modelaje del MHBB apuntadando uma limitación asintótica de las previsiones producidas por este último.
7

Modelos de mistura para dados com distribuições Poisson truncadas no zero / Mixture models for data with zero truncated Poisson distributions

Gigante, Andressa do Carmo 22 September 2017 (has links)
Modelo de mistura de distribuições tem sido utilizado desde longa data, mas ganhou maior atenção recentemente devido ao desenvolvimento de métodos de estimação mais eficientes. Nesta dissertação, o modelo de mistura foi utilizado como uma forma de agrupar ou segmentar dados para as distribuições Poisson e Poisson truncada no zero. Para solucionar o problema do truncamento foram estudadas duas abordagens. Na primeira, foi considerado o truncamento em cada componente da mistura, ou seja, a distribuição Poisson truncada no zero. E, alternativamente, o truncamento na resultante do modelo de mistura utilizando a distribuição Poisson usual. As estimativas dos parâmetros de interesse do modelo de mistura foram calculadas via metodologia de máxima verossimilhança, sendo necessária a utilização de um método iterativo. Dado isso, implementamos o algoritmo EM para estimar os parâmetros do modelo de mistura para as duas abordagens em estudo. Para analisar a performance dos algoritmos construídos elaboramos um estudo de simulação em que apresentaram estimativas próximas dos verdadeiros valores dos parâmetros de interesse. Aplicamos os algoritmos à uma base de dados real de uma determinada loja eletrônica e para determinar a escolha do melhor modelo utilizamos os critérios de seleção de modelos AIC e BIC. O truncamento no zero indica afetar mais a metodologia na qual aplicamos o truncamento em cada componente da mistura, tornando algumas estimativas para a distribuição Poisson truncada no zero com viés forte. Ao passo que, na abordagem em que empregamos o truncamento no zero diretamente no modelo as estimativas apontaram menor viés. / Mixture models has been used since long but just recently attracted more attention for the estimations methods development more efficient. In this dissertation, we consider the mixture model like a method for clustering or segmentation data with the Poisson and Poisson zero truncated distributions. About the zero truncation problem we have two emplacements. The first, consider the zero truncation in the mixture component, that is, we used the Poisson zero truncated distribution. And, alternatively, we do the zero truncation in the mixture model applying the usual Poisson. We estimated parameters of interest for the mixture model through maximum likelihood estimation method in which we need an iterative method. In this way, we implemented the EM algorithm for the estimation of interested parameters. We apply the algorithm in one real data base about one determined electronic store and towards determine the better model we use the criterion selection AIC and BIC. The zero truncation appear affect more the method which we truncated in the component mixture, return some estimates with strong bias. In the other hand, when we truncated the zero directly in the model the estimates pointed less bias.
8

[en] MULTIPLE IMPUTATION IN MULTIVARIATE NORMAL DATA VIA A EM TYPE ALGORITHM / [pt] UM ALGORITMO - EM - PARA IMPUTAÇÃO MÚLTIPLA DE DADOS CENSURADOS

FABIANO SALDANHA GOMES DE OLIVEIRA 05 July 2002 (has links)
[pt] Construímos um algoritmo tipo EM para estimar os parâmetros por máxima verossimilhança. Os valores imputados são calculados pela média condicional sujeito a ser maior (ou menor) do que o valor observado. Como a estimação é por máxima verossimilhança, a matriz de informação permite o cálculo de intervalos de confiança para os parâmetros e para os valores imputados. Fizemos experiência com dados simulados e há também um estudo de dados reais (onde na verdade a hipótese de normalidade não se aplica). / [en] An EM algorithm was developed to parameter estimation of a multivariate truncate normal distribution. The multiple imputation is evaluated by the conditional expectation becoming the estimated values greater or lower than the observed value. The information matrix gives the confident interval to the parameter and values estimations. The proposed algorithm was tested with simulated and real data (where the normality is not followed).
9

[en] A BAESIAN APPROACH TO MODEL THE CONDITIONAL DEMAND OF ELETRIC ENERGY OF RESIDENTIAL CONSUMES / [pt] UMA ABORDAGEM BAYESIANA PARA OS MODELOS DE DEMANDA CONDICIONAL PARA O CONSUMO RESIDENCIAL DE ENERGIA ELÉTRICA

ANA MARIA LIMA DE FARIAS 17 March 2006 (has links)
[pt] A análise de demanda condicional (conditional demand analysis - CDA) é um método econométrico que, aplicado ao estudo do consumo residencial de energia elétrica, permite estimar a quantidade de energia consumida por diferentes aparelhos eletrodomésticos. Nessa tese, métodos bayesianos são utilizados na estimação dos modelos CDA. A restrição de não negatividade dos coeficientes de consumo de energia é incorporada ao modelo através do uso da densidade normal truncada como priori dos parâmetros. Como as densidades a posteriori resultantes também são truncadas, métodos de simulação estocástica cria cadeias de Markov são usados na estimação de tais densidades. O método desenvolvido é aplicado a um conjunto de dados fornecido pela LIGHT, uma das concessionárias de energia do estado do Rio de Janeiro, gerando as curvas de carga para diversos aparelhos. / [en] Conditional demand analysis (CDA) is an econometric method that, applied to studies of consumption of energy in the household sector, allows us to estimate the demand of energy for different appliances. In this thesis, the estimation of the CDA models is made in a Bayesian framework. The truncated normal distribution is used as a prior of the parameters, assuring their nonnegativity restrictions. Since the resulting posteriors are truncated distributions too, the Gibbs sampler is applied in the estimation of those densities. The results obtained are applied to a dataset obtained from LIGHT, one of the electricity utilities of Rio de Janeiro, in order to obtain some appliances load curves.
10

Modelos de mistura para dados com distribuições Poisson truncadas no zero / Mixture models for data with zero truncated Poisson distributions

Andressa do Carmo Gigante 22 September 2017 (has links)
Modelo de mistura de distribuições tem sido utilizado desde longa data, mas ganhou maior atenção recentemente devido ao desenvolvimento de métodos de estimação mais eficientes. Nesta dissertação, o modelo de mistura foi utilizado como uma forma de agrupar ou segmentar dados para as distribuições Poisson e Poisson truncada no zero. Para solucionar o problema do truncamento foram estudadas duas abordagens. Na primeira, foi considerado o truncamento em cada componente da mistura, ou seja, a distribuição Poisson truncada no zero. E, alternativamente, o truncamento na resultante do modelo de mistura utilizando a distribuição Poisson usual. As estimativas dos parâmetros de interesse do modelo de mistura foram calculadas via metodologia de máxima verossimilhança, sendo necessária a utilização de um método iterativo. Dado isso, implementamos o algoritmo EM para estimar os parâmetros do modelo de mistura para as duas abordagens em estudo. Para analisar a performance dos algoritmos construídos elaboramos um estudo de simulação em que apresentaram estimativas próximas dos verdadeiros valores dos parâmetros de interesse. Aplicamos os algoritmos à uma base de dados real de uma determinada loja eletrônica e para determinar a escolha do melhor modelo utilizamos os critérios de seleção de modelos AIC e BIC. O truncamento no zero indica afetar mais a metodologia na qual aplicamos o truncamento em cada componente da mistura, tornando algumas estimativas para a distribuição Poisson truncada no zero com viés forte. Ao passo que, na abordagem em que empregamos o truncamento no zero diretamente no modelo as estimativas apontaram menor viés. / Mixture models has been used since long but just recently attracted more attention for the estimations methods development more efficient. In this dissertation, we consider the mixture model like a method for clustering or segmentation data with the Poisson and Poisson zero truncated distributions. About the zero truncation problem we have two emplacements. The first, consider the zero truncation in the mixture component, that is, we used the Poisson zero truncated distribution. And, alternatively, we do the zero truncation in the mixture model applying the usual Poisson. We estimated parameters of interest for the mixture model through maximum likelihood estimation method in which we need an iterative method. In this way, we implemented the EM algorithm for the estimation of interested parameters. We apply the algorithm in one real data base about one determined electronic store and towards determine the better model we use the criterion selection AIC and BIC. The zero truncation appear affect more the method which we truncated in the component mixture, return some estimates with strong bias. In the other hand, when we truncated the zero directly in the model the estimates pointed less bias.

Page generated in 0.1552 seconds