Spelling suggestions: "subject:"sampler"" "subject:"resampler""
131 |
Etude et mise en œuvre d’un banc intégré et étalonné 4 canaux pour la caractérisation temporelle de dispositifs non-linéaires hyperfréquences / Study and implementation of a 4-channel integrated and calibrated time-domain characterization system for the characterization of non-linear microwave devicesFarah, Saïd 10 March 2017 (has links)
Ce travail de cette thèse propose une conception et une réalisation d’un banc intégré de caractérisation temporelle des dispositifs RF non-linéaires conçu avec des récepteurs de type THA. Ce banc est une version miniaturisée, moins onéreuse et à performances comparables d’un banc similaire « éclaté » et développé au sein d’XLIM. Le banc intégré développé dans ce travail est entièrement étalonné. Il est versatile vis-à-vis des techniques de sous échantillonnage mis en œuvre pour mesurer des signaux RF sur des temps d’acquisition très différents (<50 µs ou < quelques ms). La technique CIS est utilisée pour l’acquisition périodiques de signaux RF périodiques de durée courtes. La technique DQD est utilisée pour l’acquisition périodiques ou apériodique de signaux RF périodiques ou apériodiques. Cet outil a été utilisé pour extraire, à partir des formes d’ondes temporelles mesurées à leurs accès, plusieurs paramètres caractéristiques (AM/AM- AM/PM, EVM) d’amplificateurs GaN de gamme 10 à 50 W soumis à des excitations simples ou à des signaux modulés. Ce manuscrit décrit aussi la mise en œuvre le développement, parallèlement au travail précédent, d’une plateforme de laboratoire de travaux pratiques à distance pour le projet européen TEMPUS EOLES. / This work proposes the design and the realization of a 4-channel integrated and calibrated time-domain characterization system for the characterization of non-linear microwave devices. This integrated measurement system uses THA based receivers. This is a miniaturized, less expensive and comparable version of a similar laboratory available tool developed within XLIM. The integrated instrument developed in this work is fully calibrated. It is versatile with respect to sub-sampling techniques used to measure RF signals over very different acquisition times (<50 µs or < few ms). The CIS technique is used for the periodic acquisition of periodic short duration RF signals. The DQD technique is used for the periodic or aperiodic acquisition of periodic or aperiodic RF signals. This tool was used to extract, from the measured time-domain waveforms at their ports, several characteristic parameters (AM/AM-AM/PM, EVM) of GaN amplifiers operating in the 10 to 50 W range and excited with simple or modulated signals. This manuscript also describes the implementation, and the development, performed along with the previous work, of a laboratory platform for remote practical works in the context of the European project TEMPUS EOLES.
|
132 |
Evaluating Markov Chain Monte Carlo Methods for Estimating Systemic Risk Measures Using Vine Copulas / Utvärdering av Markov Chain Monte Carlo-metoder vid estimering av systemisk risk under portföljmodellering baserad på Vine CopulasGuterstam, Rasmus, Trojenborg, Vidar January 2021 (has links)
This thesis attempts to evaluate the Markov Chain Monte Carlo (MCMC) methods Metropolis-Hastings (MH) and No-U-Turn Sampler (NUTS) to estimate systemic risk measures. The subject of analysis is an equity portfolio provided by a Nordic asset management firm, which is modelled using a vine copula. The evaluation considers three different crisis outcomes on a portfolio level, and the results are compared with a Monte Carlo (MC) benchmark. The MCMC samplers attempt to increase sampling efficiency by sampling from these crisis events directly, which is impossible for an MC sampler. The resulting systemic risk measures are evaluated both on the portfolio level as well as marginal level. The results are divided. In part, the MCMC samplers proved to be efficient in terms of accepted samples, where NUTS outperformed MH. However, due to the practical implementation of the MCMC samplers and the vine copula model, the computational time required outweighed the gains in sampler efficiency - causing the MC sampler to outperform both MCMC samplers in certain settings. For NUTS, there seems to be great potential in the context of estimating systemic risk measures as it explores high-dimensional and multimodal joint distributions efficiently with low autocorrelation. It is concluded that asset management companies can benefit from both using vine copulas to model portfolio risk, as well as using MC or MCMC methods for evaluating systemic risk. However, for the MCMC samplers to be of practical relevance, it is recommended to further investigate efficient implementations of vine copulas in the context of MCMC sampling. / Detta examensarbete utvärderar Markov Chain Monte Carlo (MCMC)-metoderna No-U-Turn Sampler (NUTS) och Metropolis-Hastings (MH) vid uppskattning av systemiska riskmått. För att göra detta används en vine copula för att modellera en portfölj, baserad på empirisk data från ett nordiskt kapitalförvaltningsföretag. Metoderna utvärderas givet tre olika krishändelser och jämförs därefter med ett Monte Carlo (MC) benchmark. MCMC-metoderna försöker öka samplingseffektiviteten genom att simulera direkt från dessa krishändelser, vilket är omöjligt för en klassisk MC-metod. De resulterande systemiska riskmåtten utvärderas både på portföljnivå och på marginalnivå. Resultaten är delade. Dels visade sig MCMC-metoderna vara effektiva när det gäller accepterade samples där NUTS överträffade MH. Dock, med anledning av av den praktiska implementationen av MCMC-metoderna och vine copula modellen var beräkningstiden för hög trots effektiviteten hos metoden - vilket fick MC-metoden att överträffa de andra metoderna i givet dessa särskilda kontexter. När det kommer till att uppskatta systemiska riskmått finns det dock stor potential för NUTS eftersom metoden utforskar högdimensionella och multimodala sannolikhetsfördelningar effektivt med låg autokorrelation. Vi drar även slutsatsen att kapitalförvaltare kan dra nytta av att både använda riskmodeller baserade på vine copulas, samt använda MC- eller MCMC-metoder för att utvärdera systemisk risk. För att MCMC-metoderna ska vara av praktisk relevans rekommenderas det dock att framtida forskning görs där mer effektiva implementeringar av vine copula-baserade modeller görs i samband med MCMC-sampling.
|
133 |
Étude de la performance d’un algorithme Metropolis-Hastings avec ajustement directionnelMireuta, Matei 08 1900 (has links)
Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont des outils très populaires
pour l’échantillonnage de lois de probabilité complexes et/ou en grandes dimensions.
Étant donné leur facilité d’application, ces méthodes sont largement répandues
dans plusieurs communautés scientifiques et bien certainement en statistique, particulièrement
en analyse bayésienne. Depuis l’apparition de la première méthode MCMC en
1953, le nombre de ces algorithmes a considérablement augmenté et ce sujet continue
d’être une aire de recherche active.
Un nouvel algorithme MCMC avec ajustement directionnel a été récemment développé
par Bédard et al. (IJSS, 9 :2008) et certaines de ses propriétés restent partiellement
méconnues. L’objectif de ce mémoire est de tenter d’établir l’impact d’un paramètre clé
de cette méthode sur la performance globale de l’approche. Un second objectif est de
comparer cet algorithme à d’autres méthodes MCMC plus versatiles afin de juger de sa
performance de façon relative. / Markov Chain Monte Carlo algorithms (MCMC) have become popular tools for sampling
from complex and/or high dimensional probability distributions. Given their relative
ease of implementation, these methods are frequently used in various scientific
areas, particularly in Statistics and Bayesian analysis. The volume of such methods has
risen considerably since the first MCMC algorithm described in 1953 and this area of
research remains extremely active.
A new MCMC algorithm using a directional adjustment has recently been described
by Bédard et al. (IJSS, 9:2008) and some of its properties remain unknown. The objective
of this thesis is to attempt determining the impact of a key parameter on the global
performance of the algorithm. Moreover, another aim is to compare this new method to
existing MCMC algorithms in order to evaluate its performance in a relative fashion.
|
134 |
Assessment of Ambient Air Particulate Matter in the New Orleans Historic DistrictPortillo, Federico 19 December 2008 (has links)
Particulate matter in the ambient air of down-town New Orleans, LA, is not currently recorded by any government, state, or private organization. This research quantified particulate matter (PM) and its metal concentration in ambient air of the New Orleans Historic District. Both, PM10 (PM less than 10 micron in size) and PM2.5 (PM less than 2.5 micron in size) were quantified by gravimetric analysis using an Andersen Dichotomous Sampler (Series 240). Posterior to gravimetric analysis, the filters were analyzed with a fluorescent test method using an Innov-X Portable XRF Analyzer (Model A-6500). This study demonstrated that the ambient air of the New Orleans Historic District is in compliance with the National Ambient Ai Quality Standards regarding contamination of particulate matter and Lead.
|
135 |
Determinação da concentração de elementos químicos potencialmente tóxicos em aerossóis presentes no interior de uma pequena indústria de fundição de metais, utilizando amostrador temporal e a técnica de fluorescência de raios X / Toxic inorganic elements content in suspended particulate matter inside a small foundry plant by streaker sampler and energy dispersive X-ray fluorescence techniqueMassoni, Paulo Rogério 09 March 2009 (has links)
Este trabalho foi desenvolvido objetivando a determinação e a avaliação dos perfis temporais da concentração de alguns elementos químicos potencialmente tóxicos presentes no material particulado em suspensão (MPS) no interior de uma pequena indústria de fundição de metais bronze, ferro e alumínio que, em concentrações elevadas, podem acarretar sérios riscos à saúde do trabalhador. Para isso foi utilizado um amostrador temporal de MPS, que coleta amostras de aerossóis em intervalo de tempo pré-programados, separando-os por tamanho: (a) fração fina ou respirável (partículas com diâmetro aerodinâmico menor que 2,5 m, MP2,5) e (b) fração grossa ou inalável (entre 2,5 a 10 m, MP10-2,5), durante todo o período do processo de fundição (da fusão à moldagem). As amostras coletadas, na forma de faixas (strips) sobre um filtro (fração fina) e sobre um impactador (fração grossa), foram analisadas pela técnica de fluorescência de raios X por dispersão de energia (EDXRF), utilizando na excitação um tubo de raios X com alvo de Mo e e na detecção dos raios X característicos um detector semicondutor de Si(Li) acoplado a um analisador de pulsos multicanal, interpretando-se posteriormente os espectros de raios X obtidos pelo aplicativo AXIL. Para algumas amostras também foi feita uma análise com microscópio eletrônico de varredura (SEM/EDS) para se conhecer a morfologia dos particulados. Deste modo foi possível determinar a concentração de elementos químicos potencialmente tóxicos presentes em um ambiente de uma pequena indústria de fundição de metais, mostrando que o momento mais crítico dessa atividade foi o da moldagem e também determinar a forma do MPS. Na fundição do bronze e ferro, as concentrações dos elementos Cr, Mn, Ni e Pb, principalmente na fração fina no momento de moldagem, mostraram-se muito superior aos limites recomendados pelas agências brasileira e norte-americana. Apesar de não haver limites recomendados para o elemento Zn, foi verificada uma alta concentração principalmente na concentração na fração fina, o mesmo sucedendo para o Cu. Com respeito a fundição de alumínio, foi observado altas concentrações principalmente de Zn e Cu, somente na fração fina, não ocorrendo na fração grossa. Pelos resultados obtidos pode-se concluir que os trabalhadores estão sujeitos a condições insalubres de trabalho nesse tipo de ambiente, aconselhando-se o uso permanente de equipamentos adequados de proteção visando de preferência a fração fina, assim como um monitoramento constante desses elementos químicos durante todas as etapas do processo de fundição, principalmente na de moldagem / The aim of this work was to evaluate the chemical concentration of some potentially toxic inorganic chemical elements and the time profiles in fine (PM2.5, particles up to 2.5 m) and coarse (PM2.5-10, particles from 2.5 to 10 m) suspended particulate matter (SPM) inside a small foundry plant - bronze, iron and aluminium -, in which at high concentrations turns a healthy concern. For these purpose, a rotating streaker airparticulate sampler for sampling during all day foundry activity was utilized. Fine SPM was collected on a filter and coarse SPM in turn by an impactor. The collected samples were analyzed by energy dispersive X-ray fluorescence (EDXRF) technique employing a Mo target tube in the excitation, and the detection was carried out through Si(Li) semiconductor detector coupled to multichannel analyser, deconvolutting the X-ray spectra with AXIL software help. It was also carried out particulated morphological analysis by scanning electron microscopy with energy dispersive X-ray spectrometer coupled (SEM/EDS). In this manner, the inorganic chemicals content were determined in the small foundry allowing concluding that the moulding step is the critical one taking into account the amount of pollutant released. During bronze and iron melting, the Cr, Mn, Ni and Pb contents in SPM were higher than allowed values by Brazilian and United States legislations. It was also verified a high Zn and Cu content, mainly in the fine suspended particulate matter, although these elements are not contemplated by national nor international laws. Thus, due to this unhealthy environmental working conditions inside the small foundry plant,a proper individual protection equipment is mandatory mainly for fine suspended particulate matter, and a constant air pollutant monitoring in foundry plants is demanded, mainly during the moulding step
|
136 |
A poluição atmosférica por material particulado na mineração a céu aberto. / Atmospheric pollution by particulate matter in the open pit mining.Almeida, Ivo Torres de 20 December 1999 (has links)
Foram abordadas questões relacionadas com a temática da poluição atmosférica provocada pelo material particulado em suspensão. Dois ambientes foram selecionados para estudo: um ambiente de mineração e um ambiente urbano. Com o objetivo de obter uma avaliação preliminar da qualidade do ar nesses ambientes, foi realizado um programa de amostragem para cada área. Dois pontos básicos foram abordados nessa avaliação: a determinação da concentração de partículas totais em suspensão e a caracterização química e física do material particulado. A determinação das concentrações de partículas totais em suspensão foi obtida através do uso de amostradores de grande volume (Hi-vols). O método de referência utilizado foi o método do amostrador de grande volume proposto pela ABNT através da norma NBR 9547: 97. A caracterização física envolveu a determinação da distribuição granulométrica do material particulado em suspensão enquanto que a caracterização química compreendeu a determinação da sua composição. As técnicas analíticas utilizadas na caracterização do material particulado, foram a espectrometria de Fluorescência de Raios-X (XRF) para a caracterização química, e o Espalhamento de Luz Laser de Baixo Angulo (LALLS) para a caracterização física. Com relação às concentrações de partículas totais em suspensão, os resultados indicaram que as áreas de mineração apresentaram valores superiores aos encontrados na área urbana, inclusive com ultrapassagens dos padrões legais, fato este que não ocorreu na área urbana estudada. Para a distribuição granulométrica do material particulado, os resultados demonstraram que as frações mais finas do particulado apresentaram-se em maiores quantidades nas áreas de mineração, enquanto que as frações mais grosseiras apresentaram-se em maior quantidade na área urbana. Quanto à composição química do material particulado em suspensão, podemos concluir que para as áreas de mineração, esta foi muito semelhante à da rocha lavrada. / Atmospheric pollution aspects were analyzed. Two types of ambients were selected for study: a mining ambient and an urban ambient. To obtain a preliminary evaluation of the quality of the air in these ambients a sampling program was accomplished for each area. Two basic points were studied: the concentration of the total suspended particulates and the chemical and physical characterization of the particulate matter. The concentrations of total suspended particulates were obtained through the use of high volume samplers (Hi-vols). The reference method used was the high volume sampler method, proposed by ABNT through the norm NBR 9547: 97. The physical characterization involved the determination of the size distribution of the suspended particulate matter while the chemical characterization involved the determination of its composition. The analytic techniques used for the characterization of the particulate matter were the X-Ray Fluorescence (XRF) for the chemical characterization, and the Low Angle Laser Light Scattering (LALLS) for the physical characterization. Concentration levels for total suspended particulates showed that the mining areas presented higher values than those for urban area. Legal standards were exceeded in the mining area, fact that did not occur in the urban area. Size distributions of the particulate matter demonstrated that the finest fractions were found in larger amounts in the mining areas, while the coarses fractions were present in larger amounts in the urban area. The chemical compositions of the suspended particulate matter in the mining areas were very similar to the compositions of the rocks been mined.
|
137 |
Calibração linear assimétrica / Asymmetric Linear CalibrationFigueiredo, Cléber da Costa 27 February 2009 (has links)
A presente tese aborda aspectos teóricos e aplicados da estimação dos parâmetros do modelo de calibração linear com erros distribuídos conforme a distribuição normal-assimétrica (Azzalini, 1985) e t-normal-assimétrica (Gómez, Venegas e Bolfarine, 2007). Aplicando um modelo assimétrico, não é necessário transformar as variáveis a fim de obter erros simétricos. A estimação dos parâmetros e das variâncias dos estimadores do modelo de calibração foram estudadas através da visão freqüentista e bayesiana, desenvolvendo algoritmos tipo EM e amostradores de Gibbs, respectivamente. Um dos pontos relevantes do trabalho, na óptica freqüentista, é a apresentação de uma reparametrização para evitar a singularidade da matriz de informação de Fisher sob o modelo de calibração normal-assimétrico na vizinhança de lambda = 0. Outro interessante aspecto é que a reparametrização não modifica o parâmetro de interesse. Já na óptica bayesiana, o ponto forte do trabalho está no desenvolvimento de medidas para verificar a qualidade do ajuste e que levam em consideração a assimetria do conjunto de dados. São propostas duas medidas para medir a qualidade do ajuste: o ADIC (Asymmetric Deviance Information Criterion) e o EDIC (Evident Deviance Information Criterion), que são extensões da ideia de Spiegelhalter et al. (2002) que propôs o DIC ordinário que só deve ser usado em modelos simétricos. / This thesis focuses on theoretical and applied estimation aspects of the linear calibration model with skew-normal (Azzalini, 1985) and skew-t-normal (Gómez, Venegas e Bolfarine, 2007) error distributions. Applying the asymmetrical distributed error methodology, it is not necessary to transform the variables in order to have symmetrical errors. The frequentist and the Bayesian solution are presented. The parameter estimation and its variance estimation were studied using the EM algorithm and the Gibbs sampler, respectively, in each approach. The main point, in the frequentist approach, is the presentation of a new parameterization to avoid singularity of the information matrix under the skew-normal calibration model in a neighborhood of lambda = 0. Another interesting aspect is that the reparameterization developed to make the information matrix nonsingular, when the skewness parameter is near to zero, leaves the parameter of interest unchanged. The main point, in the Bayesian framework, is the presentation of two measures of goodness-of-fit: ADIC (Asymmetric Deviance Information Criterion) and EDIC (Evident Deviance Information Criterion ). They are natural extensions of the ordinary DIC developed by Spiegelhalter et al. (2002).
|
138 |
Laboratório de signos: a produção de significações na cultura visual digitalFigueira, Rodrigo Minelli 12 December 2007 (has links)
Made available in DSpace on 2016-04-26T18:16:44Z (GMT). No. of bitstreams: 1
Rodrigo Minelli Figueira.pdf: 293471 bytes, checksum: fe7975cec5d78a92d9a17a08454182a0 (MD5)
Previous issue date: 2007-12-12 / The general objective of this research is to analyze the way as the
discursives strategies in what Andrew Darley defined as being the
visual digital culture and it s relation with the technological
possibilities and medias of communication. In its book Visual
Digital Culture he defines that way the cultural forms appeared
from dissemination of the graphic computer and considered it while
a cultural phenomena.
The idea is reach to understand of how semiotics status expressed
in languages, speeches, sorts, formats, messages is conformed by
the technology/media used to express them. Tries to understand
how contemporaries semiotics are codified by the machines and
the cultural implications of this codification.
The theoretical aproach of the present work is in the studies of
Semiotics of Culture. To reach our objectives we intend in basically
supporting them in the works of two of these authors, Mikhail
Bakthin and Iuri Lotman and in the concepts of dialogism and
poliphony of first and the notion of text of the culture and the
semiosphere of the second one.
We will search to bring the reflection of these authors to dialogue
with other authors who have attemped to reflect on the occured
transformations from the dissemination of the technologies of
communication and information from middle of the XX century, as
the proper Darley, Lev Manovich, Paul Miller and Arlindo Machado
among others.
The object chosen for our research is the work of the group
feitoamãos , collective of artists who since 1999 dedicate the
research and experimentation to it in electronic art, having carried
through single channel videos, web-art, installations and
performances. We will search through the analysis of the
expressiveness structures of the presentations of the group to
understand the flow established between the diverse languages
used in its works.
Our main hypothesis is of that fragmentation, simultaneness,
reiteration, not-linearity and noises they adopted are
expressiveness resources inside of the context of the visual digital
culture and that they are some of the characteristics and
necessities of the urban condition that if they reflect, at the same
time that they are expressed through and in the media. We also
understand that as well as the technologies open new
expressiveness possibilities, the limitations of one specific media
determine the signing productions in that media. We analyze what
forms they had and which are the current characteristic forms of
expression of that culture. if these consolidate from the cultural
configurations of determined time we can assume that at the same
time that they reflect the technical possibilities, they are for these
determined / O objetivo geral desta pesquisa é analisar os modos como as
estratégias discursivas presentes naquilo que Andrew Darley definiu
como sendo a cultura visual digital se relacionam com as
possibilidades técnicas e mídias de comunicação. Em seu livro
Cultura Visual Digital o autor define desta maneira as formas
culturais surgidas a partir da disseminação da computação gráfica e
consideradas enquanto fenômenos culturais.
A idéia é buscar entender de que forma os regimes semióticos
expressos em linguagens, discursos, gêneros, formatos, mensagens
são conformados pela tecnologia/mídia empregada para expressálos.
Ou seja, entender como as formas contemporâneas são
codificadas pelas máquinas semióticas e as implicações culturais
desta codificação.
O recorte teórico do presente trabalho se encontra nos estudos da
Semiótica da Cultura. Para alcançar nossos objetivos pretendemos
nos apoiar fundamentalmente na obra de Mikhail Bakthin e Iuri
Lotman e nos conceitos de dialogismo e polifonia do primeiro e
da noção de texto da cultura e semiosfera do segundo.
Buscaremos trazer a reflexão destes autores para dialogar com
outros autores que têm tentado refletir sobre as transformações
ocorridas a partir da disseminação das tecnologias de comunicação
e de informação a partir de meados do século XX, como o próprio
Darley, Lev Manovich, Paul Miller e Arlindo Machado entre outros.
O objeto escolhido para nossa pesquisa é o trabalho do grupo
feitoamãos , coletivo de artistas que desde 1999 dedica-se à
pesquisa e experimentação em arte eletrônica, tendo realizado
vídeos single channel , web-arte, instalações e performances.
Buscaremos através da análise das estruturas expressivas das
apresentações do grupo compreender os fluxos estabelecidos entre
as diversas linguagens presentes em seus trabalhos.
A nossa hipótese principal é a de que fragmentação,
simultaneidade, reiteração, não-linearidade e ruídos são recursos
expressivos adotados dentro do contexto da cultura visual digital
e que são algumas das características e necessidades da condição
urbana que se refletem, ao mesmo tempo que são expressos
através e nos mídia. Acreditamos também que, assim como as
tecnologias abrem novas possibilidades expressivas, as limitações
técnicas de uma dada mídia determinam as produções sígnicas
naquela mídia. Analisamos de que forma se dão e quais são as
atuais formas de expressão características desta cultura; se estas
se consolidam a partir das configurações culturais de determinada
época podemos supor que ao mesmo tempo que refletem as
possibilidades técnicas, são por estas determinadas
|
139 |
Calibração linear assimétrica / Asymmetric Linear CalibrationCléber da Costa Figueiredo 27 February 2009 (has links)
A presente tese aborda aspectos teóricos e aplicados da estimação dos parâmetros do modelo de calibração linear com erros distribuídos conforme a distribuição normal-assimétrica (Azzalini, 1985) e t-normal-assimétrica (Gómez, Venegas e Bolfarine, 2007). Aplicando um modelo assimétrico, não é necessário transformar as variáveis a fim de obter erros simétricos. A estimação dos parâmetros e das variâncias dos estimadores do modelo de calibração foram estudadas através da visão freqüentista e bayesiana, desenvolvendo algoritmos tipo EM e amostradores de Gibbs, respectivamente. Um dos pontos relevantes do trabalho, na óptica freqüentista, é a apresentação de uma reparametrização para evitar a singularidade da matriz de informação de Fisher sob o modelo de calibração normal-assimétrico na vizinhança de lambda = 0. Outro interessante aspecto é que a reparametrização não modifica o parâmetro de interesse. Já na óptica bayesiana, o ponto forte do trabalho está no desenvolvimento de medidas para verificar a qualidade do ajuste e que levam em consideração a assimetria do conjunto de dados. São propostas duas medidas para medir a qualidade do ajuste: o ADIC (Asymmetric Deviance Information Criterion) e o EDIC (Evident Deviance Information Criterion), que são extensões da ideia de Spiegelhalter et al. (2002) que propôs o DIC ordinário que só deve ser usado em modelos simétricos. / This thesis focuses on theoretical and applied estimation aspects of the linear calibration model with skew-normal (Azzalini, 1985) and skew-t-normal (Gómez, Venegas e Bolfarine, 2007) error distributions. Applying the asymmetrical distributed error methodology, it is not necessary to transform the variables in order to have symmetrical errors. The frequentist and the Bayesian solution are presented. The parameter estimation and its variance estimation were studied using the EM algorithm and the Gibbs sampler, respectively, in each approach. The main point, in the frequentist approach, is the presentation of a new parameterization to avoid singularity of the information matrix under the skew-normal calibration model in a neighborhood of lambda = 0. Another interesting aspect is that the reparameterization developed to make the information matrix nonsingular, when the skewness parameter is near to zero, leaves the parameter of interest unchanged. The main point, in the Bayesian framework, is the presentation of two measures of goodness-of-fit: ADIC (Asymmetric Deviance Information Criterion) and EDIC (Evident Deviance Information Criterion ). They are natural extensions of the ordinary DIC developed by Spiegelhalter et al. (2002).
|
140 |
Vitesse de convergence de l'échantillonneur de Gibbs appliqué à des modèles de la physique statistique / The convergence rate of the Gibbs sampler for some statistical mechanics modelsHelali, Amine 11 January 2019 (has links)
Les méthodes de Monte Carlo par chaines de Markov MCMC sont des outils mathématiques utilisés pour simuler des mesures de probabilités π définies sur des espaces de grandes dimensions. Une des questions les plus importantes dans ce contexte est de savoir à quelle vitesse converge la chaine de Markov P vers la mesure invariante π. Pour mesurer la vitesse de convergence de la chaine de Markov P vers sa mesure invariante π nous utilisons la distance de la variation totale. Il est bien connu que la vitesse de convergence d’une chaine de Markov réversible P dépend de la deuxième plus grande valeur propre en valeur absolue de la matrice P notée β!. Une partie importante dans l’estimation de β! consiste à estimer la deuxième plus grande valeur propre de la matrice P, qui est notée β1. Diaconis et Stroock (1991) ont introduit une méthode basée sur l’inégalité de Poincaré pour estimer β1 pour le cas général des chaines de Markov réversibles avec un nombre fini d'état. Dans cette thèse, nous utilisons la méthode de Shiu et Chen (2015) pour étudier le cas de l'algorithme de l'échantillonneur de Gibbs pour le modèle d'Ising unidimensionnel avec trois états ou plus appelé aussi modèle de Potts. Puis, nous généralisons le résultat de Shiu et Chen au cas du modèle d’Ising deux- dimensionnel avec deux états. Les résultats obtenus minorent ceux introduits par Ingrassia (1994). Puis nous avons pensé à perturber l'échantillonneur de Gibbs afin d’améliorer sa vitesse de convergence vers l'équilibre. / Monte Carlo Markov chain methods MCMC are mathematical tools used to simulate probability measures π defined on state spaces of high dimensions. The speed of convergence of this Markov chain X to its invariant state π is a natural question to study in this context.To measure the convergence rate of a Markov chain we use the total variation distance. It is well known that the convergence rate of a reversible Markov chain depends on its second largest eigenvalue in absolute value denoted by β!. An important part in the estimation of β! is the estimation of the second largest eigenvalue which is denoted by β1.Diaconis and Stroock (1991) introduced a method based on Poincaré inequality to obtain a bound for β1 for general finite state reversible Markov chains.In this thesis we use the Chen and Shiu approach to study the case of the Gibbs sampler for the 1−D Ising model with three and more states which is also called Potts model. Then, we generalize the result of Shiu and Chen (2015) to the case of the 2−D Ising model with two states.The results we obtain improve the ones obtained by Ingrassia (1994). Then, we introduce some method to disrupt the Gibbs sampler in order to improve its convergence rate to equilibrium.
|
Page generated in 0.1136 seconds