Spelling suggestions: "subject:"paramètres""
91 |
Régularisations de faible complexité pour les problèmes inverses / Low Complexity Regularization of Inverse ProblemsVaiter, Samuel 10 July 2014 (has links)
Cette thèse se consacre aux garanties de reconstruction et de l’analyse de sensibilité de régularisation variationnelle pour des problèmes inverses linéaires bruités. Il s’agit d’un problème d’optimisation convexe combinant un terme d’attache aux données et un terme de régularisation promouvant des solutions vivant dans un espace dit de faible complexité. Notre approche, basée sur la notion de fonctions partiellement lisses, permet l’étude d’une grande variété de régularisations comme par exemple la parcimonie de type analyse ou structurée, l’anti-Parcimonie et la structure de faible rang. Nous analysons tout d’abord la robustesse au bruit, à la fois en termes de distance entre les solutions et l’objet original, ainsi que la stabilité de l’espace modèle promu.Ensuite, nous étudions la stabilité de ces problèmes d’optimisation à des perturbations des observations. A partir d’observations aléatoires, nous construisons un estimateur non biaisé du risque afin d’obtenir un schéma de sélection de paramètre. / This thesis is concerned with recovery guarantees and sensitivity analysis of variational regularization for noisy linear inverse problems. This is cast as aconvex optimization problem by combining a data fidelity and a regularizing functional promoting solutions conforming to some notion of low complexity related to their non-Smoothness points. Our approach, based on partial smoothness, handles a variety of regularizers including analysis/structured sparsity, antisparsity and low-Rank structure. We first give an analysis of thenoise robustness guarantees, both in terms of the distance of the recovered solutions to the original object, as well as the stability of the promoted modelspace. We then turn to sensivity analysis of these optimization problems to observation perturbations. With random observations, we build un biased estimator of the risk which provides a parameter selection scheme.
|
92 |
Video event detection and visual data pro cessing for multimedia applicationsSzolgay, Daniel 30 September 2011 (has links)
Cette thèse (i) décrit une procédure automatique pour estimer la condition d'arrêt des méthodes de déconvolution itératives basées sur un critère d'orthogonalité du signal estimé et de son gradient à une itération donnée; (ii) présente une méthode qui décompose l'image en une partie géométrique (ou "cartoon") et une partie "texture" en utilisation une estimation de paramètre et une condition d'arrêt basées sur la diffusion anisotropique avec orthogonalité, en utilisant le fait que ces deux composantes. "cartoon" et "texture", doivent être indépendantes; (iii) décrit une méthode pour extraire d'une séquence vidéo obtenue à partir de caméra portable les objets de premier plan en mouvement. Cette méthode augmente la compensation de mouvement de la caméra par une nouvelle estimation basée noyau de la fonction de probabilité de densité des pixels d'arrière-plan. Les méthodes présentées ont été testées et comparées aux algorithmes de l'état de l'art. / This dissertation (i) describes an automatic procedure for estimating the stopping condition of non-regularized iterative deconvolution methods based on an orthogonality criterion of the estimated signal and its gradient at a given iteration; (ii) presents a decomposition method that splits the image into geometric (or cartoon) and texture parts using anisotropic diffusion with orthogonality based parameter estimation and stopping condition, utilizing the theory that the cartoon and the texture components of an image should be independent of each other; (iii) describes a method for moving foreground object extraction in sequences taken by wearable camera, with strong motion, where the camera motion compensated frame differencing is enhanced with a novel kernel-based estimation of the probability density function of the background pixels. The presented methods have been thoroughly tested and compared to other similar algorithms from the state-of-the-art.
|
93 |
Méthodes rapides de traitement d’images hyperspectrales. Application à la caractérisation en temps réel du matériau bois / Fast methods for hyperspectral images processing. Application to the real-time characterization of wood materialNus, Ludivine 12 December 2019 (has links)
Cette thèse aborde le démélange en-ligne d’images hyperspectrales acquises par un imageur pushbroom, pour la caractérisation en temps réel du matériau bois. La première partie de cette thèse propose un modèle de mélange en-ligne fondé sur la factorisation en matrices non-négatives. À partir de ce modèle, trois algorithmes pour le démélange séquentiel en-ligne, fondés respectivement sur les règles de mise à jour multiplicatives, le gradient optimal de Nesterov et l’optimisation ADMM (Alternating Direction Method of Multipliers) sont développés. Ces algorithmes sont spécialement conçus pour réaliser le démélange en temps réel, au rythme d'acquisition de l'imageur pushbroom. Afin de régulariser le problème d’estimation (généralement mal posé), deux sortes de contraintes sur les endmembers sont utilisées : une contrainte de dispersion minimale ainsi qu’une contrainte de volume minimal. Une méthode pour l’estimation automatique du paramètre de régularisation est également proposée, en reformulant le problème de démélange hyperspectral en-ligne comme un problème d’optimisation bi-objectif. Dans la seconde partie de cette thèse, nous proposons une approche permettant de gérer la variation du nombre de sources, i.e. le rang de la décomposition, au cours du traitement. Les algorithmes en-ligne préalablement développés sont ainsi modifiés, en introduisant une étape d’apprentissage d’une bibliothèque hyperspectrale, ainsi que des pénalités de parcimonie permettant de sélectionner uniquement les sources actives. Enfin, la troisième partie de ces travaux consiste en l’application de nos approches à la détection et à la classification des singularités du matériau bois. / This PhD dissertation addresses the problem of on-line unmixing of hyperspectral images acquired by a pushbroom imaging system, for real-time characterization of wood. The first part of this work proposes an on-line mixing model based on non-negative matrix factorization. Based on this model, three algorithms for on-line sequential unmixing, using multiplicative update rules, the Nesterov optimal gradient and the ADMM optimization (Alternating Direction Method of Multipliers), respectively, are developed. These algorithms are specially designed to perform the unmixing in real time, at the pushbroom imager acquisition rate. In order to regularize the estimation problem (generally ill-posed), two types of constraints on the endmembers are used: a minimum dispersion constraint and a minimum volume constraint. A method for the unsupervised estimation of the regularization parameter is also proposed, by reformulating the on-line hyperspectral unmixing problem as a bi-objective optimization. In the second part of this manuscript, we propose an approach for handling the variation in the number of sources, i.e. the rank of the decomposition, during the processing. Thus, the previously developed on-line algorithms are modified, by introducing a hyperspectral library learning stage as well as sparse constraints allowing to select only the active sources. Finally, the third part of this work consists in the application of these approaches to the detection and the classification of the singularities of wood.
|
94 |
Estimateur bootstrap de la variance d'un estimateur de quantile en contexte de population finieMcNealis, Vanessa 12 1900 (has links)
Ce mémoire propose une adaptation lisse de méthodes bootstrap par pseudo-population aux fins d'estimation de la variance et de formation d'intervalles de confiance pour des quantiles de population finie. Dans le cas de données i.i.d., Hall et al. (1989) ont montré que l'ordre de convergence de l'erreur relative de l’estimateur bootstrap de la variance d’un quantile échantillonnal connaît un gain lorsque l'on rééchantillonne à partir d’une estimation lisse de la fonction de répartition plutôt que de la fonction de répartition expérimentale. Dans cet ouvrage, nous étendons le principe du bootstrap lisse au contexte de population finie en le mettant en œuvre au sein des méthodes bootstrap par pseudo-population. Étant donné un noyau et un paramètre de lissage, cela consiste à lisser la pseudo-population dont sont issus les échantillons bootstrap selon le plan de sondage initial. Deux plans sont abordés, soit l'échantillonnage aléatoire simple sans remise et l'échantillonnage de Poisson. Comme l'utilisation des algorithmes proposés nécessite la spécification du paramètre de lissage, nous décrivons une méthode de sélection par injection et des méthodes de sélection par la minimisation d'estimés bootstrap de critères d'ajustement sur une grille de valeurs du paramètre de lissage. Nous présentons des résultats d'une étude par simulation permettant de montrer empiriquement l'efficacité de l'approche lisse par rapport à l'approche standard pour ce qui est de l'estimation de la variance d'un estimateur de quantile et des résultats plus mitigés en ce qui concerne les intervalles de confiance. / This thesis introduces smoothed pseudo-population bootstrap methods for the purposes
of variance estimation and the construction of confidence intervals for finite population
quantiles. In an i.i.d. context, Hall et al. (1989) have shown that resampling from a smoothed
estimate of the distribution function instead of the usual empirical distribution function can
improve the convergence rate of the bootstrap variance estimator of a sample quantile. We
extend the smoothed bootstrap to the survey sampling framework by implementing it in
pseudo-population bootstrap methods. Given a kernel function and a bandwidth, it consists
of smoothing the pseudo-population from which bootstrap samples are drawn using the
original sampling design. Two designs are discussed, namely simple random sampling and
Poisson sampling. The implementation of the proposed algorithms requires the specification
of the bandwidth. To do so, we develop a plug-in selection method along with grid search
selection methods based on bootstrap estimates of two performance metrics. We present the
results of a simulation study which provide empirical evidence that the smoothed approach
is more efficient than the standard approach for estimating the variance of a quantile
estimator together with mixed results regarding confidence intervals.
|
95 |
Constitution, déploiement et segmentation : repenser le thématisme à travers les réseaux paramétriquesDíaz Villegas, Tomás 08 1900 (has links)
Cette version de la thèse a été tronquée de certains éléments protégés par le droit d’auteur. Les partitions et enregistrements des compositions musicales qui accompagnent cette thèse peuvent être consultés par les membres de la communauté de l’Université de Montréal dans une des bibliothèques UdeM. / Cette thèse présente une approche personnelle du thématisme. Traditionnellement, la théorie et la
pratique thématiques traitent d'entités mélodiques ou rythmiques (thèmes, motifs, séries) qui
imprègnent le contenu et l'organisation d'un morceau de musique à travers de nombreuses
techniques de dérivation et d'élaboration. L'objectif principal de cette approche est d'assurer
l'unité de l'oeuvre musicale en présentant de multiples expressions d'une ou de quelques idées de
base. Essentiellement, mon approche reprend la notion de description paramétrique — déjà
présente dans l'approche traditionnelle par rapport aux hauteurs et aux rythmes des entités
récurrentes — et l'applique à la description de périodes de temps ou de niveaux formels. Trois
chapitres m'aident à développer cette vision. Le premier donne un aperçu des fondements sur
lesquels repose mon approche, notamment le thématisme, la hiérarchie et la temporalité. Le
second présente l'approche elle-même. En particulier, il introduit le concept de réseau
paramétrique et le relie à des notions telles que description paramétrique et niveau formel. Le
dernier chapitre consiste en plusieurs analyses de pièces conçues à travers cette manière
personnelle de penser le thématisme. / This thesis presents a personal approach to thematicism. Traditionally, thematic theory and
practice deal with melodic or rhythmic entities (themes, motives, series) that permeate the
content and organization of a piece of music through numerous derivation and elaboration
techniques. The main objective of this approach is to ensure the unity of the musical work by
presenting multiple expressions of one or a few basic ideas. Essentially, my approach takes the
notion of parametric description —already present in the traditional approach in relation to the
pitches and durations of the recurrent entities— and applies it to the description of periods of
time or formal levels. Three chapters help me develop this vision. The first provides an overview
of the foundations on which my approach is based, most notably thematicism, hierarchy, and
temporality. The second presents the approach itself. In particular, it introduces the concept of
parametric network and relates it to notions such as parametric description and formal level. The
last chapter consists of several analyses of pieces conceived through this personal way of
thinking of thematicism.
|
96 |
Techniques d'inférence exacte dans les modèles structurels avec applications macroéconomiquesTaamouti, Mohamed 09 1900 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal. / Cette thèse a pour objectif de développer des méthodes d'inférence exacte dans les modèles structurels. Elle est motivée par les résultats reportés récemment dans la littérature économétrique concernant les problèmes des méthodes d'inférence usuelles en présence d'instruments faibles. Dans le premier essai, nous étudions le problème de construction de régions de confiance pour des transformations du vecteur des paramètres inconnus dans un modèle à équations simultanées linéaires. Plusieurs tests proposés pour l'inférence en présence d'instruments faibles présentent l'inconvénient de ne tester que des hypothèses spécifiant le vecteur entier des paramètres. C'est le cas notamment de la statistique d'Andersen-Rubin (1949, Ann. Math. Stat.) et des deux statistiques proposées récemment par Wang et Zivot (1998, Econometrica). En principe, ce problème peut être résolu en utilisant la technique de projection Dufour (1997, Econometrica), Dufour and Jasiak (2001, International Economie Review)]. Cependant, cette dernière exige, de façon générale, l'utilisation des méthodes numériques. Dans cet essai, nous fournissons une solution analytique complète au problème de construction d'intervalles de confiance par projection à partir de régions de confiance obtenues par inversion de statistiques de type Anderson-Rubin. Cette solution se base sur la théorie des quadriques et peut être perçue comme une extension des intervalles et des ellipsoïdes de confiance usuels. Les calculs requis sont semblables à ceux des moindres carrés ordinaires. Nous étudions également par des simulations Monte Carlo le degré de conservatisme des régions de confiance par projection. Enfin, nous illustrons les méthodes proposées par deux applications macroéconomiques: La relation entre le commerce international et la croissance économique et le problème des rendements d'échelle dans l'industrie américaine. Dans le deuxième essai, nous proposons des méthodes d'inférence exacte dans un modèle structurel non linéaire. Nous développons une approche simple pour construire des tests exacts. Cette approche généralise celle de Hartley (1964, Biometrika) pour le test d'hypothèses et la construction de régions de confiance dans les régressions non linéaires et la procédure d'Anderson-Rubin spécifique aux modèles structurels à équations linéaires. Nous abordons par la suite le problème d'optimalité des instruments utilisés dans le test. La notion d'optimalité réfère à la maximisation de la puissance du test proposé. Ceci contraste avec la notion d'optimalité typiquement considérée dans la littérature économétrique et qui réfère à la minimisation de la variance asymptotique d'un estimateur [Amemiya (1977, Econometrica)]. Les instruments optimaux que nous dérivons dépendent de l'hypothèse alternative, et donc nous qualifions ces derniers d'instruments "point-optimaux" [King (1988, Econometric Reviews). La matrice des instruments optimaux est inconnue de façon générale, nous proposons une méthode pour son estimation basée sur la technique du split-sample. Dans le troisième essai, nous examinons le problème de sélection d'instruments dans le cas d'un modèle structurel linéaire où la méthode 2SLS pour l'estimation et/ou le test d'Anderson-Rubin sont utilisés. Nous nous concentrons sur le cas d'une seule variable explicative endogène. Nous commençons par analyser les déterminants de la performance de ces méthodes et comment la matrice des instruments affecte la qualité de l'estimation et de l'inférence. Nous proposons par la suite une méthode de sélection d'instruments sur la base de ces résultats. Cette méthode est basée sur la maximisation séquentielle du paramètre de concentration. Nous étudions si les méthodes de diagnostic et de sélection d'instruments sont utiles en pratique ou comme conclu par Hall, Rudebusch and Wilcox (1996, International Economie Review) sont inutilisables. Nous comparons également, par des simulations Monte Carlo, les principales méthodes de sélection d'instruments proposées dans la littérature.
|
97 |
Statistiques discrètes et Statistiques bayésiennes en grande dimensionBontemps, Dominique 02 December 2010 (has links) (PDF)
Dans cette thèse de doctorat, nous présentons les travaux que nous avons effectués dans trois directions reliées : la compression de données en alphabet infini, les statistiques bayésiennes en dimension infinie, et les mélanges de distributions discrètes multivariées. Dans le cadre de la compression de données sans perte, nous nous sommes intéressé à des classes de sources stationnaires sans mémoire sur un alphabet infini, définies par une condition d'enveloppe à décroissance exponentielle sur les distributions marginales. Un équivalent de la redondance minimax de ces classes a été obtenue. Un algorithme approximativement minimax ainsi que des a-priori approximativement les moins favorables, basés sur l'a-priori de Jeffreys en alphabet fini, ont en outre été proposés. Le deuxième type de travaux porte sur la normalité asymptotique des distributions a-posteriori (théorèmes de Bernstein-von Mises) dans différents cadres non-paramétriques et semi-paramétriques. Tout d'abord, dans un cadre de régression gaussienne lorsque le nombre de régresseurs augmente avec la taille de l'échantillon. Les théorèmes non-paramétriques portent sur les coefficients de régression, tandis que les théorèmes semi-paramétriques portent sur des fonctionnelles de la fonction de régression. Dans nos applications au modèle de suites gaussiennes et à la régression de fonctions appartenant à des classe de Sobolev ou de régularité hölderiennes, nous obtenons simultanément le théorème de Bernstein-von Mises et la vitesse d'estimation fréquentiste minimax. L'adaptativité est atteinte pour l'estimation de fonctionnelles dans ces applications. Par ailleurs nous présentons également un théorème de Bernstein-von Mises non-paramétrique pour des modèles exponentiels de dimension croissante. Enfin, le dernier volet de ce travail porte sur l'estimation du nombre de composantes et des variables pertinentes dans des modèles de mélange de lois multinomiales multivariées, dans une optique de classification non supervisée. Ce type de modèles est utilisé par exemple pour traiter des données génotypiques. Un critère du maximum de vraisemblance pénalisé est proposé, et une inégalité oracle non-asymptotique est obtenue. Le critère retenu en pratique comporte une calibration grâce à l'heuristique de pente. Ses performances sont meilleurs que celles des critères classiques BIC et AIC sur des données simulées. L'ensemble des procédures est implémenté dans un logiciel librement accessible.
|
98 |
Development of new scenario decomposition techniques for linear and nonlinear stochastic programmingZehtabian, Shohre 08 1900 (has links)
Une approche classique pour traiter les problèmes d’optimisation avec incertitude à
deux- et multi-étapes est d’utiliser l’analyse par scénario. Pour ce faire, l’incertitude de
certaines données du problème est modélisée par vecteurs aléatoires avec des supports
finis spécifiques aux étapes. Chacune de ces réalisations représente un scénario. En utilisant
des scénarios, il est possible d’étudier des versions plus simples (sous-problèmes)
du problème original. Comme technique de décomposition par scénario, l’algorithme de
recouvrement progressif est une des méthodes les plus populaires pour résoudre les problèmes
de programmation stochastique multi-étapes. Malgré la décomposition complète
par scénario, l’efficacité de la méthode du recouvrement progressif est très sensible à certains
aspects pratiques, tels que le choix du paramètre de pénalisation et la manipulation
du terme quadratique dans la fonction objectif du lagrangien augmenté. Pour le choix
du paramètre de pénalisation, nous examinons quelques-unes des méthodes populaires,
et nous proposons une nouvelle stratégie adaptive qui vise à mieux suivre le processus
de l’algorithme. Des expériences numériques sur des exemples de problèmes stochastiques
linéaires multi-étapes suggèrent que la plupart des techniques existantes peuvent
présenter une convergence prématurée à une solution sous-optimale ou converger vers la
solution optimale, mais avec un taux très lent. En revanche, la nouvelle stratégie paraît
robuste et efficace. Elle a convergé vers l’optimalité dans toutes nos expériences et a
été la plus rapide dans la plupart des cas. Pour la question de la manipulation du terme
quadratique, nous faisons une revue des techniques existantes et nous proposons l’idée
de remplacer le terme quadratique par un terme linéaire. Bien que qu’il nous reste encore
à tester notre méthode, nous avons l’intuition qu’elle réduira certaines difficultés
numériques et théoriques de la méthode de recouvrement progressif. / In the literature of optimization problems under uncertainty a common approach of
dealing with two- and multi-stage problems is to use scenario analysis. To do so, the
uncertainty of some data in the problem is modeled by stage specific random vectors
with finite supports. Each realization is called a scenario. By using scenarios, it is possible
to study smaller versions (subproblems) of the underlying problem. As a scenario
decomposition technique, the progressive hedging algorithm is one of the most popular
methods in multi-stage stochastic programming problems. In spite of full decomposition
over scenarios, progressive hedging efficiency is greatly sensitive to some practical
aspects, such as the choice of the penalty parameter and handling the quadratic term in
the augmented Lagrangian objective function. For the choice of the penalty parameter,
we review some of the popular methods, and design a novel adaptive strategy that
aims to better follow the algorithm process. Numerical experiments on linear multistage
stochastic test problems suggest that most of the existing techniques may exhibit
premature convergence to a sub-optimal solution or converge to the optimal solution,
but at a very slow rate. In contrast, the new strategy appears to be robust and efficient,
converging to optimality in all our experiments and being the fastest in most of them.
For the question of handling the quadratic term, we review some existing techniques and
we suggest to replace the quadratic term with a linear one. Although this method has
yet to be tested, we have the intuition that it will reduce some numerical and theoretical
difficulties of progressive hedging in linear problems.
|
99 |
Sélection bayésienne de variables et méthodes de type Parallel Tempering avec et sans vraisemblanceBaragatti, Meïli 10 November 2011 (has links)
Cette thèse se décompose en deux parties. Dans un premier temps nous nous intéressons à la sélection bayésienne de variables dans un modèle probit mixte.L'objectif est de développer une méthode pour sélectionner quelques variables pertinentes parmi plusieurs dizaines de milliers tout en prenant en compte le design d'une étude, et en particulier le fait que plusieurs jeux de données soient fusionnés. Le modèle de régression probit mixte utilisé fait partie d'un modèle bayésien hiérarchique plus large et le jeu de données est considéré comme un effet aléatoire. Cette méthode est une extension de la méthode de Lee et al. (2003). La première étape consiste à spécifier le modèle ainsi que les distributions a priori, avec notamment l'utilisation de l'a priori conventionnel de Zellner (g-prior) pour le vecteur des coefficients associé aux effets fixes (Zellner, 1986). Dans une seconde étape, nous utilisons un algorithme Metropolis-within-Gibbs couplé à la grouping (ou blocking) technique de Liu (1994) afin de surmonter certaines difficultés d'échantillonnage. Ce choix a des avantages théoriques et computationnels. La méthode développée est appliquée à des jeux de données microarray sur le cancer du sein. Cependant elle a une limite : la matrice de covariance utilisée dans le g-prior doit nécessairement être inversible. Or il y a deux cas pour lesquels cette matrice est singulière : lorsque le nombre de variables sélectionnées dépasse le nombre d'observations, ou lorsque des variables sont combinaisons linéaires d'autres variables. Nous proposons donc une modification de l'a priori de Zellner en y introduisant un paramètre de type ridge, ainsi qu'une manière de choisir les hyper-paramètres associés. L'a priori obtenu est un compromis entre le g-prior classique et l'a priori supposant l'indépendance des coefficients de régression, et se rapproche d'un a priori précédemment proposé par Gupta et Ibrahim (2007).Dans une seconde partie nous développons deux nouvelles méthodes MCMC basées sur des populations de chaînes. Dans le cas de modèles complexes ayant de nombreux paramètres, mais où la vraisemblance des données peut se calculer, l'algorithme Equi-Energy Sampler (EES) introduit par Kou et al. (2006) est apparemment plus efficace que l'algorithme classique du Parallel Tempering (PT) introduit par Geyer (1991). Cependant, il est difficile d'utilisation lorsqu'il est couplé avec un échantillonneur de Gibbs, et nécessite un stockage important de valeurs. Nous proposons un algorithme combinant le PT avec le principe d'échanges entre chaînes ayant des niveaux d'énergie similaires dans le même esprit que l'EES. Cette adaptation appelée Parallel Tempering with Equi-Energy Moves (PTEEM) conserve l'idée originale qui fait la force de l'algorithme EES tout en assurant de bonnes propriétés théoriques et une utilisation facile avec un échantillonneur de Gibbs.Enfin, dans certains cas complexes l'inférence peut être difficile car le calcul de la vraisemblance des données s'avère trop coûteux, voire impossible. De nombreuses méthodes sans vraisemblance ont été développées. Par analogie avec le Parallel Tempering, nous proposons une méthode appelée ABC-Parallel Tempering, basée sur la théorie des MCMC, utilisant une population de chaînes et permettant des échanges entre elles. / This thesis is divided into two main parts. In the first part, we propose a Bayesian variable selection method for probit mixed models. The objective is to select few relevant variables among tens of thousands while taking into account the design of a study, and in particular the fact that several datasets are merged together. The probit mixed model used is considered as part of a larger hierarchical Bayesian model, and the dataset is introduced as a random effect. The proposed method extends a work of Lee et al. (2003). The first step is to specify the model and prior distributions. In particular, we use the g-prior of Zellner (1986) for the fixed regression coefficients. In a second step, we use a Metropolis-within-Gibbs algorithm combined with the grouping (or blocking) technique of Liu (1994). This choice has both theoritical and practical advantages. The method developed is applied to merged microarray datasets of patients with breast cancer. However, this method has a limit: the covariance matrix involved in the g-prior should not be singular. But there are two standard cases in which it is singular: if the number of observations is lower than the number of variables, or if some variables are linear combinations of others. In such situations we propose to modify the g-prior by introducing a ridge parameter, and a simple way to choose the associated hyper-parameters. The prior obtained is a compromise between the conditional independent case of the coefficient regressors and the automatic scaling advantage offered by the g-prior, and can be linked to the work of Gupta and Ibrahim (2007).In the second part, we develop two new population-based MCMC methods. In cases of complex models with several parameters, but whose likelihood can be computed, the Equi-Energy Sampler (EES) of Kou et al. (2006) seems to be more efficient than the Parallel Tempering (PT) algorithm introduced by Geyer (1991). However it is difficult to use in combination with a Gibbs sampler, and it necessitates increased storage. We propose an algorithm combining the PT with the principle of exchange moves between chains with same levels of energy, in the spirit of the EES. This adaptation which we are calling Parallel Tempering with Equi-Energy Move (PTEEM) keeps the original idea of the EES method while ensuring good theoretical properties and a practical use in combination with a Gibbs sampler.Then, in some complex models whose likelihood is analytically or computationally intractable, the inference can be difficult. Several likelihood-free methods (or Approximate Bayesian Computational Methods) have been developed. We propose a new algorithm, the Likelihood Free-Parallel Tempering, based on the MCMC theory and on a population of chains, by using an analogy with the Parallel Tempering algorithm.
|
100 |
Représentation parcimonieuse et procédures de tests multiples : application à la métabolomique / Sparse representation and multiple testing procedures : application to metabolimicsTardivel, Patrick 24 November 2017 (has links)
Considérons un vecteur gaussien Y de loi N (m,sigma²Idn) et X une matrice de dimension n x p avec Y observé, m inconnu, Sigma et X connus. Dans le cadre du modèle linéaire, m est supposé être une combinaison linéaire des colonnes de X. En petite dimension, lorsque n ≥ p et que ker (X) = 0, il existe alors un unique paramètre Beta* tel que m = X Beta* ; on peut alors réécrire Y sous la forme Y = X Beta* + Epsilon. Dans le cadre du modèle linéaire gaussien en petite dimension, nous construisons une nouvelle procédure de tests multiples contrôlant le FWER pour tester les hypothèses nulles Beta*i = 0 pour i appartient à [[1,p]]. Cette procédure est appliquée en métabolomique au travers du programme ASICS qui est disponible en ligne. ASICS permet d'identifier et de quantifier les métabolites via l'analyse des spectres RMN. En grande dimension, lorsque n < p on a ker (X) ≠ 0, ainsi le paramètre Beta* décrit précédemment n'est pas unique. Dans le cas non bruité lorsque Sigma = 0, impliquant que Y = m, nous montrons que les solutions du système linéaire d'équations Y = X Beta avant un nombre de composantes non nulles minimales s'obtiennent via la minimisation de la "norme" lAlpha avec Alpha suffisamment petit. / Let Y be a Gaussian vector distributed according to N (m,sigma²Idn) and X a matrix of dimension n x p with Y observed, m unknown, sigma and X known. In the linear model, m is assumed to be a linear combination of the columns of X In small dimension, when n ≥ p and ker (X) = 0, there exists a unique parameter Beta* such that m = X Beta*; then we can rewrite Y = Beta* + Epsilon. In the small-dimensional linear Gaussian model framework, we construct a new multiple testing procedure controlling the FWER to test the null hypotheses Beta*i = 0 for i belongs to [[1,p]]. This procedure is applied in metabolomics through the freeware ASICS available online. ASICS allows to identify and to qualify metabolites via the analyse of RMN spectra. In high dimension, when n < p we have ker (X) ≠ 0 consequently the parameter Beta* described above is no longer unique. In the noiseless case when Sigma = 0, implying thus Y = m, we show that the solutions of the linear system of equation Y = X Beta having a minimal number of non-zero components are obtained via the lalpha with alpha small enough.
|
Page generated in 0.0635 seconds