Spelling suggestions: "subject:"nonparamétrique"" "subject:"monoparamétrique""
361 |
Reconstruction libre de lentilles gravitationnelles de type galaxie-galaxie avec les machines à inférence récurentielleAdam, Alexandre 12 1900 (has links)
Les lentilles gravitationnelles de type galaxie-galaxie se produisent lorsque la lumière d'une galaxie en arrière-plan est déviée par le champ gravitationnel d'une galaxie en avant-plan, formant des images multiples ou même des anneaux d'Einstein selon le point de vue d'un observateur sur Terre. Ces phénomènes permettent non seulement d'étudier les galaxies lointaines, magnifiées par la galaxie-lentille, mais aussi de comprendre la distribution de masse de la galaxie-lentille et de son environnement, une opportunité unique pour sonder la matière noire contenue dans ces galaxies. Or, les méthodes traditionnelles pour analyser ces systèmes requièrent une quantité significative de temps ordinateur (de quelques heures à quelques jours), sans compter le temps des experts pour faire converger les analyses MCMC requises pour obtenir les paramètres d'intérêts. Ce problème est significatif, considérant qu'il est projeté que les grands relevés du ciel comme ceux qui seront menés aux observatoires Rubin et Euclid découvrirons plusieurs centaines de milliers de lentilles gravitationnelles. De plus, le Télescope géant européen (ELT), faisant usage de la technologie d'optique adaptative, et le télescope spatial James Webb, vont nous offrir une vue sans précédent de ces systèmes, avec un pouvoir de résolution qui rendra possible certaines analyses comme la recherche de halo de matière noire froide, longtemps prédite par le modèle cosmologique standard $\Lambda$CDM. Les approximations traditionnelles faites pour simplifier la reconstruction des lentilles gravitationnelles ne seront plus valides dans ce régime.
Dans ce mémoire, je présente un travail qui s'attaque à ces deux problèmes. Je présente une méthode d'optimisation basée sur les machines à inférence récurentielle pour reconstruire deux images, soit celle d'une galaxie en arrière-plan et une image pour la distribution de masse de la galaxie en avant-plan. La représentation paramétrique choisie a le potentiel de reconstruire une classe très large de lentilles gravitationnelles, incluant des halos et sous-halos de matière noire, ce qu'on démontre dans ce travail en utilisant des profiles de densité réalistes provenant de la simulation cosmologique hydrodynamique IllustrisTNG. Nos reconstructions atteignent un niveau de réalisme jamais atteint auparavant et s'exécutent sur une fraction du temps requis pour exécuter une analyse traditionnelle, soit un pas significatif vers une méthode pouvant adresser le défi d'analyser autant de systèmes complexes et variés en un temps à l'échelle humaine. / Galaxy-Galaxy gravitational lenses is a phenomenon that happens when the light coming from a
background galaxy is bent by the gravitational field of a foreground galaxy, producing multiple
images or even Einstein ring images of the background source from the point of view of an observer
on Earth. These phenomena allow us to study in detail the morphology of the background galaxy,
magnified by the lens, but also study the mass density distribution of the lens and its environment,
thus offering a unique probe of dark matter in lensing galaxies. Traditional methods studying these
systems often need significant compute time (from hours to days), and this is without taking into
account the time spent by experts to make the MCMC chains required to obtain parameters of
interest converge. This problem is significant, considering that large surveys from observatories like
Rubin and Euclid are projected to discover hundreds of thousands of gravitational lenses. Moreover,
the Extremely Large Telescope (ELT), using adaptive optics, and the James Webb Space Telescope
will offer an unprecedented glimpse of these systems, with a resolving power predicted to enable
searches for cold dark matter subhalos — objects long predicted by the standard cosmological model
CDM. Approximations used to make analysis tractable in traditional methods will no longer be
valid in that regime.
In this thesis, I present a method that aims to address these two issues. The method, based
on Recurrent Inference Machines (RIM), reconstructs two pixelated maps, one for the background
source and another for the mass density map of the foreground lensing galaxy. This free-form
parametric representation has the potential to reconstruct a large class of gravitational lenses,
including those with dark matter halos and subhalos, which we demonstrate using realistic mass
density profiles from the cosmological hydrodynamic simulation IllustrisTNG. Our method can
achieve an unmatched level of realism in a fraction of the time required by traditional methods,
which is a significant step toward solving the challenge of studying such a large number of complex
and varied systems in a human timescale.
|
362 |
Recherche de structure dans un graphe aléatoire : modèles à espace latent / Clustering in a random graph : models with latent spaceChannarond, Antoine 10 December 2013 (has links)
Cette thèse aborde le problème de la recherche d'une structure (ou clustering) dans lesnoeuds d'un graphe. Dans le cadre des modèles aléatoires à variables latentes, on attribue à chaque noeud i une variable aléatoire non observée (latente) Zi, et la probabilité de connexion des noeuds i et j dépend conditionnellement de Zi et Zj . Contrairement au modèle d'Erdos-Rényi, les connexions ne sont pas indépendantes identiquement distribuées; les variables latentes régissent la loi des connexions des noeuds. Ces modèles sont donc hétérogènes, et leur structure est décrite par les variables latentes et leur loi; ce pourquoi on s'attache à en faire l'inférence à partir du graphe, seule variable observée.La volonté commune des deux travaux originaux de cette thèse est de proposer des méthodes d'inférence de ces modèles, consistentes et de complexité algorithmique au plus linéaire en le nombre de noeuds ou d'arêtes, de sorte à pouvoir traiter de grands graphes en temps raisonnable. Ils sont aussi tous deux fondés sur une étude fine de la distribution des degrés, normalisés de façon convenable selon le modèle.Le premier travail concerne le Stochastic Blockmodel. Nous y montrons la consistence d'un algorithme de classiffcation non supervisée à l'aide d'inégalités de concentration. Nous en déduisons une méthode d'estimation des paramètres, de sélection de modèles pour le nombre de classes latentes, et un test de la présence d'une ou plusieurs classes latentes (absence ou présence de clustering), et nous montrons leur consistence.Dans le deuxième travail, les variables latentes sont des positions dans l'espace ℝd, admettant une densité f, et la probabilité de connexion dépend de la distance entre les positions des noeuds. Les clusters sont définis comme les composantes connexes de l'ensemble de niveau t > 0 fixé de f, et l'objectif est d'en estimer le nombre à partir du graphe. Nous estimons la densité en les positions latentes des noeuds grâce à leur degré, ce qui permet d'établir une correspondance entre les clusters et les composantes connexes de certains sous-graphes du graphe observé, obtenus en retirant les nœuds de faible degré. En particulier, nous en déduisons un estimateur du nombre de clusters et montrons saconsistence en un certain sens / .This thesis addresses the clustering of the nodes of a graph, in the framework of randommodels with latent variables. To each node i is allocated an unobserved (latent) variable Zi and the probability of nodes i and j being connected depends conditionally on Zi and Zj . Unlike Erdos-Renyi's model, connections are not independent identically distributed; the latent variables rule the connection distribution of the nodes. These models are thus heterogeneous and their structure is fully described by the latent variables and their distribution. Hence we aim at infering them from the graph, which the only observed data.In both original works of this thesis, we propose consistent inference methods with a computational cost no more than linear with respect to the number of nodes or edges, so that large graphs can be processed in a reasonable time. They both are based on a study of the distribution of the degrees, which are normalized in a convenient way for the model.The first work deals with the Stochastic Blockmodel. We show the consistency of an unsupervised classiffcation algorithm using concentration inequalities. We deduce from it a parametric estimation method, a model selection method for the number of latent classes, and a clustering test (testing whether there is one cluster or more), which are all proved to be consistent. In the second work, the latent variables are positions in the ℝd space, having a density f. The connection probability depends on the distance between the node positions. The clusters are defined as connected components of some level set of f. The goal is to estimate the number of such clusters from the observed graph only. We estimate the density at the latent positions of the nodes with their degree, which allows to establish a link between clusters and connected components of some subgraphs of the observed graph, obtained by removing low degree nodes. In particular, we thus derive an estimator of the cluster number and we also show the consistency in some sense.
|
363 |
Ingénierie de l'intrication photonique pour l'information quantique et l'optique quantique fondamentaleKaiser, Florian 12 November 2012 (has links) (PDF)
Le but de cette thèse est de développer des sources d'intrication photonique pour étudier les réseaux de communication quantique et l'optique quantique fondamentale. Trois sources très performantes sont construites uniquement autour de composants standards de l'optique intégrée et des télécommunications optiques. La première source génère de l'intrication en polarisation via une séparation deterministe des paires de photons dans deux canaux adjacents des télécommunications. Cette source est donc naturellement adaptée à la cryptographie quantique dans les réseaux à multiplexage en longueurs d'ondes. La seconde source génère, pour la première fois, de l'intrication en time-bins croisés, autorisant l'implémentation de crypto-systèmes quantiques à base d'analyseurs passifs uniquement. La troisième source génère, avec une efficacité record, de l'intrication en polarisation via un convertisseur d'observable temps/polarisation. La bande spectrale des photons peut être choisie sur plus de cinq ordres de grandeur (25 MHz - 4 THz), rendant la source compatible avec toute une variété d'applications avancées, telles que la cryptographie, les relais et les mémoires quantiques. Par ailleurs, cette source est utilisée pour revisiter la notion de Bohr sur la complémentarité des photons uniques en employant un interféromètre de Mach-Zehnder dont la lame s ́eparatrice de sortie se trouve dans une superposition quantique d'être à la fois présente et absente. Enfin, pour adapter la longueur d'onde des paires des photons télécoms intriqués vers les longueurs d'ondes d'absorption des mémoires quantiques actuelles, un convertisseur cohérent de longueur d'onde est présenté et discuté.
|
364 |
Approches paramétriques pour le codage audio multicanalLapierre, Jimmy January 2007 (has links)
Résumé : Afin de répondre aux besoins de communication et de divertissement, il ne fait aucun doute que la parole et l’audio doivent être encodés sous forme numérique. En qualité CD, cela nécessite un débit numérique de 1411.2 kb/s pour un signal stéréo-phonique. Une telle quantité de données devient rapidement prohibitive pour le stockage de longues durées d’audio ou pour la transmission sur certains réseaux, particulièrement en temps réel (d’où l’adhésion universelle au format MP3). De plus, ces dernières années, la quantité de productions musicales et cinématographiques disponibles en cinq canaux et plus ne cesse d’augmenter. Afin de maintenir le débit numérique à un niveau acceptable pour une application donnée, il est donc naturel pour un codeur audio à bas débit d’exploiter la redondance entre les canaux et la psychoacoustique binaurale. Le codage perceptuel et plus particulièrement le codage paramétrique permet d’atteindre des débits manifestement inférieurs en exploitant les limites de l’audition humaine (étudiées en psychoacoustique). Cette recherche se concentre donc sur le codage paramétrique à bas débit de plus d’un canal audio. // Abstract : In order to fulfill our communications and entertainment needs, there is no doubt that speech and audio must be encoded in digital format. In"CD" quality, this requires a bit-rate of 1411.2 kb/s for a stereo signal. Such a large amount of data quickly becomes prohibitive for long-term storage of audio or for transmitting on some networks, especially in real-time (leading to a universal adhesion to the MP3 format). Moreover, throughout the course of these last years, the number of musical and cinematographic productions available in five channels or more continually increased.In order to maintain an acceptable bit-rate for any given application, it is obvious that a low bit-rate audio coder must exploit the redundancies between audio channels and binaural psychoacoustics. Perceptual audio coding, and more specifically parametric audio coding, offers the possibility of achieving much lower bit-rates by taking into account the limits of human hearing (psychoacoustics). Therefore, this research concentrates on parametric audio coding of more than one audio channel.
|
365 |
Conditional limit theorems for multitype branching processes and illustration in epidemiological risk analysisPénisson, Sophie 16 July 2010 (has links) (PDF)
Cette thèse s'articule autour de la problématique de l'extinction de populations comportant différents types d'individus, et plus particulièrement de leur comportement avant extinction et/ou en cas d'une extinction très tardive. Nous étudions cette question d'un point de vue strictement probabiliste, puis du point de vue de l'analyse des risques liés à l'extinction pour un modèle particulier de dynamique de population, et proposons plusieurs outils statistiques. La taille de la population est modélisée soit par un processus de branchement de type Bienaymé-Galton-Watson à temps continu multitype (BGWc), soit par son équivalent dans un espace de valeurs continu, le processus de diffusion de Feller multitype. Nous nous intéressons à différents types de conditionnement à la non-extinction, et aux états d'équilibre associés. Ces conditionnements ont déjà été largement étudiés dans le cas monotype. Cependant la littérature relative aux processus multitypes est beaucoup moins riche, et il n'existe pas de travail systématique établissant des connexions entre les résultats concernant les processus BGWc et ceux concernant les processus de diffusion de Feller. Nous nous y sommes attelés. Dans la première partie de cette thèse, nous nous intéressons au comportement de la population avant son extinction, en conditionnant le processus de branchement X_t à la non-extinction (X_t≠0), ou plus généralement à la non-extinction dans un futur proche 0≤θ<∞ (X_{t+θ}≠0), et en faisant tendre t vers l'infini. Nous prouvons le résultat, nouveau dans le cadre multitype et pour θ>0, que cette limite existe et est non-dégénérée, traduisant ainsi un comportement stationnaire pour la dynamique de la population conditionnée à la non-extinction, et offrant une généralisation de la limite dite de Yaglom (correspondant au cas θ=0). Nous étudions dans un second temps le comportement de la population en cas d'une extinction très tardive, obtenu comme limite lorsque θ tends vers l'infini du processus X_t conditionné par X_{t+θ}≠0. Le processus conditionné ainsi obtenu est un objet connu dans le cadre monotype (parfois dénommé Q-processus), et a également été étudié lorsque le processus X_t est un processus de diffusion de Feller multitype. Nous examinons le cas encore non considéré où X_t est un BGWc multitype, prouvons l'existence du Q-processus associé, examinons ses propriétés, notamment asymptotiques, et en proposons plusieurs interprétations. Enfin, nous nous intéressons aux échanges de limites en t et en θ, ainsi qu'à la commutativité encore non étudiée de ces limites vis-à-vis de la relation de type grande densité reliant processus BGWc et processus de Feller. Nous prouvons ainsi une liste exhaustive et originale de tous les échanges de limites possibles (limite en temps t, retard de l'extinction θ, limite de diffusion). La deuxième partie de ce travail est consacrée à l'analyse des risques liés à l'extinction d'une population et à son extinction tardive. Nous considérons un certain modèle de population branchante (apparaissant notamment dans un contexte épidémiologique) pour lequel un paramètre lié aux premiers moments de la loi de reproduction est inconnu, et construisons plusieurs estimateurs adaptés à différentes phases de l'évolution de la population (phase de croissance, phase de décroissance, phase de décroissance lorsque l'extinction est supposée tardive), prouvant de plus leurs propriétés asymptotiques (consistance, normalité). En particulier, nous construisons un estimateur des moindres carrés adapté au Q-processus, permettant ainsi une prédiction de l'évolution de la population dans le meilleur ou le pire des cas (selon que la population est menacée ou au contraire invasive), à savoir celui d'une extinction tardive. Ces outils nous permettent d'étudier la phase d'extinction de l'épidémie d'Encéphalopathie Spongiforme Bovine en Grande-Bretagne, pour laquelle nous estimons le paramètre d'infection correspondant à une possible source d'infection horizontale persistant après la suppression en 1988 de la voie principale d'infection (farines animales). Cela nous permet de prédire l'évolution de la propagation de la maladie, notamment l'année d'extinction, le nombre de cas à venir et le nombre d'animaux infectés, et en particulier de produire une analyse très fine de l'évolution de l'épidémie dans le cas peu probable d'une extinction très tardive.
|
366 |
Caractérisation multibande de galaxies par hiérarchie de modèles et arbres de composantes connexesPerret, Benjamin 17 November 2010 (has links) (PDF)
Cette thèse propose une méthode de caractérisation morphologique multibande des galaxies. Ces dernières ont commencé à évoluer et à interagir très tôt dans l'histoire de l'Univers: leurs formes dans les différentes parties du spectre électromagnétique représentent donc un traceur important de cette histoire. Ce travail propose une organisation hiérarchique de modèles, allant de la description des structures dominantes (bulbe et disque) aux composantes les plus fines (bras spiraux, anneaux, ...). Elle permet d'aboutir à une description des galaxies de haut niveau sémantique, chaque modèle réalisant une décomposition multibande de l'image en composantes astrophysiques interprétables par les astronomes. Les modélisations proposées innovent par l'intégration d'un filtre adaptatif appliqué sur les observations, dont les paramètres sont estimés conjointement avec ceux des composantes de la galaxie. L'estimation des paramètres des modèles est effectuée dans un contexte bayésien et résolue à l'aide d'algorithmes d'optimisation stochastique (algorithmes de Monte Carlo par chaines de Markov). La rapidité des algorithmes est améliorée grâce à des techniques d'échelles et de directions adaptatives, ainsi qu'à une version multi-températures du recuit simulé. En outre, les développements concernant la théorie des arbres de composantes connexes permettent la mise au point d'algorithmes non paramétriques multibandes, efficaces et robustes pour la réalisation des pré-traitements nécessaires à la mise en oeuvre de la décomposition en structures. Cela a notamment abouti à des avancées dans la théorie des hyperconnexions et des représentations sous forme d'arbres de composantes hyperconnexes. Les performances des méthodes proposées ont été évaluées sur un ensemble conséquent d'environ 1 500 galaxies et discutées avec les astronomes: elles montrent clairement la pertinence et la robustesse de la méthode. Ces résultats ouvrent la voie à de nouvelles classifications prenant en compte la signature multibande des galaxies spatialement résolues.
|
367 |
Non- and semiparametric models for conditional probabilities in two-way contingency tables / Modèles non-paramétriques et semiparamétriques pour les probabilités conditionnelles dans les tables de contingence à deux entréesGeenens, Gery 04 July 2008 (has links)
This thesis is mainly concerned with the estimation of conditional probabilities in two-way contingency
tables, that is probabilities of type P(R=i,S=j|X=x), for (i,j) in {1, . . . , r}×{1, . . . , s}, where
R and S are the two categorical variables forming the contingency table, with r and s levels respectively, and
X is a vector of explanatory variables possibly associated with R, S, or both. Analyzing such a conditional
distribution is often of interest, as this allows to go further than the usual unconditional study of the behavior
of the variables R and S. First, one can check an eventual effect of these covariates on the distribution of
the individuals through the cells of the table, and second, one can carry out usual analyses of contingency
tables, such as independence tests, taking into account, and removing in some sense, this effect. This helps
for instance to identify the external factors which could be responsible for an eventual association between
R and S. This also gives the possibility to adapt for a possible heterogeneity in the population of interest,
when analyzing the table.
|
368 |
Approximation polynômiale par projection L2 discrète aléatoire et application aux problèmes inverses pour les EDP à coefficients stochastiquesMigliorati, Giovanni 03 April 2013 (has links) (PDF)
Le sujet principal de cette thèse porte sur l'approximation polynômiale des fonctions aléatoires au moyen de la projection L2 aléatoire discrète, et son application aux problèmes inverses pour les équations aux dérivées partielles avec des données aléatoires. Les motivations proviennent de l'approximation paramétrique de la solution de modèles aux dérivées partielles. La thèse se compose de deux parties, avec un chapitre d'introduction qui résume les techniques modernes de l'approximation polynômiale des fonctions de variables aléatoires. La première partie, du chapitre 1 au chapitre 4, contient l'analyse théorique de la projection L2 aléatoire discrète pour résoudre le problème direct, par exemple, pour rapprocher les moments d'une fonction aléatoire à partir de ses observations, ou pour calculer la solution à un modèle numérique avec des coefficients stochastiques. La stabilité et l'optimalité de l'erreur d'approximation évaluée dans la norme L2 pondérée sont traités. Dans la dernière partie de la thèse, composé des chapitres 5 et 6, la méthodologie développée précédemment pour le problème direct est appliqué aux problèmes inverses pour les équations aux dérivées partielles à coefficients stochastiques. La méthode de factorisation est appliquée dans le cadre de la tomographie par impédance électrique, d'abord dans le cas de coefficient inhomogène, puis dans le cas de coefficient constante par morceaux, à valeurs dans chaque région affectée par l'incertitude. Enfin, dans le chapitre 6 les variantes de la méthode de factorisation proposées dans le chapitre précédent sont accélérés en utilisant les techniques qui ont été présentés dans la première partie de la thèse.
|
369 |
Contributions à l'identification paramétrique de modèles à temps continu : extensions de la méthode à erreur de sortie, développement d'une approche spécifique aux systèmes à boucles imbriquées / Contributions in parametric identification of continuous-time models : extensions to the output error method, development of a new specific approach for cascaded loops systemsBaysse, Arnaud 21 October 2010 (has links)
Les travaux de recherche présentés dans ce mémoire concernent des contributions à l'identification paramétrique de modèles à temps continu. La première contribution est le développement d'une méthode à erreur de sortie appliquée à des modèles linéaires, en boucle ouverte et en boucle fermée. Les algorithmes sont présentés pour des modèles à temps continu, en utilisant une approche hors ligne ou récursive. La méthode est étendue à l'identification de systèmes linéaires comprenant un retard pur. La méthode développée est appliquée à différents systèmes et comparée aux méthodes d'identification existantes. La deuxième contribution est le développement d'une nouvelle approche d'identification de systèmes à boucles imbriquées. Cette approche est développée pour l'identification de systèmes électromécaniques. Elle se base sur l'utilisation d'un modèle d'identification paramétrique générique d'entraînements électromécaniques en boucle fermée, sur la connaissance du profil des lois de mouvement appliquées appelées excitations, et sur l'analyse temporelle de signaux internes et leurs corrélations avec les paramètres à identifier. L'approche est développée dans le cadre de l'identification d'entraînements à courant continu et synchrone. L'application de cette approche est effectuée au travers de simulations et de tests expérimentaux. Les résultats sont comparés à des méthodes d'identification classiques. / The research works presented in this thesis are about contributions in continuous time model parametric identication. The rst work is the development of an output error method applied on linear models, in open and closed loop. The algorithms are presented for continuous time models, using in-line or oine approaches. The method is extended to the case of the linear systems containing pure time delay. The developed method is applied to several systems and compared to the best existing methods. The second contribution is the development of a new identication approach for cascaded loop systems. This approach is developed for identifying electromechanical systems. It is based on the use of a generic parametric model of electromechanical drives in closed loop, on the knowledge of the movement laws applied and called excitations, and on the analyse of the time internal signals and their correlations with the parameters to identify. This approach is developed for identifying direct current and synchronous drives. The approach is applied with simulations and experimental tests. The obtained results are compared to best identifying known methods.
|
370 |
Actuarial applications of multivariate phase-type distributions : model calibration and credibilityHassan Zadeh, Amin January 2009 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
|
Page generated in 0.0487 seconds