• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 17
  • 13
  • 1
  • Tagged with
  • 30
  • 30
  • 18
  • 16
  • 16
  • 10
  • 8
  • 7
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Processus stochastiques associés aux équations d'évolution linéaires ou non-linéaires et méthodes numériques probabilistes

Deaconu, Madalina 07 May 2008 (has links) (PDF)
Ce document de synthèse est consacré à l'interprétation probabiliste de certaines équations d'évolution liénaires ou non-linéaires ainsi qu'à l'étude de méthodes numériques probabilistes. La première partie réunit plusieurs résultats qui mettent en évidence les liens qui existent entre les équations aux dérivées partielles et les processus de diffusion pour des modèles linéaires ou non-linéaires. Un paragraphe important est consacré à l'approche probabiliste des modèles de coagulation et/ou fragmentation. Nous présentons dans la seconde partie la construction de nouveaux algorithmes de simulation de type Monte-Carlo pour une large classe d'équations différentielles stochastiques. Cette méthode permet d'estimer de façon précise le premier moment de sortie d'un domaine et la position de sortie pour un processus stochastique. Nous nous intéressons ensuite aux techniques d'échantillonnage pondéré afin de réduire la variance de nos éstimateurs. Dans la troisième partie nous présentons des travaux sur l'analyse fine de certains processus stochastiques dans les espaces de Besov. La quatrième partie est consacrée à des applications issues de collaborations industrielles.
12

Modèles probabilistes de germination/croissance pour la transformation des poudres

Helbert, Céline 22 April 2005 (has links) (PDF)
Ce travail se place dans le cadre physico-chimique du modèle de Mampel : modèle de transformation des poudres par germination surfacique et croissance isotrope. Tout d'abord, une relecture probabiliste des hypothèses du modèle existant permet d'établir une expression générale du degré d'avancement de la transformation. Elle s'affranchit de toute considération géométrique et est valable en conditions non isothermes non isobares. L'évaluation numérique se fait naturellement par la méthode de Monte Carlo. L'accélération de la simulation est alors réalisée en mettant en œuvre différentes techniques de réduction de variance. Ensuite, on montre que la caractérisation probabiliste du degré d'avancement expérimental permet de quantifier et de réduire les incertitudes inhérentes à l'estimation. Enfin, le modèle de la germination est repensé d'un point de vue microscopique. Le germe est alors modélisé par un agglomérat de défauts qui apparaissent et migrent au sein du réseau cristallin.
13

Analyse mathématique et numérique de modèles pour les matériaux, de l'échelle microscopique à l'échelle macroscopique

Lelievre, Tony 03 June 2009 (has links) (PDF)
La première partie du mémoire concerne l'étude de modèles multi-échelles (ou micro-macro) pour les fluides complexes. L'intérêt de ces modèles est d'éviter d'avoir à postuler des lois de comportements phénoménologiques, en couplant une description macroscopique classique (lois de conservations de la quantité de mouvement et de la masse) sur la vitesse et la pression, à des modèles microscopiques pour l'évolution des microstructures dans le fluide, à l'origine du caractère non-newtonien du fluide. La loi de comportement consiste alors à exprimer le tenseur des contraintes en fonction de la conformation des microstructures. Durant la thèse, nous avons obtenu quelques résultats d'existence et de convergence des méthodes numériques utilisées pour ces modèles. Plus récemment, nous proposons une méthode numérique pour coupler des modèles micro-macro (fins mais chers) avec des modèles macroscopiques (plus grossiers, mais beaucoup plus économiques en temps de calcul). Nous analysons par ailleurs une méthode de résolution des équations aux dérivées partielles en grande dimension qui a été proposée dans le contexte de la résolution numérique des modèles à l'échelle microscopique pour les fluides polymériques.<br /><br />L'essentiel de nos travaux les plus récents sur le sujet concerne le comportement en temps long de ces modèles, avec un double objectif : théoriquement, la compréhension des modèles physiques passe souvent par l'étude de la stabilité des solutions stationnaires, et de la vitesse de convergence vers l'équilibre ; numériquement, la stabilité des schémas en temps long est cruciale, car on utilise typiquement des simulations instationnaires en temps long pour calculer des solutions stationnaires. Nous montrons comment analyser le comportement des modèles micro-macro en temps long, en utilisant des méthodes d'entropie. Cette étude a ensuite permis de comprendre le comportement en temps long de modèles macroscopiques standard (type Oldroyd-B), et de préciser sous quelles conditions les schémas numériques vérifient des propriétés similaires de stabilité en temps long.<br /><br /><br />La seconde partie du mémoire résume des travaux en simulation moléculaire, à l'échelle quantique, ou à l'échelle de la dynamique moléculaire classique. A l'échelle quantique, nous nous intéressons aux méthodes Quantum Monte Carlo. Il s'agit de méthodes numériques probabilistes pour calculer l'état fondamental d'une molécule (plus petite valeur propre de l'opérateur de Schrödinger à N corps). Essentiellement, il s'agit de donner une interprétation probabiliste du problème par des formules de Feynman-Kac, afin de pouvoir appliquer des méthodes de Monte Carlo (bien adaptées pour des problèmes de ce type, en grande dimension). Nous proposons tout d'abord une étude théorique de la méthode Diffusion Monte Carlo, et notamment<br />d'un biais introduit par l'interprétation probabiliste (appelé fixed node approximation). Nous analysons ensuite les méthodes numériques utilisées en Diffusion Monte Carlo, et proposons une nouvelle stratégie pour améliorer l'échantillonnage des méthodes Variational Monte Carlo.<br /><br />En dynamique moléculaire, nous étudions des méthodes numériques pour le calcul de différences d'énergie libre. Les modèles consistent à décrire l'état d'un système par la position (et éventuellement la vitesse) de particules (typiquement les positions des noyaux dans un système moléculaire), qui interagissent au travers d'un potentiel (qui idéalement proviendrait d'un calcul de mécanique quantique pour déterminer l'état fondamental des électrons pour une position donnée des noyaux). L'objectif est de calculer des moyennes par rapport à la mesure de Boltzmann-Gibbs associée à ce potentiel (moyennes dans l'ensemble canonique). Mathématiquement, il s'agit d'un problème d'échantillonnage de mesures métastables (ou multi-modales), en très grande dimension. La particularité de la dynamique moléculaire est que, bien souvent, on a quelques informations sur les "directions de métastabilité" au travers de coordonnées de réaction. En utilisant cette donnée, de nombreuses méthodes ont été proposées pour permettre l'échantillonnage de la mesure de Boltzmann-Gibbs. Dans une série de travaux, nous avons analysé les méthodes basées sur des équations différentielles stochastiques avec contraintes (dont les solutions vivent sur des sous-variétés définies comme des lignes de niveaux de la coordonnée de réaction). Il s'agit en fait d'analyser des méthodes d'échantillonnage de mesures définies sur des sous-variétés de grande dimension. Plus récemment, nous avons étudié des méthodes adaptatives qui ont été proposées pour se débarrasser des métastabilités. Mathématiquement, il s'agit de méthodes d'échantillonnage préférentiel, avec une fonction d'importance qui est calculée au cours de la simulation de manière adaptative. Nous avons étudié la vitesse de convergence vers la mesure d'équilibre pour ces méthodes adaptatives, en utilisant des méthodes d'entropie. Nous avons proposé de nouvelles méthodes numériques à la communauté appliquée pour utiliser au mieux ces idées.<br /><br /><br />La troisième partie du mémoire résume des travaux issus d'une collaboration avec l'entreprise Rio Tinto (anciennement Pechiney puis Alcan), leader mondial pour la technologie des cuves d'électrolyse de l'aluminium. Cette collaboration a été entamée il y a plusieurs années par C. Le Bris, et notamment au travers de la thèse de J-F. Gerbeau. Mathématiquement, il s'agit d'analyser et de discrétiser les équations de la magnétohydrodynamique pour deux fluides incompressibles non miscibles, séparés par une interface libre. Nous expliquons le contexte industriel et la modélisation, nous résumons la méthode numérique adoptée (méthode Arbitrary Lagrangian Eulerian) et donnons quelques propriétés satisfaites par le schéma (stabilité, conservation de la masse). Nous montrons ensuite comment ce modèle permet d'étudier un phénomène (potentiellement déstabilisant) observé dans les cuves d'électrolyse : le rolling. Ces résultats ont été pour la plupart obtenus durant la thèse.<br /><br />Plus récemment, dans le prolongement de l'étude industrielle, nous nous sommes intéressés à un problème de modélisation fondamentale pour les écoulements à surface (ou interface) libre: le mouvement de la ligne de contact (i.e. le bord de la surface libre qui glisse le long de la paroi). En résumé, nos travaux consistent essentiellement en deux contributions: (i) une compréhension variationnelle d'une condition aux limites permettant de modéliser correctement le mouvement de la ligne de contact (Generalized Navier Boundary Condition), et son implémentation dans un schéma Arbitrary Lagrangian Eulerian, (ii) une analyse de la stabilité du schéma obtenu.
14

Réduction de variance et discrétisation d'équations différentielles stochastiques.<br />Théorèmes limites presque sûre pour les martingales quasi-continues à gauche.

Kebaier, Ahmed 13 December 2005 (has links) (PDF)
Cette Thèse est composée de deux parties portant respectivement sur la discrétisation des équations différentielles stochastiques et sur le théorème de la limite centrale presque sûre pour les martingales.<br /><br />La première Partie est composée de trois chapitres: Le premier chapitre introduit le cadre de l'étude et présente les résultats obtenus. Le deuxième chapitre est consacré à l'étude d'une nouvelle méthode d'accélération de convergence, appelée méthode de Romberg statistique, pour le calcul d'espérances de fonctions ou de fonctionnelles d'une diffusion.<br />Ce chapitre est la version augmentée d'un article à paraître dans la revue Annals of Applied Probability.<br /><br />Le troisième chapitre traite de l'application de cette méthode à l'approximation de densité par des méthodes de noyaux.<br />Ce chapitre est basé sur un travail en collaboration avec Arturo Kohatsu-Higa.<br /><br />La deuxième partie de la thèse est composée de deux chapitres: le premier chapitre présente la littérature récente concernant le théorème de la limite centrale presque sûre et ses extensions. Le deuxième chapitre, basé sur un travail en collaboration avec Faouzi Chaâbane, étend divers résultats de type TLCPS à des martingales quasi-continues à gauche.
15

Modèles multi-échelles pour les fluides viscoélastiques

Lelievre, Tony 21 June 2004 (has links) (PDF)
Ce travail porte principalement sur l'analyse mathématique de modèles multi-échelles pour la simulation de fluides polymériques. Ces modèles couplent, au niveau microscopique, une description moléculaire de l'évolution des chaînes de polymère (sous forme d'une équation différentielle stochastique) avec, au niveau macroscopique, les équations de conservation de la masse et de la quantité de mouvement pour le solvant (sous forme d'équations aux dérivées partielles). Le chapitre 1 introduit les modèles et donne les principaux résultats obtenus. Dans les chapitres 2, 4, 5 et 7 on montre en quel sens les équations sont bien posées pour divers modèles de polymère, en considérant soit des écoulements homogènes, soit des écoulements cisaillés plans. Dans les chapitres 2, 3, 6 et 7, on analyse et on prouve la convergence de méthodes numériques pour ces modèles. Enfin, le chapitre 8 concerne le comportement en temps long du système. Une deuxième partie de ce document est constituée de trois chapitres portant sur un travail en magnétohydrodynamique (MHD), en collaboration avec l'industrie. Le chapitre 9 est une introduction à la problématique ainsi qu'aux méthodes numériques utilisées. Le chapitre 10 décrit un nouveau cas-test en MHD. Enfin, le chapitre 11 donne une analyse de la stabilité du schéma numérique utilisé.
16

Réduction de variance et discrétisation d'équations différentielles stochastiques. <br />Théorèmes limites presque sûre pour les martingales quasi-continues à gauche.

Kebaier, Ahmed 13 December 2005 (has links) (PDF)
Cette Thèse est composée de deux parties portant respectivement sur la discrétisation des équations différentielles stochastiques et sur le théorème de la limite centrale presque sûre pour les martingales.<br /><br />La première Partie est composée de trois chapitres: Le premier chapitre introduit le cadre de l'étude et présente les résultats obtenus. Le deuxième chapitre est consacré à l'étude d'une nouvelle méthode d'accélération de convergence, appelée méthode de Romberg statistique, pour le calcul d'espérances de fonctions ou de fonctionnelles d'une diffusion.<br />Ce chapitre est la version augmentée d'un article à paraître dans la revue Annals of Applied Probability.<br /><br />Le troisième chapitre traite de l'application de cette méthode à l'approximation de densité par des méthodes de noyaux.<br />Ce chapitre est basé sur un travail en collaboration avec Arturo Kohatsu-Higa.<br /><br />La deuxième partie de la thèse est composée de deux chapitres: le premier chapitre présente la littérature récente concernant le théorème de la limite centrale presque sûre et ses extensions. Le deuxième chapitre, basé sur un travail en collaboration avec Faouzi Chaâbane, étend divers résultats de type TLCPS à des martingales quasi-continues à gauche.
17

Quelques problèmes liés à l'erreur statistique en homogénéisation stochastique / Some problems related to statistical error in stochastic homogenization

Minvielle, William 25 September 2015 (has links)
Le travail de cette thèse a porté sur le développement de techniques numériques pour l'homogénéisation d'équations dont les coefficients présentent des hétérogénéités aléatoires à petite échelle. Les difficultés liées à la résolution de telles équations aux dérivées partielles peuvent être résolues grâce à la théorie de l'homogénéisation stochastique. On substitue alors la résolution d'une équation dont les coefficients sont aléatoires et oscillants à l'échelle la plus fine du problème par la résolution d'une équation à coefficients constants. Cependant, une difficulté subsiste : le calcul de ces coefficients dits homogénéisés sont définis par une moyenne ergodique, que l'on ne peut atteindre en pratique. Seuls des approximations aléatoires de ces quantités déterministes sont calculables, et l'erreur commise lors de l'approximation est importante. Ces questions sont développées en détail dans le Chapitre 1 qui tient lieu d'introduction. L'objet du Chapitre 2 de cette thèse est de réduire l'erreur de cette approximation dans un cas nonlinéaire, en réduisant la variance de l'estimateur par la méthode des variables antithétiques. Dans le Chapitre 3, on montre comment obtenir une meilleure réduction de variance par la méthode des vari- ables de contrôle. Cette approche repose sur un modèle approché, disponible dans le cas étudié. Elle est plus invasive et moins générique, on l'étudie dans un cas linéaire. Dans le Chapitre 4, à nouveau dans un cas linéaire, on introduit une méthode de sélection pour réduire l'erreur commise. Enfin, le Chapitre 5 porte sur l'analyse d'un problème in- verse, où l'on recherche des paramètres à l'échelle la plus fine, ne connaissant que quelques quantités macroscopiques, par exemple les coefficients homogénéisés du modèle / In this thesis, we design numerical techniques to address the homogenization of equations the coefficients of which exhibit small scale random heterogeneities. Solving such elliptic partial differential equations is prohibitively expensive. One may use stochastic homogenization theory to reduce the complexity of this task. We then substitute the random, fine scale oscillating coefficients of the equation with constant homogenized coefficients. These coefficients are defined through an ergodic average inaccessible to practical computation. Only random approximations thereof are available. The error committed in this approximation is significant. These issues are detailed in the introductory Chapter 1. In Chapter 2, we show how to reduce the error in this approximation, in a nonlinear case, by using an antithetic variable estimator that has a smaller variance than the standard Monte Carlo estimator. In Chapter 3, in a linear case, we show how to obtain an even better variance reduction with the control variate method. Such a method is based on a surrogate model. In Chapter 4, we use a selection method to reduce the global error. Chapter 5 is devoted to the analysis of an inverse problem, wherein we seek parameters at the fine scale whilst only being provided with a handful of macroscopic quantities, among which the homogenized coefficients
18

Development of an adaptive variance reduction technique for Monte Carlo particle transport / Développement d'une méthode de réduction de variance adaptative pour le transport Monte Carlo de particules

Louvin, Henri 12 October 2017 (has links)
L’algorithme Adaptive Multilevel Splitting (AMS) a récemment fait son apparition dans la littérature de mathématiques appliquées, en tant que méthode de réduction de variance pour la simulation Monte Carlo de chaı̂nes de Markov. Ce travail de thèse se propose d’implémenter cette méthode de réduction de variance adaptative dans le code Monte-Carlo de transport de particules TRIPOLI-4,dédié entre autres aux études de radioprotection et d’instrumentation nucléaire. Caractérisées par de fortes atténuations des rayonnements dans la matière, ces études entrent dans la problématique du traitement d’évènements rares. Outre son implémentation inédite dans ce domaine d’application, deux nouvelles fonctionnalités ont été développées pour l’AMS, testées puis validées. La première est une procédure d’encaissement au vol permettant d’optimiser plusieurs scores en une seule simulation AMS. La seconde est une extension de l’AMS aux processus branchants, courants dans les simulations de radioprotection, par exemple lors du transport couplé de neutrons et des photons induits par ces derniers. L’efficacité et la robustesse de l’AMS dans ce nouveau cadre applicatif ont été démontrées dans des configurations physiquement très sévères (atténuations du flux de particules de plus de 10 ordres de grandeur), mettant ainsi en évidence les avantages prometteurs de l’AMS par rapport aux méthodes de réduction de variance existantes. / The Adaptive Multilevel Splitting algorithm (AMS) has recently been introduced to the field of applied mathematics as a variance reduction scheme for Monte Carlo Markov chains simulation. This Ph.D. work intends to implement this adaptative variance reduction method in the particle transport Monte Carlo code TRIPOLI-4, dedicated among others to radiation shielding and nuclear instrumentation studies. Those studies are characterized by strong radiation attenuation in matter, so that they fall within the scope of rare events analysis. In addition to its unprecedented implementation in the field of particle transport, two new features were developed for the AMS. The first is an on-the-fly scoring procedure, designed to optimize the estimation of multiple scores in a single AMS simulation. The second is an extension of the AMS to branching processes, which are common in radiation shielding simulations. For example, in coupled neutron-photon simulations, the neutrons have to be transported alongside the photons they produce. The efficiency and robustness of AMS in this new framework have been demonstrated in physically challenging configurations (particle flux attenuations larger than 10 orders of magnitude), which highlights the promising advantages of the AMS algorithm over existing variance reduction techniques.
19

Efficacité de l’algorithme EM en ligne pour des modèles statistiques complexes dans le contexte des données massives

Martel, Yannick 11 1900 (has links)
L’algorithme EM (Dempster et al., 1977) permet de construire une séquence d’estimateurs qui converge vers l’estimateur de vraisemblance maximale pour des modèles à données manquantes pour lesquels l’estimateur du maximum de vraisemblance n’est pas calculable. Cet algorithme est remarquable compte tenu de ses nombreuses applications en apprentissage statistique. Toutefois, il peut avoir un lourd coût computationnel. Les auteurs Cappé et Moulines (2009) ont proposé une version en ligne de cet algorithme pour les modèles appartenant à la famille exponentielle qui permet de faire des gains d’efficacité computationnelle importants en présence de grands jeux de données. Cependant, le calcul de l’espérance a posteriori de la statistique exhaustive, qui est nécessaire dans la version de Cappé et Moulines (2009), est rarement possible pour des modèles complexes et/ou lorsque la dimension des données manquantes est grande. On doit alors la remplacer par un estimateur. Plusieurs questions se présentent naturellement : les résultats de convergence de l’algorithme initial restent-ils valides lorsqu’on remplace l’espérance par un estimateur ? En particulier, que dire de la normalité asymptotique de la séquence des estimateurs ainsi créés, de la variance asymptotique et de la vitesse de convergence ? Comment la variance de l’estimateur de l’espérance se reflète-t-elle sur la variance asymptotique de l’estimateur EM? Peut-on travailler avec des estimateurs de type Monte-Carlo ou MCMC? Peut-on emprunter des outils populaires de réduction de variance comme les variables de contrôle ? Ces questions seront étudiées à l’aide d’exemples de modèles à variables latentes. Les contributions principales de ce mémoire sont une présentation unifiée des algorithmes EM d’approximation stochastique, une illustration de l’impact au niveau de la variance lorsque l’espérance a posteriori est estimée dans les algorithmes EM en ligne et l’introduction d’algorithmes EM en ligne permettant de réduire la variance supplémentaire occasionnée par l’estimation de l’espérance a posteriori. / The EM algorithm Dempster et al. (1977) yields a sequence of estimators that converges to the maximum likelihood estimator for missing data models whose maximum likelihood estimator is not directly tractable. The EM algorithm is remarkable given its numerous applications in statistical learning. However, it may suffer from its computational cost. Cappé and Moulines (2009) proposed an online version of the algorithm in models whose likelihood belongs to the exponential family that provides an upgrade in computational efficiency in large data sets. However, the conditional expected value of the sufficient statistic is often intractable for complex models and/or when the missing data is of a high dimension. In those cases, it is replaced by an estimator. Many questions then arise naturally: do the convergence results pertaining to the initial estimator hold when the expected value is substituted by an estimator? In particular, does the asymptotic normality property remain in this case? How does the variance of the estimator of the expected value affect the asymptotic variance of the EM estimator? Are Monte-Carlo and MCMC estimators suitable in this situation? Could variance reduction tools such as control variates provide variance relief? These questions will be tackled by the means of examples containing latent data models. This master’s thesis’ main contributions are the presentation of a unified framework for stochastic approximation EM algorithms, an illustration of the impact that the estimation of the conditional expected value has on the variance and the introduction of online EM algorithms which reduce the additional variance stemming from the estimation of the conditional expected value.
20

Accelerating Monte Carlo particle transport with adaptively generated importance maps / Accélération de simulations Monte Carlo de transport de particules par génération adaptative de cartes d’importance

Nowak, Michel 12 October 2018 (has links)
Les simulations Monte Carlo de transport de particules sont un outil incontournable pour l'étude de problèmes de radioprotection. Leur utilisation implique l'échantillonnage d'événements rares grâce à des méthode de réduction de variance qui reposent sur l'estimation de la contribution d'une particule au détecteur. On construit cette estimation sous forme d'une carte d'importance.L’objet de cette étude est de proposer une stratégie qui permette de générer de manière adaptative des cartes d'importance durant la simulation Monte Carlo elle-même. Le travail a été réalisé dans le code de transport des particules TRIPOLI-4®, développé à la Direction de l’énergie nucléaire du CEA (Salay, France).Le cœur du travail a consisté à estimer le flux adjoint à partir des trajectoires simulées avec l'Adaptive Multilevel Splitting, une méthode de réduction de variance robuste. Ce développement a été validé à l'aide de l'intégration d'un module déterministe dans TRIPOLI-4®.Trois stratégies sont proposés pour la réutilisation de ce score en tant que carte d'importance dans la simulation Monte Carlo. Deux d'entre elles proposent d'estimer la convergence du score adjoint lors de phases d'exploitation.Ce travail conclut sur le lissage du score adjoint avec des méthodes d'apprentissage automatique, en se concentrant plus particulièrement sur les estimateurs de densité à noyaux. / Monte Carlo methods are a reference asset for the study of radiation transport in shielding problems. Their use naturally implies the sampling of rare events and needs to be tackled with variance reduction methods. These methods require the definition of an importance function/map. The aim of this study is to propose an adaptivestrategy for the generation of such importance maps during the Montne Carlo simulation. The work was performed within TRIPOLI-4®, a Monte Carlo transport code developped at the nuclear energy division of CEA in Saclay, France. The core of this PhD thesis is the implementation of a forward-weighted adjoint score that relies on the trajectories sampled with Adaptive Multilevel Splitting, a robust variance reduction method. It was validated with the integration of a deterministic module in TRIPOLI-4®. Three strategies were proposed for the reintegrationof this score as an importance map and accelerations were observed. Two of these strategies assess the convergence of the adjoint score during exploitation phases by evalutating the figure of merit yielded by the use of the current adjoint score. Finally, the smoothing of the importance map with machine learning algorithms concludes this work with a special focus on Kernel Density Estimators.

Page generated in 0.507 seconds