• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 79
  • 29
  • 3
  • Tagged with
  • 112
  • 112
  • 112
  • 31
  • 23
  • 22
  • 22
  • 16
  • 14
  • 13
  • 13
  • 12
  • 12
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Méthodes de Monte-Carlo pour les diffusions discontinues : application à la tomographie par impédance électrique / Monte Carlo methods for discontinuous diffusions : application to electrical impedance tomography

Nguyen, Thi Quynh Giang 19 October 2015 (has links)
Cette thèse porte sur le développement de méthodes de Monte-Carlo pour calculer des représentations Feynman-Kac impliquant des opérateurs sous forme divergence avec un coefficient de diffusion constant par morceaux. Les méthodes proposées sont des variantes de la marche sur les sphères à l'intérieur des zones avec un coefficient de diffusion constant et des techniques de différences finies stochastiques pour traiter les conditions aux interfaces aussi bien que les conditions aux limites de différents types. En combinant ces deux techniques, on obtient des marches aléatoires dont le score calculé le long du chemin fourni un estimateur biaisé de la solution de l'équation aux dérivées partielles considérée. On montre que le biais global de notre algorithme est en général d'ordre deux par rapport au pas de différences finies. Ces méthodes sont ensuite appliquées au problème direct lié à la tomographie par impédance électrique pour la détection de tumeurs. Une technique de réduction de variance est également proposée dans ce cadre. On traite finalement du problème inverse de la détection de tumeurs à partir de mesures de surfaces à l'aide de deux algorithmes stochastiques basés sur une représentation paramétrique de la tumeur ou des tumeurs sous forme d'une ou plusieurs sphères. De nombreux essais numériques sont proposés et montrent des résultats probants dans la localisation des tumeurs. / This thesis deals with the development of Monte-Carlo methods to compute Feynman-Kac representations involving divergence form operators with a piecewise constant diffusion coefficient. The proposed methods are variations around the walk on spheres method inside the regions with a constant diffusion coefficient and stochastic finite differences techniques to treat the interface conditions as well as the different kinds of boundary conditions. By combining these two techniques, we build random walks which score computed along the walk gives us a biased estimator of the solution of the partial differential equation we consider. We prove that the global bias is in general of order two with respect to the finite difference step. These methods are then applied for tumour detection to the forward problem in electrical impedance tomography. A variance reduction technique is also proposed in this case. Finally, we treat the inverse problem of tumours detection from surface measurements using two stochastics algorithms based on a spherical parametric representation of the tumours. Many numerical tests are proposed and show convincing results in the localization of the tumours.
92

Modélisation hybride stochastique-déterministe des incendies de forêts

Billaud, Yann 06 May 2011 (has links)
Les grands incendies de forêts sont responsables de la quasi-totalité de la surface brulée et contribuent, par les émissions de particules et de gaz à effet de serre qu’ils génèrent, au réchauffement climatique. Des observations satellitaires ont mis en évidence un comportement fractal que l’on attribue aux hétérogénéités locales (topographie, végétation, conditions météorologiques) rencontrées par ces feux lors de leur propagation. Le présent travail a été consacré au développement et à la validation d’un modèle hybride de propagation d’incendie, capable de reproduire ce comportement. Ce modèle est une extension du modèle original de réseau de « petit monde » où les phénomènes qui se produisent à l’échelle macroscopique, comme le rayonnement du front de flammes et l’inflammation pilotée de la strate végétale sont traités de façon déterministe. Pour décrire le rayonnement, nous avons utilisé un modèle de flamme solide couplé à une méthode de Monte Carlo. La validation a porté sur des configurations simples, mais aussi plus complexes, comme le rayonnement d’un front hétérogène de flammes ou celui d’une flamme d’éthanol. Un modèle d’inflammation a ensuite été élaboré et appliqué à des litières d’aiguilles de pin. Les paramètres du modèle ont été optimisés par un algorithme génétique, conduisant au meilleur accord avec les résultats expérimentaux, en termes de temps d‘inflammation et de perte de masses. Il a été montré que l’oxydation du résidu charbonneux joue un rôle prépondérant sur l’inflammation à bas flux. Le modèle de propagation de petit monde a été validé sur un brûlage dirigé et sur un feu historique, montrant un bon accord en termes de surface brûlée, de vitesse de propagation, de contours de feu, et de propriétés fractales. On a montré qu’il pouvait être utilisé pour le dimensionnement d’ouvrages de défense, comme les coupures de combustible, ou pour expliquer le comportement atypique du feu dans certaines situations (talweg, ruptures de pente, etc.). Son application a également permis d’optimiser le nombre et l’emplacement d’un réseau de capteurs déployés dans la végétation dans le but de localiser précisément et détecter précocement le départ d’un feu. / Most of the area burned by forest fires is attributable to the few fires that escape initial attack to become large. As a consequence large-scale fires produce a large amount of green-house gases and particles which contribute to the global warming. Heterogeneous conditions of weather, fuel, and topography are generally encountered during the propagation of large fires. This shapes irregular contours and fractal post-fire patterns, as revealed by satellite maps. Among existing wildfire spread models, stochastic models seem to be good candidates for studying the erratic behavior of large fires, due to the above-mentioned heterogeneous conditions. The model we developed is a variant of the so-called small-world network model. Flame radiation and fuel piloted ignition are taken into account in a deterministic way at the macroscopic scale. The radiative interaction domain of a burning cell is determined from Monte Carlo simulation using the solid flame model. Some cases are studied, ranging from relatively simple to more complex geometries like an irregular flame fronts or an ethanol pool fire. Then, a numerical model is developed to investigate the piloted ignition of litters composed of maritime pine needles. A genetic algorithm is used to locate a set of model parameters that provide optimal agreement between the model predictions and the experimental data in terms of ignition time and mass loss. The model results had shown the importance of char surface oxidation for heat fluxes close to the critical flux for ignition. Finally, the small-world network model was used to simulate fire patterns in heterogeneous landscapes. Model validation was achieved to an acceptable degree in terms of contours, burned area and fractal properties, through comparison of results with data from a small controlled bushfire experiment and a historical Mediterranean fire. Therefore, it has been proven to be a powerful tool in the sizing of fortifications as fuel break areas at the wildland urban interface or in the understanding of atypical behavior in particular configurations (talweg, slope breaking, etc.). It has also been used for the optimization of an in-situ sensor network whose purpose is to detect precociously and to locate precisely small fires, preventing them from spreading and burning out of control. Our objective was to determine the minimum number and placement of sensors deployed in the forest.
93

Modélisations et inversions des diagrammes de diffusion particulaire enregistrés par un photodétecteur organique conformable / Size distribution of particle systems analyzed with organic photodetectors

Sentis, Matthias 12 December 2014 (has links)
Dans le cadre d'un consortium entre centres de recherche publics et industriels, ce travail de thèse de doctorat s'est attaché à démontrer l'intérêt des détecteurs photo-organiques (OPS) pour la caractérisation des suspensions et écoulements diphasiques. Les principes de plusieurs granulomètres permettant la caractérisation de ces milieux lorsqu'ils sont confinés dans une cuve cylindrique transparente (configuration standard du Process Analytical Technology) ont été proposés. Pour évaluer et optimiser les performances de ces systèmes, un code de simulation de type Monte-Carlo a été spécifiquement développé. Ce dernier permet de prendre en compte les nombreux paramètres du problème comme le profil du faisceau laser, les différentes surfaces spéculaires composant le montage, la composition du milieu particulaire (concentration, diamètre moyen, écart-type, matériau,...), la forme et la position des OPS. Les propriétés de diffusion des particules sont traitées à l'aide des théories de Lorenz-Mie et de Debye, de même qu'un modèle hydride prenant en compte les contributions géométriques et physiques. Pour les milieux dilués (diffusion simple), l'analyse repose sur l'inversion des diagrammes de diffusion obtenus sur une large plage angulaire ou au voisinage de singularités optiques remarquables (arc-en-ciel, diffusion critique, diffraction). Pour les milieux denses (diffusion multiple), les pistes étudiées reposent sur l'analyse des caractéristiques de la tache de rétrodiffusion. / As part of a consortium between academic and industry, this PhD work investigates the interest and capabilities of organic photo-sensors (OPS) for the optical characterization of suspensions and two-phase flows. The principle of new optical particle sizing instruments is proposed to characterize particle systems confined in a cylinder glass (standard configuration for Process Analytical Technologies). To evaluate and optimize the performance of these systems, a Monte-Carlo model has been specifically developed. This model accounts for the numerous parameters of the system: laser beam profile, mirrors, lenses, sample cell, particle medium properties (concentration, mean & standard deviation, refractive indices), OPS shape and positions, etc. Light scattering by particles is treated either by using Lorenz-Mie theory, Debye, or a hybrid model (that takes into account the geometrical and physical contributions). For diluted media (single scattering), particle size analysis is based on the inversion of scattering diagrams obtained over a wide angular range or near optical singularities (rainbow, critical scattering, diffraction). For dense media (multiple scattering), the solutions foreseen are based on the analysis of the backscattering spotlight characteristics.
94

Approche statistique du rayonnement dans les milieux gazeux hétérogènes : de l’échantillonnage des transitions moléculaires au calcul de grandeurs radiatives / A statistical approach of radiative transfer in heterogeneous and gaseous media : from molecular transitions sampling to the computation of radiative observables

Galtier, Mathieu 05 December 2014 (has links)
L’étude du transfert radiatif dans les gaz (atmosphères planétaires, chambres de combustion, etc.) se heurte à deux principales difficultés : les hétérogénéités et la dépendance spectrale des propriétés radiatives du milieu d’intérêt. Les travaux présentés dans ce manuscrit proposent, au travers d’une approche statistique du rayonnement, une solution à ces deux limites qui ne nécessite aucune approximation de modèle physique ou numérique. Cette approche conduira au développement d’algorithmes de Monte-Carlo considérés à l’heure actuelle comme méthodes de référence dans la communauté du transfert radiatif. La difficulté liée aux hétérogénéités du milieu participant sera traitée par une technique empruntée à d’autres disciplines de la physique du transport : les algorithmes à collisions nulles. Leur application au rayonnement consiste à ajouter arbitrairement aux évènements d’absorption et de diffusion, un troisième type de collision n’ayant aucun effet sur le transport de photons : les collisions nulles. Ainsi, le coefficient d’extinction résultant de ces trois types de collision pourra être assumé comme homogène. Ensuite, il sera montré comment cette même technique lève un second verrou permettant de repenser de façon statistique l’idée de coefficient d’absorption. Cela ouvrira la voie à des algorithmes de Monte-Carlo qui estiment directement une observable radiative à partir de paramètres de transitions répertoriés dans des bases de données spectroscopiques, sans avoir à précalculer rigoureusement le coefficient d’absorption. / Two major challenges are encountered when studying radiative transfer in gases (e.g. combustion chambers or planetary atmospheres): heterogeneity and spectral dependence of radiative properties. The work introduced in this manuscript, addresses this problem through a statistical approach of radiation that requires no model or numerical approximation. This approach leads to the development of Monte-Carlo methods, currently considered as reference solutions in the community of radiative transfer. The difficulty related to heterogeneity is handled by a technique borrowed from other fields of transport physics: null-collision algorithms. Their application to radiation consists in adding to the events of absorption and scattering a third arbitrary type of collision that has no effect on the photon transport. Thus, the extinction coefficient resulting from these three types of collisions can be assumed to be homogeneous. Then, it is shown how this very same technique opens the door to rethinking statistically the concept of absorption coefficient. This leads to Monte-Carlo algorithms that directly estimate radiative observables from transition parameters indexed in molecular spectroscopic databases, without the need of rigorously precomputing absorption coefficients.
95

Excited States in U(1)2+1 Lattice Gauge Theory and Level Spacing Statistics in Classical Chaos

Hosseinizadeh, Ahmad 17 April 2018 (has links)
Cette thèse est organisé en deux parties. Dans la première partie nous nous adressons à un problème vieux dans la théorie de jauge - le calcul du spectre et des fonctions d'onde. La stratégie que nous proposons est de construire une base d'états stochastiques de liens de Bargmann, construite à partir d'une distribution physique de densité de probabilité. Par la suite, nous calculons les amplitudes de transition entre ces états par une approche analytique, en utilisant des intégrales de chemin standards ainsi que la théorie des groupes. Également, nous calculons numériquement matrices symétrique et hermitienne des amplitudes de transition, via une méthode Monte Carlo avec échantillonnage pondéré. De chaque matrice, nous trouvons les valeurs propres et les vecteurs propres. En appliquant cette méthode â la théorie de jauge U(l) en deux dimensions spatiales, nous essayons d'extraire et de présenter le spectre et les fonctions d'onde de cette théorie pour des grilles de petite taille. En outre, nous essayons de faire quelques ajustement dynamique des fenêtres de spectres d'énergie et les fonctions d'onde. Ces fenêtres sont outiles de vérifier visuellement la validité de l'hamiltonien Monte Carlo, et de calculer observables physiques. Dans la deuxième partie nous étudions le comportement chaotique de deux systèmes de billard classiques, par la théorie des matrices aléatoires. Nous considérons un gaz périodique de Lorentz à deux dimensions dans des régimes de horizon fini et horizon infini. Nous construisons quelques matrices de longueurs de trajectoires de un particule mobile dans ce système, et réalisons des études des spectres de ces matrices par l'analyse numérique. Par le calcul numérique des distributions d'espacement de niveaux et rigidité spectral, nous constatons la statistique des espacements de niveaux suggère un comportement universel. Nous étudions également un tel comportement pour un système optique chaotique. En tant que quasi-système de potentiel, ses fluctuations dans l'espacement de ses niveaux suivent aussi un comportement GOE, ce qui est une signature d'universalité. Dans cette partie nous étudions également les propriétés de diffusion du gaz de Lorentz, par la longueur des trajectoires. En calculant la variance de ce quantité, nous montrons que dans le cas d'horizons finis, la variance de longueurs est linéaire par rapport au nombre de collisions de la particule dans le billard. Cette linéarité permet de définir un coefficient de diffusion pour le gaz de Lorentz, et dans un schéma général, elle est compatible avec les résultats obtenus par d'autres méthodes.
96

Advanced numerical techniques for design and optimization of optical links employing nonlinear semiconductor optical amplifiers

Ghazisaeidi, Amirhossein 17 April 2018 (has links)
Le traitement de signal optique est une pierre angulaire de la prochaine génération de systèmes de communications optiques avancées. En raison de son comportement non-linéaire, l'amplificateur optique à semi-conducteur (SOA) constitue un élément essentiel du traitement de signal optique. Afin de concevoir et d'optimiser de tels systèmes, des outils d'analyses ultra performants sont nécessaires. Dans la présente thèse, un simulateur basé sur l'algorithme de Monte Carlo Multi Canonique (MMC) a été développé et utilisé afin d'analyser une importante fonctionnalité du traitement de signaux optiques, à savoir la suppression du bruit d'intensité du SOA dans les spectrum-sliced wavelength division multiplexed passive optical networks (SS-WDM PON). L'algorithme de MMC a été introduit au début des années 90 en physique statistique. Depuis 2003, il est utilisé par les chercheurs dans la communauté des communications optiques. Dans le premier chapitre de cette thèse, une brève introduction de la suppression du bruit d'intensité du SOA dans les SS-WDM, ainsi que l'algorithme MMC et la modélisation du SOA seront présentés. Dans le second chapitre, l'algorithme MMC a été utilisé pour la première fois, afin d'estimer les fonctions de densités de probabilités conditionnelles (PDF) des "0" et des "1" logiques au niveau du récepteur d'un lien SS-WDM, avec un utilisateur, assisté par un SOA. En exploitant les PDF, le taux d'erreur binaire (BER) a été estimé à la fois pour les systèmes SS-WDM classiques, les systèmes SS-WDM avec suppression de bruit d'intensité d'un SOA, et finalement les systèmes SS-WDM assisté par SOA, et ce, en tenant compte de l'effet des filtres sélecteurs de canaux. Une nouvelle technique de pattern warping est aussi introduite, et ce, afin de traiter l'interférence inter-symboles (ISI) dû a la mémoire du canal de communication. Les estimations des PDF et des BER sont validées par des mesures expérimentales. Résumé v Le chapitre trois est entièrement consacré à la question de l'ISI, en particulier l'effet dû à la dynamique du SOA, qui est aussi appelé l'effet de patterning. Pour ce faire, un lien avec une source laser à 10 Gb/s est considéré. L'objectif principal est de montrer la fiabilité du simulateur pour l'estimation des PDF conditionnelles des "0" et des "1" logiques reçus en présence de l'effet de patterning. De plus, une nouvelle méthode pour mesurer directement les PDF est proposée. Les PDF conditionnelles et les BER simulées sont comparés avec les mesures expérimentales. Le chapitre 4 porte sur les systèmes SS-WDM, toujours avec des SOA, comprenant plusieurs canaux. L'objectif est d'étudier l'impact des filtres optiques sur la performance du système et de montrer comment choisir leurs caractéristiques (bande passante, forme et espacement inter-canal) afin de maximiser l'efficacité spectrale. Dans cette étude, la suppression du bruit d'intensité du SOA et les codes correcteur d'erreurs sont considérés. Ces deux problèmes sont abordés pour la première fois dans cette thèse. On montre aussi pour la première fois que la parallélisasion de l'algorithme MMC peut facilement être utilisé, et ce, contrairement aux affirmations précédentes dans la littérature. Le prix à payer est la perte d'une petite fraction d'échantillons par cycle MMC par noeud de calcul. Les résultats de simulation des BER sont validés à l'aide de résultats publié par d'autres groupes de recherche. Dans le dernier chapitre, les performances des spectral amplitude coded optical division multiple access (SAC-OCDMA), avec et sans la suppression de bruit d'intensité du SOA, sont analysées pour la première fois. Les résultats simulés pour le cas de 2 et 3 utilisateurs actifs sont validés par rapport aux mesures déjà réalisées et publiés par notre groupe de recherche.
97

Simulation et apprentissage Monte-Carlo de stratégies d'intervention en santé publique

Durand, Audrey 18 April 2018 (has links)
Les décideurs dans un système de santé publique comme celui du Québec ont un besoin grandissant d’outils d’évaluation pour soutenir la prise de décision quant aux interventions à mettre en place. Ce mémoire propose un simulateur générique, optimisé pour les problématiques de santé publique, mais également utilisable dans d’autres domaines. Son architecture logicielle est détaillée ainsi que toutes les caractéristiques qui en font un outil de choix pour les décideurs. On présente également l’optimisation des stratégies d’intervention existantes avec une méthode d’apprentissage par renforcement de type Monte-Carlo. Ceci comprend la proposition d’un nouvel algorithme de sélection d’actions dans un contexte d’apprentissage sur des populations d’individus évoluant en parallèle. On conclut le mémoire par l’application de cette infrastructure à deux problématiques de santé publique : la rétinopathie diabétique, ayant déjà fait l’objet de travaux par d’autres chercheurs, et l’ostéoporose, une application d’actualité dont la modélisation et les résultats ont été validés par des spécialistes en santé. / Decision makers in public health system, such as the one in the province of Quebec, have a growing need for assessment tools to support their decisions on the interventions to implement. This master’s thesis proposes a generic simulator optimized for public health issues, while being extensible to other areas. It details the software architecture and all the features that make it a tool of choice for decision makers. It also presents the optimization of existing intervention strategies using Monte Carlo reinforcement learning. This includes the proposal of a new algorithm for selecting actions when learning on populations of individuals evolving in parallel. We conclude with the application of this infrastructure to two public health issues : diabetic retinopathy, that has already been the subject of work by other researchers, and osteoporosis, a current application that has been validated by health care specialists.
98

Improving sampling, optimization and feature extraction in Boltzmann machines

Desjardins, Guillaume 12 1900 (has links)
L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires. / Despite the current widescale success of deep learning in training large scale hierarchical models through supervised learning, unsupervised learning promises to play a crucial role towards solving general Artificial Intelligence, where agents are expected to learn with little to no supervision. The work presented in this thesis tackles the problem of unsupervised feature learning and density estimation, using a model family at the heart of the deep learning phenomenon: the Boltzmann Machine (BM). We present contributions in the areas of sampling, partition function estimation, optimization and the more general topic of invariant feature learning. With regards to sampling, we present a novel adaptive parallel tempering method which dynamically adjusts the temperatures under simulation to maintain good mixing in the presence of complex multi-modal distributions. When used in the context of stochastic maximum likelihood (SML) training, the improved ergodicity of our sampler translates to increased robustness to learning rates and faster per epoch convergence. Though our application is limited to BM, our method is general and is applicable to sampling from arbitrary probabilistic models using Markov Chain Monte Carlo (MCMC) techniques. While SML gradients can be estimated via sampling, computing data likelihoods requires an estimate of the partition function. Contrary to previous approaches which consider the model as a black box, we provide an efficient algorithm which instead tracks the change in the log partition function incurred by successive parameter updates. Our algorithm frames this estimation problem as one of filtering performed over a 2D lattice, with one dimension representing time and the other temperature. On the topic of optimization, our thesis presents a novel algorithm for applying the natural gradient to large scale Boltzmann Machines. Up until now, its application had been constrained by the computational and memory requirements of computing the Fisher Information Matrix (FIM), which is square in the number of parameters. The Metric-Free Natural Gradient algorithm (MFNG) avoids computing the FIM altogether by combining a linear solver with an efficient matrix-vector operation. The method shows promise in that the resulting updates yield faster per-epoch convergence, despite being slower in terms of wall clock time. Finally, we explore how invariant features can be learnt through modifications to the BM energy function. We study the problem in the context of the spike & slab Restricted Boltzmann Machine (ssRBM), which we extend to handle both binary and sparse input distributions. By associating each spike with several slab variables, latent variables can be made invariant to a rich, high dimensional subspace resulting in increased invariance in the learnt representation. When using the expected model posterior as input to a classifier, increased invariance translates to improved classification accuracy in the low-label data regime. We conclude by showing a connection between invariance and the more powerful concept of disentangling factors of variation. While invariance can be achieved by pooling over subspaces, disentangling can be achieved by learning multiple complementary views of the same subspace. In particular, we show how this can be achieved using third-order BMs featuring multiplicative interactions between pairs of random variables.
99

Analyse numérique de méthodes performantes pour les EDP stochastiques modélisant l'écoulement et le transport en milieux poreux / Numerical analysis of performant methods for stochastic PDEs modeling flow and transport in porous media

Oumouni, Mestapha 06 June 2013 (has links)
Ce travail présente un développement et une analyse des approches numériques déterministes et probabilistes efficaces pour les équations aux dérivées partielles avec des coefficients et données aléatoires. On s'intéresse au problème d'écoulement stationnaire avec des données aléatoires. Une méthode de projection dans le cas unidimensionnel est présentée, permettant de calculer efficacement la moyenne de la solution. Nous utilisons la méthode de collocation anisotrope des grilles clairsemées. D'abord, un indicateur de l'erreur satisfaisant une borne supérieure de l'erreur est introduit, il permet de calculer les poids d'anisotropie de la méthode. Ensuite, nous démontrons une amélioration de l'erreur a priori de la méthode. Elle confirme l'efficacité de la méthode en comparaison avec Monte-Carlo et elle sera utilisée pour accélérer la méthode par l'extrapolation de Richardson. Nous présentons aussi une analyse numérique d'une méthode probabiliste pour quantifier la migration d'un contaminant dans un milieu aléatoire. Nous considérons le problème d'écoulement couplé avec l'équation d'advection-diffusion, où on s'intéresse à la moyenne de l'extension et de la dispersion du soluté. Le modèle d'écoulement est discrétisée par une méthode des éléments finis mixtes, la concentration du soluté est une densité d'une solution d'une équation différentielle stochastique, qui sera discrétisée par un schéma d'Euler. Enfin, on présente une formule explicite de la dispersion et des estimations de l'erreur a priori optimales. / This work presents a development and an analysis of an effective deterministic and probabilistic approaches for partial differential equation with random coefficients and data. We are interesting in the steady flow equation with stochastic input data. A projection method in the one-dimensional case is presented to compute efficiently the average of the solution. An anisotropic sparse grid collocation method is also used to solve the flow problem. First, we introduce an indicator of the error satisfying an upper bound of the error, it allows us to compute the anisotropy weights of the method. We demonstrate an improvement of the error estimation of the method which confirms the efficiency of the method compared with Monte Carlo and will be used to accelerate the method using the Richardson extrapolation technique. We also present a numerical analysis of one probabilistic method to quantify the migration of a contaminant in random media. We consider the previous flow problem coupled with the advection-diffusion equation, where we are interested in the computation of the mean extension and the mean dispersion of the solute. The flow model is discretized by a mixed finite elements method and the concentration of the solute is a density of a solution of the stochastic differential equation, this latter will be discretized by an Euler scheme. We also present an explicit formula of the dispersion and an optimal a priori error estimates.
100

Un modèle de propagation de feux de végétation à grande échelle. / Modeling the spreading of large-scale wildland fires

Drissi, Mohamed 08 February 2013 (has links)
Le présent travail est consacré au développement et à la validation d'un modèle hybride de propagation d'un incendie de végétation à grande échelle prenant en compte les hétérogénéités locales liées à la végétation, à la topographie du terrain et aux conditions météorologiques. Dans un premier temps, on présente différentes méthodes permettant de générer un réseau amorphe, représentatif d'une distribution réaliste de la végétation. Le modèle hybride est un modèle de réseau où les phénomènes qui se produisent à l'échelle macroscopique sont traités de façon déterministe, comme le préchauffage du site végétal provenant du rayonnement de la flamme et des braises et de la convection par les gaz chauds, mais aussi son refroidissement radiatif et son inflammation pilotée. Le rayonnement thermique provenant de la flamme est calculé en combinant le modèle de flamme solide à la méthode de Monte Carlo et en considérant son atténuation par la couche d'air atmosphérique entre la flamme et la végétation réceptive. Le modèle est ensuite appliqué à des configurations simples de propagation sur un terrain plat ou incliné, en présence ou non d'un vent constant. Les résultats obtenus sont en bon accord avec les données de la littérature. Une étude de sensibilité a été également menée permettant d'identifier les paramètres les plus influents du modèle, en termes de vitesse de propagation du feu, et de les hiérarchiser. La phase de validation a portée sur l'analyse comparative des contours de feux calculés par le modèle avec ceux mesurés lors d'un brûlage dirigé réalisé en Australie et d'un feu réel qui a lieu en Corse en 2009, montrant un très bon accord en termes de vitesse de propagation / The present work is devoted to the development of a hybrid model for predicting the rate of spread of wildland fires at a large scale, taking into account the local heterogeneities related to vegetation, topography, and meteorological conditions. Some methods for generating amorphous network, representative of real vegetation landscapes, are proposed. Mechanisms of heat transfer from the flame front to the virgin fuel are modeled: radiative preheating from the flame and embers, convective preheating from hot gases, radiative heat losses and piloted ignition of the receptive vegetation item. Flame radiation is calculated by combining the solid flame model with the Monte Carlo method and by taking into account its attenuation by the atmospheric layer between the flame and the receptive vegetation. The model is applied to simple configurations where the fire spreads on a flat or inclined terrain, with or without a constant wind. Model results are in good agreement with literature data. A sensitivity study is conducted to identify the most influential parameters of the model. Eventually, the model is validated by comparing predicted fire patterns with those obtained from a prescribed burning in Australia and from a historical fire that occurred in Corsica in 2009, showing a very good agreement in terms of fire patterns, rate of spread, and burned area.

Page generated in 0.0487 seconds