Spelling suggestions: "subject:"laméthode dde montecarlo"" "subject:"laméthode dde contestarlo""
101 |
Improving sampling, optimization and feature extraction in Boltzmann machinesDesjardins, Guillaume 12 1900 (has links)
L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes.
Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov.
Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température.
Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul.
Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées
“slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires. / Despite the current widescale success of deep learning in training large scale hierarchical models through supervised learning, unsupervised learning promises to play a crucial role towards solving general Artificial Intelligence, where agents are expected to learn with little to no supervision. The work presented in this thesis tackles the problem of unsupervised feature learning and density estimation, using a model family at the heart of the deep learning phenomenon: the Boltzmann Machine (BM). We present contributions in the areas of sampling, partition function estimation, optimization and the more general topic of invariant feature learning.
With regards to sampling, we present a novel adaptive parallel tempering method which dynamically adjusts the temperatures under simulation to maintain good mixing in the presence of complex multi-modal distributions. When used in the context of stochastic maximum likelihood (SML) training, the improved ergodicity of our sampler translates to increased robustness to learning rates and faster per epoch convergence. Though our application is limited to BM, our method is general and is applicable to sampling from arbitrary probabilistic models using Markov Chain Monte Carlo (MCMC) techniques. While SML gradients can be estimated via sampling, computing data likelihoods requires an estimate of the partition function. Contrary to previous approaches which consider the model as a black box, we provide an efficient algorithm which instead tracks the change in the log partition function incurred by successive parameter updates. Our algorithm frames this estimation problem as one of filtering performed over a 2D lattice, with one dimension representing time and the other temperature.
On the topic of optimization, our thesis presents a novel algorithm for applying the natural gradient to large scale Boltzmann Machines. Up until now, its application had been constrained by the computational and memory requirements of computing the Fisher Information Matrix (FIM), which is square in the number of parameters. The Metric-Free Natural Gradient algorithm (MFNG) avoids computing the FIM altogether by combining a linear solver with an efficient matrix-vector operation. The method shows promise in that the resulting updates yield faster per-epoch convergence, despite being slower in terms of wall clock time.
Finally, we explore how invariant features can be learnt through modifications to the BM energy function. We study the problem in the context of the spike & slab Restricted Boltzmann Machine (ssRBM), which we extend to handle both binary and sparse input distributions. By associating each spike with several slab variables, latent variables can be made invariant to a rich, high dimensional subspace resulting in increased invariance in the learnt representation. When using
the expected model posterior as input to a classifier, increased invariance translates to improved classification accuracy in the low-label data regime. We conclude by showing a connection between invariance and the more powerful concept of disentangling factors of variation. While invariance can be achieved by pooling over subspaces, disentangling can be achieved by learning multiple complementary views of the same subspace. In particular, we show how this can be achieved using third-order BMs featuring multiplicative interactions between pairs of random variables.
|
102 |
Analyse numérique de méthodes performantes pour les EDP stochastiques modélisant l'écoulement et le transport en milieux poreux / Numerical analysis of performant methods for stochastic PDEs modeling flow and transport in porous mediaOumouni, Mestapha 06 June 2013 (has links)
Ce travail présente un développement et une analyse des approches numériques déterministes et probabilistes efficaces pour les équations aux dérivées partielles avec des coefficients et données aléatoires. On s'intéresse au problème d'écoulement stationnaire avec des données aléatoires. Une méthode de projection dans le cas unidimensionnel est présentée, permettant de calculer efficacement la moyenne de la solution. Nous utilisons la méthode de collocation anisotrope des grilles clairsemées. D'abord, un indicateur de l'erreur satisfaisant une borne supérieure de l'erreur est introduit, il permet de calculer les poids d'anisotropie de la méthode. Ensuite, nous démontrons une amélioration de l'erreur a priori de la méthode. Elle confirme l'efficacité de la méthode en comparaison avec Monte-Carlo et elle sera utilisée pour accélérer la méthode par l'extrapolation de Richardson. Nous présentons aussi une analyse numérique d'une méthode probabiliste pour quantifier la migration d'un contaminant dans un milieu aléatoire. Nous considérons le problème d'écoulement couplé avec l'équation d'advection-diffusion, où on s'intéresse à la moyenne de l'extension et de la dispersion du soluté. Le modèle d'écoulement est discrétisée par une méthode des éléments finis mixtes, la concentration du soluté est une densité d'une solution d'une équation différentielle stochastique, qui sera discrétisée par un schéma d'Euler. Enfin, on présente une formule explicite de la dispersion et des estimations de l'erreur a priori optimales. / This work presents a development and an analysis of an effective deterministic and probabilistic approaches for partial differential equation with random coefficients and data. We are interesting in the steady flow equation with stochastic input data. A projection method in the one-dimensional case is presented to compute efficiently the average of the solution. An anisotropic sparse grid collocation method is also used to solve the flow problem. First, we introduce an indicator of the error satisfying an upper bound of the error, it allows us to compute the anisotropy weights of the method. We demonstrate an improvement of the error estimation of the method which confirms the efficiency of the method compared with Monte Carlo and will be used to accelerate the method using the Richardson extrapolation technique. We also present a numerical analysis of one probabilistic method to quantify the migration of a contaminant in random media. We consider the previous flow problem coupled with the advection-diffusion equation, where we are interested in the computation of the mean extension and the mean dispersion of the solute. The flow model is discretized by a mixed finite elements method and the concentration of the solute is a density of a solution of the stochastic differential equation, this latter will be discretized by an Euler scheme. We also present an explicit formula of the dispersion and an optimal a priori error estimates.
|
103 |
Un modèle de propagation de feux de végétation à grande échelle. / Modeling the spreading of large-scale wildland firesDrissi, Mohamed 08 February 2013 (has links)
Le présent travail est consacré au développement et à la validation d'un modèle hybride de propagation d'un incendie de végétation à grande échelle prenant en compte les hétérogénéités locales liées à la végétation, à la topographie du terrain et aux conditions météorologiques. Dans un premier temps, on présente différentes méthodes permettant de générer un réseau amorphe, représentatif d'une distribution réaliste de la végétation. Le modèle hybride est un modèle de réseau où les phénomènes qui se produisent à l'échelle macroscopique sont traités de façon déterministe, comme le préchauffage du site végétal provenant du rayonnement de la flamme et des braises et de la convection par les gaz chauds, mais aussi son refroidissement radiatif et son inflammation pilotée. Le rayonnement thermique provenant de la flamme est calculé en combinant le modèle de flamme solide à la méthode de Monte Carlo et en considérant son atténuation par la couche d'air atmosphérique entre la flamme et la végétation réceptive. Le modèle est ensuite appliqué à des configurations simples de propagation sur un terrain plat ou incliné, en présence ou non d'un vent constant. Les résultats obtenus sont en bon accord avec les données de la littérature. Une étude de sensibilité a été également menée permettant d'identifier les paramètres les plus influents du modèle, en termes de vitesse de propagation du feu, et de les hiérarchiser. La phase de validation a portée sur l'analyse comparative des contours de feux calculés par le modèle avec ceux mesurés lors d'un brûlage dirigé réalisé en Australie et d'un feu réel qui a lieu en Corse en 2009, montrant un très bon accord en termes de vitesse de propagation / The present work is devoted to the development of a hybrid model for predicting the rate of spread of wildland fires at a large scale, taking into account the local heterogeneities related to vegetation, topography, and meteorological conditions. Some methods for generating amorphous network, representative of real vegetation landscapes, are proposed. Mechanisms of heat transfer from the flame front to the virgin fuel are modeled: radiative preheating from the flame and embers, convective preheating from hot gases, radiative heat losses and piloted ignition of the receptive vegetation item. Flame radiation is calculated by combining the solid flame model with the Monte Carlo method and by taking into account its attenuation by the atmospheric layer between the flame and the receptive vegetation. The model is applied to simple configurations where the fire spreads on a flat or inclined terrain, with or without a constant wind. Model results are in good agreement with literature data. A sensitivity study is conducted to identify the most influential parameters of the model. Eventually, the model is validated by comparing predicted fire patterns with those obtained from a prescribed burning in Australia and from a historical fire that occurred in Corsica in 2009, showing a very good agreement in terms of fire patterns, rate of spread, and burned area.
|
104 |
Simulation du canal optique sans fil. Application aux télécommunications optique sans fil / Optical wireless channel simulation. Applications to optical wireless communicationsBehlouli, Abdeslam 07 December 2016 (has links)
Le contexte de cette thèse est celui des communications optiques sans fil pour des applications en environnements indoor. Pour discuter des performances d'une liaison optique sans fil, il est nécessaire d'établir une étude caractéristique du comportement du canal de propagation. Cette étude passe par l'étape de la mesure ou de l'estimation par la simulation de la réponse impulsionnelle. Après avoir décrit la composition d'une liaison et passé en revue les méthodes de simulation existantes, nous présentons nos algorithmes de simulation dans des environnements réalistes, en nous intéressant à leurs performances en termes de précision et de temps de calcul. Ces méthodes sont basées sur la résolution des équations de transport de la lumière par du lancer de rayons associées aux méthodes d'intégration stochastique de Monte Carlo. La version classique de ces méthodes est à la base de trois algorithmes de simulations proposés. En utilisant une optimisation par des chaînes de Markov, nous présentons ensuite deux autres algorithmes. Un bilan des performances de ces algorithmes est établi dans des scénarios mono et multi-antennes. Finalement, nous appliquons nos algorithmes pour caractériser l'impact de l'environnement de simulation sur les performances d'une liaison de communication par lumière visible, à savoir les modèles d'émetteurs, les matériaux des surfaces, l'obstruction du corps de l'utilisateur et sa mobilité, et la géométrie de la scène de simulation. / The context of this PhD thesis falls within the scope of optical wireless communications for applications in indoor environments. To discuss the performance of an optical wireless link, it is necessary to establish a characteristic study of the behavior of the optical wave propagation channel. This study can be realized by measurement or by the simulation of the channel impulse response. After describing the composition of an optical wireless link and reviewing existing simulation methods, we present our new simulation algorithms channel in realistic environments by focusing on their performances in terms of accuracy and their complexity in terms of computation time. These methods are based on solving the light transport equations by ray-tracing techniques associated with stochastic Monte Carlo integration methods. The classical version of these methods is the basis of three proposed simulation algorithms. By applying an optimization using Markov Chain, we present two new algorithms. A performance assessment of our simulation algorithms is established in mono and multi-antenna scenarios of our simulation algorithms. Finally, we present the application of these algorithms for characterizing the impact of the simulation environment on the performances of a visible light communication link. We particularly focus on the transmitter models, surface coating materials, obstruction of the user's body and its mobility, and the geometry of the simulation scene.
|
105 |
Analyse numérique de modèles de diffusion-sauts à volatilité stochastique : cas de l'évaluation des options / Numerical analysis of the stochastic volatility jump diffusion models : case of options pricingJraifi, Abdelilah 03 February 2014 (has links)
Dans le monde économique, les contrats d'options sont très utilisés car ils permettent de se couvrir contre les aléas et les risques dus aux fluctuations des prix des actifs sous-jacents. La détermination du prix de ces contrats est d'une grande importance pour les investisseurs.Dans cette thèse, on s'intéresse aux problèmes d'évaluation des options, en particulier les options Européennes et Quanto sur un actif financier dont le prix est modélisé en multi dimensions par un modèle de diffusion-saut à volatilité stochastique avec sauts (1er cas considère la volatilité sans sauts, dans le 2ème cas les sauts sont pris en compte, finalement dans le 3ème cas, l'actif sous-jacent est sans saut et la volatilité suit un CEV modèle sans saut). Ce modèle permet de mieux prendre en compte certains phénomènes observés dans les marchés. Nous développons des méthodes numériques qui déterminent les valeurs des prix de ces options. On présentera d'abord le modèle qui s'écrit sous la forme d'un système d'équations intégro-différentielles stochastiques "EIDS", et on étudiera l'existence et l'unicité de la solution de ce modèle en fonction de ses coefficients, puis on établira le lien entre le calcul du prix de l'option et la résolution de l'équation Intégro-différentielle partielle (EIDP). Ce lien, qui est basé sur la notion des générateurs infinitésimaux, nous permet d'utiliser différentes méthodes numériques pour l'évaluation des options considérées. Nous introduisons alors l'équation variationnelle associée aux EIDP et démontrons qu'elle admet une unique solution dans un espace de Sobolev avec poids en s'inspirant des travaux de Zhang [106].Nous nous concentrons ensuite sur l'approximation numérique du prix de l'option en considérant le problème dans un domaine borné, et nous utilisons pour la résolution numérique la méthode des éléments finis de type (P1), et un schéma d'Euler-Maruyama, pour se servir, d'une part de la méthode de différences finies en temps, et d'autre part de la méthode de Monté Carlo et la méthode Quasi Monte Carlo. Pour cette dernière méthode nous avons utilisé les suites de Halton afin d'améliorer la vitesse de convergence.Nous présenterons une étude comparative des différents résultats numériques obtenus dans plusieurs cas différents afin d'étudier la performance et l'efficacité des méthodes utilisées. / In the modern economic world, the options contracts are used because they allow to hedge against the vagaries and risks refers to fluctuations in the prices of the underlying assets. The determination of the price of these contracts is of great importance for investors.We are interested in problems of options pricing, actually the European and Quanto options on a financial asset. The price of that asset is modeled by a multi-dimentional jump diffusion with stochastic volatility. Otherwise, the first model considers the volatility as a continuous process and the second model considers it as a jump process. Finally in the 3rd model, the underlying asset is without jump and volatility follows a model CEV without jump. This model allow better to take into account some phenomena observed in the markets. We develop numerical methods that determine the values of prices for these options. We first write the model as an integro-differential stochastic equations system "EIDS", of which we study existence and unicity of solutions. Then we relate the resolution of PIDE to the computation of the option value. This link, which is based on the notion of infinitesimal generators, allows us to use different numerical methods. We therefore introduce the variational equation associated with the PIDE, and drawing on the work of Zhang [106], we show that it admits a unique solution in a weights Sobolev space We focus on the numerical approximation of the price of the option, by treating the problem in a bounded domain. We use the finite elements method of type (P1), and the scheme of Euler-Maruyama, for this serve, on the one hand the finite differences method in time, and on the other hand the method of Monte Carlo and the Quasi Monte Carlo method. For this last method we use of Halton sequences to improve the speed of convergence.We present a comparative study of the different numerical results in many different cases in order to investigate the performance and effectiveness of the used methods.
|
106 |
Modèles bayésiens pour l’identification de représentations antiparcimonieuses et l’analyse en composantes principales bayésienne non paramétrique / Bayesian methods for anti-sparse coding and non parametric principal component analysisElvira, Clément 10 November 2017 (has links)
Cette thèse étudie deux modèles paramétriques et non paramétriques pour le changement de représentation. L'objectif des deux modèles diffère. Le premier cherche une représentation en plus grande dimension pour gagner en robustesse. L'objectif est de répartir uniformément l’information d’un signal sur toutes les composantes de sa représentation en plus grande dimension. La recherche d'un tel code s'exprime comme un problème inverse impliquant une régularisation de type norme infinie. Nous proposons une formulation bayésienne du problème impliquant une nouvelle loi de probabilité baptisée démocratique, qui pénalise les fortes amplitudes. Deux algorithmes MCMC proximaux sont présentés pour approcher des estimateurs bayésiens. La méthode non supervisée présentée est appelée BAC-1. Des expériences numériques illustrent les performances de l’approche pour la réduction de facteur de crête. Le second modèle identifie un sous-espace pertinent de dimension réduite à des fins de modélisation. Mais les méthodes probabilistes proposées nécessitent généralement de fixer à l'avance la dimension du sous-espace. Ce travail introduit BNP-PCA, une version bayésienne non paramétrique de l'analyse en composantes principales. La méthode couple une loi uniforme sur les bases orthonormales à un a priori non paramétrique de type buffet indien pour favoriser une utilisation parcimonieuse des composantes principales et aucun réglage n'est nécessaire. L'inférence est réalisée à l'aide des méthodes MCMC. L'estimation de la dimension du sous-espace et le comportement numérique de BNP-PCA sont étudiés. Nous montrons la flexibilité de BNP-PCA sur deux applications / This thesis proposes Bayesian parametric and nonparametric models for signal representation. The first model infers a higher dimensional representation of a signal for sake of robustness by enforcing the information to be spread uniformly. These so called anti-sparse representations are obtained by solving a linear inverse problem with an infinite-norm penalty. We propose in this thesis a Bayesian formulation of anti-sparse coding involving a new probability distribution, referred to as the democratic prior. A Gibbs and two proximal samplers are proposed to approximate Bayesian estimators. The algorithm is called BAC-1. Simulations on synthetic data illustrate the performances of the two proposed samplers and the results are compared with state-of-the art methods. The second model identifies a lower dimensional representation of a signal for modelisation and model selection. Principal component analysis is very popular to perform dimension reduction. The selection of the number of significant components is essential but often based on some practical heuristics depending on the application. Few works have proposed a probabilistic approach to infer the number of significant components. We propose a Bayesian nonparametric principal component analysis called BNP-PCA. The proposed model involves an Indian buffet process to promote a parsimonious use of principal components, which is assigned a prior distribution defined on the manifold of orthonormal basis. Inference is done using MCMC methods. The estimators of the latent dimension are theoretically and empirically studied. The relevance of the approach is assessed on two applications
|
107 |
Contribution à la l'analyse et à la simulation numériques des équations cinétiques décrivant un plasma chaudDellacherie, Stéphane 03 November 1998 (has links) (PDF)
Lors de la formation du point chaud dans une expérience de Fusion par Confinement Inertiel, le plasma au centre de la sphère de deutérium-tritium peut être loin de l'équilibre thermodynamique local. Dans la première partie, on décrit donc un modèle cinétique ionique de type Vlasov-Fokker-Planck susceptible de prendre en compte ces déséquilibres. Après avoir rappelé les grandes étapes pour résoudre numériquement le système obtenu, on introduit la notion de moyenne entropique pour définir un nouveau schéma numérique traitant les collisions ion-électron homogènes en espace. Ce schéma est conservatif, stable et entropique sous un critère de type CFL dans sa version explicite. Dans sa version semi-implicite, on établit que ce schéma conserve l'équilibre thermodynamique. Le temps de calcul pour résoudre les équations cinétiques étant très important, il est nécessaire d'étudier la possibilité de ne résoudre ces équations que là où c'est nécessaire c'est à dire principalement au centre de la sphère de deutérium-tritium. Dans la seconde partie, on propose donc une technique de couplage cinétique-fluide, la formation du point chaud étant traitée avec le modèle cinétique, le reste avec les équations d'Euler à deux températures (températures ionique et électronique). Les ions deutérium et tritium pouvant ne pas être à l'équilibre thermodynamique, on s'est ensuite posé la question de la validité des formules analytiques donnant le taux de réaction nucléaire, formules établies en supposant que le plasma est à l'équilibre thermodynamique. Dans la troisième partie, on propose donc une méthode de type Monte-Carlo pour résoudre numériquement les équations cinétiques de type Boltzmann qui décrivent les réactions de fusion thermonucléaire et on montre qu'effectivement, les déséquilibres thermodynamiques rencontrés lors de la formation du point chaud peuvent invalider les formules usuelles.
|
108 |
Thermoformage du verre - Développement numérique d'un modèle thermomécaniqueLe Corre, Benjamin 16 January 2014 (has links) (PDF)
Ce travail de thèse est dédié à la modélisation du thermoformage du verre. Le procédé consiste à déformer une plaque de verre sous l'effet de son propre poids. Posée sur un support et placée dans un four, la température de la pièce augmente et sa viscosité diminue, ce qui permet d'obtenir la forme désirée. Les simulations numériques, qui se basent sur un modèle thermomécanique, doivent permettre de mieux comprendre l'influence, sur le produit final, des différents paramètres d'essai, comme le chargement thermique, la géométrie et le matériau du moule ou encore la forme initiale de la pièce. Pour ce faire, le logiciel commercial Abaqus®, qui utilise une méthode de résolution des calculs par éléments finis, prend en charge les aspects mécaniques et conductifs. En revanche, comme le verre est un milieu semi-transparent, la modélisation du transfert radiatif est complexe et nécessite le développement d'un code se basant sur une méthode de Monte Carlo dite réciproque. La méthode a été validée en deux dimensions sur des cas-tests de la littérature scientifique. Le code a ensuite été implémenté dans le logiciel Abaqus® afin de réaliser des simulations de thermoformage sur moule et en suspension. Le verre est considéré comme un matériau élasto-visco-plastique obéissant à un modèle de Maxwell simple et la thermodépendance de la viscosité est prise en compte par une loi WLF. Une attention particulière a été accordée au modèle radiatif. Différentes hypothèses, issues de la littérature scientifique, sont testées afin de vérifier leur validité dans notre cas d'étude.
|
109 |
Estimation de la vitesse des courants marins à partir de séquences d'images satellitairesBeyou, Sébastien 12 July 2013 (has links) (PDF)
Cette thèse étudie des méthodes d'assimilation de données par filtrage particulaire à l'estimation d'écoulements fluides observés au travers de séquences d'images. Nous nous appuyons sur un filtre particulaire spécifique dont la distribution de proposition est donnée par un filtre de Kalman d'ensemble, nommé filtre de Kalman d'ensemble pondéré. Deux variations à celui-ci sont introduites et étudiées. La première consiste à utiliser un bruit dynamique (permettant de modéliser l'incertitude du modèle et de séparer les particules entre elles) dont la forme spatiale suit une loi de puissance, cohérente avec la théorie phénoménologique de la turbulence. La deuxième variation repose sur un schéma d'assimilation multi-échelles introduisant un mécanisme de raffinements successifs à partir d'observations à des échelles de plus en plus petites. Ces deux méthodes ont été testées sur des séquences synthétiques et expérimentales d'écoulements 2D incompressibles. Ces résultats montrent un gain important sur l'erreur quadratique moyenne. Elles ont ensuite été testées sur des séquences d'images satellite réelles. Sur les images réelles, une bonne cohérence temporelle est observée, ainsi qu'un bon suivi des structures de vortex. L'assimilation multi-échelles montre un gain visible sur le nombre d'échelles reconstruites. Quelques variations additionnelles sont aussi présentées et testées afin de s'affranchir de problèmes importants rencontrés dans un contexte satellitaire réel. Il s'agit notamment de la prise en compte de données manquantes sur les images de température de surface de l'océan. En dernier lieu, une expérience d'un filtre de Kalman d'ensemble pondéré avec un modèle océanique complet est présentée pour une assimilation de champs de courants de surface en mer d'Iroise, à l'embouchure de la Manche. Quelques autres pistes d'amélioration sont également esquissées et testées.
|
110 |
Un modèle de propagation de feux de végétation à grande échelleMohamed, Drissi 08 February 2013 (has links) (PDF)
Le présent travail est consacré au développement et à la validation d'un modèle hybride de propagation d'un incendie de végétation à grande échelle prenant en compte les hétérogénéités locales liées à la végétation, à la topographie du terrain et aux conditions météorologiques. Dans un premier temps, on présente différentes méthodes permettant de générer un réseau amorphe, représentatif d'une distribution réaliste de la végétation. Le modèle hybride est un modèle de réseau où les phénomènes qui se produisent à l'échelle macroscopique sont traités de façon déterministe, comme le préchauffage du site végétal provenant du rayonnement de la flamme et des braises et de la convection par les gaz chauds, mais aussi son refroidissement radiatif et son inflammation pilotée. Le rayonnement thermique provenant de la flamme est calculé en combinant le modèle de flamme solide à la méthode de Monte Carlo et en considérant son atténuation par la couche d'air atmosphérique entre la flamme et la végétation réceptive. Le modèle est ensuite appliqué à des configurations simples de propagation sur un terrain plat ou incliné, en présence ou non d'un vent constant. Les résultats obtenus sont en bon accord avec les données de la littérature. Une étude de sensibilité a été également menée permettant d'identifier les paramètres les plus influents du modèle, en termes de vitesse de propagation du feu, et de les hiérarchiser. La phase de validation a portée sur l'analyse comparative des contours de feux calculés par le modèle avec ceux mesurés lors d'un brûlage dirigé réalisé en Australie et d'un feu réel qui a lieu en Corse en 2009, montrant un très bon accord en termes de vitesse de propagation, de contours de feu et de surface brûlée.
|
Page generated in 0.0614 seconds