• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 109
  • 33
  • 16
  • 3
  • Tagged with
  • 161
  • 161
  • 71
  • 47
  • 39
  • 39
  • 29
  • 27
  • 26
  • 24
  • 23
  • 23
  • 22
  • 21
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Une nouvelle approche de modélisation de la qualité de l'air à l'échelle régionale par assimilation de mesures lidar

Wang, Yiguo 20 December 2013 (has links) (PDF)
L'assimilation de données lidar pour la modélisation de la qualité de l'air est étudiée via le développement d'un modèle d'assimilation des observations d'un réseau lidar au sol par la méthode d'interpolation optimale (IO) dans un modèle de chimie-transport. Dans un premier temps, un outil d'assimilation des concentrations de PM10 (particules en suspension dans l'air dont le diamètre est inférieur à 10 um) sur la verticale est développé dans la plateforme de modélisation de la qualité de l'air POLYPHEMUS. Cet outil est appliqué sur l'Europe de l'Ouest, du 15 juillet au 15 août 2001, afin d'étudier l'impact potentiel d'un futur réseau lidar au sol sur la modélisation et les prévisions (la description de l'avenir) des PM10. En utilisant un réseau lidar fictif, l'efficacité de l'assimilation des mesures d'un réseau lidar est comparée à celle d'assimiler des mesures de concentrations du réseau au sol AirBase, qui comprend environ 500 stations sol en Europe de l'Ouest. Des études de sensibilité sur le nombre et la position géographique des lidars sont également menées afin d'aider à définir un réseau lidar optimal pour les prévisions des PM10. Ensuite, un modèle de simulation de signal lidar normalisé (PR2) est construit et intégré dans POLYPHEMUS. Il est évalué par comparaison aux mesures d'un lidar mobile et d'un lidar fixe en Île-de-France durant la campagne d'été du programme de recherche européen MEGAPOLI (Megacities : Emissions, urban, regional and Global Atmospheric POLlution and climate effects, and Integrated tools for assessment and mitigation, juillet 2009). Les résultats montrent que ce modèle reproduit correctement la distribution verticale des propriétés optiques des aérosols et leur variabilité temporelle. Deux nouveaux algorithmes d'assimilation de signaux lidar sont également introduits et évalués durant la campagne MEGAPOLI. Les simulations des concentrations en masse d'aérosol avec et sans assimilation de données lidar sont évaluées en utilisant les données d'AIRPARIF (un réseau opérationnel régional pour la qualité de l'air en Île-de-France) pour démontrer la faisabilité et l'utilité de l'assimilation des signaux lidar pour les prévisions d'aérosols. Enfin, POLYPHEMUS, avec le modèle d'assimilation des signaux lidar, est appliqué dans le bassin Méditerranéen, où 9 lidar du réseau ACTRIS/EARLINET et 1 lidar à Corse ont effectué une période de 72 heures de mesures intensives et continues en juillet 2012 (Pre-CHArMEx). Les paramètres dans le modèle d'assimilation des signaux lidar sont aussi étudiés pour mieux caractériser son impact spatial et temporel sur les prévisions d'aérosols.
142

Reconstruction des structures magnéto-convectives solaires sous une région active, par l’utilisation conjointe d’un modèle de convection anélastique et d’une méthode d’assimilation de données.

Pirot, Dorian 06 1900 (has links)
L’utilisation d’une méthode d’assimilation de données, associée à un modèle de convection anélastique, nous permet la reconstruction des structures physiques d’une partie de la zone convective située en dessous d’une région solaire active. Les résultats obtenus nous informent sur les processus d’émergence des tubes de champ magnétique au travers de la zone convective ainsi que sur les mécanismes de formation des régions actives. Les données solaires utilisées proviennent de l’instrument MDI à bord de l’observatoire spatial SOHO et concernent principalement la région active AR9077 lors de l’ ́évènement du “jour de la Bastille”, le 14 juillet 2000. Cet évènement a conduit à l’avènement d’une éruption solaire, suivie par une importante éjection de masse coronale. Les données assimilées (magnétogrammes, cartes de températures et de vitesses verticales) couvrent une surface de 175 méga-mètres de coté acquises au niveau photosphérique. La méthode d’assimilation de données employée est le “coup de coude direct et rétrograde”, une méthode de relaxation Newtonienne similaire à la méthode “quasi-linéaire inverse 3D”. Elle présente l’originalité de ne pas nécessiter le calcul des équations adjointes au modèle physique. Aussi, la simplicité de la méthode est un avantage numérique conséquent. Notre étude montre au travers d’un test simple l’applicabilité de cette méthode à un modèle de convection utilisé dans le cadre de l’approximation anélastique. Nous montrons ainsi l’efficacité de cette méthode et révélons son potentiel pour l’assimilation de données solaires. Afin d’assurer l’unicité mathématique de la solution obtenue nous imposons une régularisation dans tout le domaine simulé. Nous montrons enfin que l’intérêt de la méthode employée ne se limite pas à la reconstruction des structures convectives, mais qu’elle permet également l’interpolation optimale des magnétogrammes photosphériques, voir même la prédiction de leur évolution temporelle. / We use a data assimilation technique, together with an anelastic convection model, in order to reconstruct the convective patterns below a solar active region. Our results yield information about the magnetic field emergence through the convective zone and the mechanisms of active region formation. The solar data we used are taken from the instrument MDI on board the spatial observatory SOHO on July 2000 the 14th for the event called ”bastille day event”. This specific event leads to a solar flare followed by a coronal mass ejection. Assimilated data (magnetograms, temperature maps and vertical velocity maps) cover an area of 175 Mm × 175 Mm at photospheric level. The data assimilation technique we used, the ”Nudging Back and Forth”, is a Newtonian re- laxation technique similar to the ”quasi linear inverse 3D”. Such a technique does not require computation of the adjoint equations. Thus, simplicity of this method is a numerical advantage. Our study shows with a simple test case the applicability of this method to a convection model treated with the anelastic approximation. We show the efficiency of the NBF technique and we detail its potential for solar data assimi- lation. In addition, to ensure mathematical unicity of the obtained solution, a regularization has been imposed in the whole simulation domain. This is a new approach. Finally, we show that the interest of such a technique is not limited to the reconstruction of convective patterns but that it also allows optimal interpolation of photospheric magnetograms and predictions.
143

Modélisation, simulation et assimilation de données autour d'un problème de couplage hydrodynamique-biologie

Boulanger, Anne-Céline 13 September 2013 (has links) (PDF)
Les sujets abordés dans cette thèse s'articulent autour de la modélisation numérique du couplage entre l'hydrodynamique et la biologie pour la culture industrielle de microalgues dans des raceways. Ceci est fait au moyen d'un modèle multicouches qui disrétise verticalement les équations de Navier-Stokes hydrostatiques couplé avec un modèle de Droop photosensible pour représenter la croissance des algues, notamment la production de carbone. D'un point de vue numérique, une méthode volumes finis avec schémas cinétiques est appliquée. Elle permet d'obtenir un schéma équilibre qui préserve la positivité de la hauteur d'eau et des quantités biologiques et qui satisfait une inégalité d'énergie. Des simulations sont effectuées en 2D et en 3D, au moyen d'un code C++ développé à cet effet. Du point de vue de l'intérêt pratique de ce travail, ces simulations ont permis de mettre en évidence l'utilité de la roue à aube présente dans les raceways, mais aussi d'exhiber les trajectoires lagrangiennes réalisées par les microalgues, qui permettent de connaitre l'historique lumineux des algues, information d'une grande importance pour les biologistes car elle leur permet d'adapter leurs modèles de croissance phytoplanctoniques à ce contexte très particulier et non naturel. Afin de valider les modèles et les stratégies numériques employées, deux pistes on été explorées. La première consiste à proposer des solutions analytiques pour les équations d'Euler à surface libre, ainsi qu'un modèle biologique spécifique permettant un couplage analytique. La deuxième consiste à faire de l'assimilation de données. Afin de tirer partie de la description cinétique des lois de conservation hyperboliques, une méthode innovante basée sur la construction d'un observateur de Luenberger au niveau cinétique est développée. Elle permet d'obtenir un cadre théorique intéressant pour les lois de conservation scalaires, pour lesquelles on étudie les cas d'observations complètes, partielles en temps, en espace, et bruitées. Pour les systèmes, on se concentre particulièrement sur le système de Saint-Venant, système hyperbolique non linéaire et un observateur basé sur l'observation des hauteurs d'eau uniquement est construit. Des simulations numériques dans les cas scalaires et systèmes, en 1D et 2D sont effectuées et valident l'efficacité de la méthode.
144

Couplage des observations spatiales dynamiques et biologiques pour la restitution des circulations océaniques : une approche conjointe par assimilation de données altimétriques et de traceurs

Gaultier, Lucile 16 October 2013 (has links) (PDF)
Depuis quelques années, les observations spatiales des traceurs, comme la température de surface de l'océan (SST) ou la couleur de l'océan, ont révélé la présence de filaments à sous-mésoéchelle, qui ne peuvent être détectées par les satellites altimétriques. Ce travail de thèse explore la possibilité d'utiliser les informations dynamiques contenues dans les images traceur haute résolution pour compléter l'estimation de la dynamique océanique de surface effectuée par les satellites altimétriques. Pour ce faire, la méthode d'inversion développée est inspirée de l'assimilation de données images. A l'aide d'une fonction coût, on mesure la distance entre une image du flot dynamique et l'image des structures présentes sur le traceur. On a choisi pour cette étude d'utiliser le FSLE (Finite-Size Lyapunov Exponents) comme proxy image de la dynamique. Cette méthode est testée avec succès sur plusieurs cas test d'observations spatiales. Un modèle de processus coupl é physique-biogéochimie ainsi qu'un modèle réaliste de la mer des Salomon sont utilisés pour estimer l'erreur associée à la méthode d'inversion et la pertinence de la correction effectuée. L'utilisation conjointe d'images traceurs et de données altimétriques présente un fort intérêt pour le contrôle de la circulation océanique.
145

Assimilation de données et méthodes adjointes pour la géophysique

Vidard, Arthur 13 December 2012 (has links) (PDF)
Les modèles mathématiques sont importants pour la compréhension de la dynamique de l'atmosphère et de l'océan. Mais si ils étaient notre seule source d'information aucune prévision ne serait possible faute, notamment au manque de la connaissance d'une condition initiale cohérente. On dispose également d'observations de ces systèmes en nombre de plus en plus important, notamment grâce aux nombreux satellites d'observation qui croisent maintenant au large de notre planète. Ces observations sont souvent indirectes et incomplètes, et de ce fait ne fournissent pas non plus, à elles seules, une connaissance approfondie de l'état du milieu considéré. Et pour finir, on dispose de statistiques sur les champs des variables atmosphériques, leur variabilité, leur cohérence en temps et en espace. Je présente donc, dans ce document, des méthodes permettant de combiner tout ou partie de ces informations afin d'améliorer la prévision et la connaissance du fonctionnement de ces systèmes. Ces méthodes se basent le plus souvent sur une théorie mathématique solide, mais les appliquer dans un contexte réaliste n'est pas toujours chose aisée. C'est pourquoi on gardera le souci d'accompagner les développements que nous effectuons jusqu'à des applications opérationnelles ou quasi opérationnelles afin de démontrer la faisabilité de ceux ci.
146

Assimilation de données pour l'initialisation et l'estimation de paramètres d'un modèle d'évolution de calotte polaire

Bonan, Bertrand 15 November 2013 (has links) (PDF)
L'évolution des calottes polaires est régie à la fois par une dynamique d'écoulement complexe et par des mécanismes tel le glissement à la base, la température de la glace ou le bilan de masse en surface. De plus, de nombreuses boucles de rétroactions sont constatées entre les différents phénomènes impliquées. Tout ceci rend la modélisation de cette évolution complexe. Malgré tout, un certain nombre de modèles ont été développés dans cette optique. Ceux-ci font tous intervenir des paramètres influents qui dans certains cas sont peu ou pas connus. Ils nécessitent donc d'être correctement spécifiés. L'assimilation de données peut permettre une meilleure estimation de ces paramètres grâce à l'utilisation d'observations qui sont peu nombreuses en glaciologie. Dans cette thèse, nous nous intéressons à la mise en place de systèmes d'assimilation performants pour deux problèmes inverses concernant l'évolution des calottes polaires. Pour mieux nous concentrer sur ce point, nous avons travaillé avec un modèle d'évolution de calotte simplifié (appelé Winnie) qui, cependant, représente bien la plupart des processus complexes de la dynamique de la glace, et permet de travailler à différentes échelles de temps. Dans un premier temps, nous mettons en place une approche 4D-Var pour la reconstruction de l'évolution d'un paramètre climatique influant sur l'évolution d'une calotte sur une échelle de temps typique de 20 000 ans. Elle nécessite notamment l'écriture du code adjoint du modèle. Dans un second temps, nous nous intéressons au problème du spin-up. Ce problème de calibration du modèle pour des simulations à échelle de temps courtes (pas plus de 100 ans) consiste plus particulièrement en la reconstruction conjointe de l'état initial, de la topographie du socle rocheux et des paramètres de glissement basal. Nous développons ici une approche filtre de Kalman d'ensemble pour résoudre ce problème.
147

Reconstruction des structures magnéto-convectives solaires sous une région active, par l’utilisation conjointe d’un modèle de convection anélastique et d’une méthode d’assimilation de données

Pirot, Dorian 06 1900 (has links)
No description available.
148

Méthodes numériques pour les problèmes des moindres carrés, avec application à l'assimilation de données / Numerical methods for least squares problems with application to data assimilation

Bergou, El Houcine 11 December 2014 (has links)
L'algorithme de Levenberg-Marquardt (LM) est parmi les algorithmes les plus populaires pour la résolution des problèmes des moindres carrés non linéaire. Motivés par la structure des problèmes de l'assimilation de données, nous considérons dans cette thèse l'extension de l'algorithme LM aux situations dans lesquelles le sous problème linéarisé, qui a la forme min||Ax - b ||^2, est résolu de façon approximative, et/ou les données sont bruitées et ne sont précises qu'avec une certaine probabilité. Sous des hypothèses appropriées, on montre que le nouvel algorithme converge presque sûrement vers un point stationnaire du premier ordre. Notre approche est appliquée à une instance dans l'assimilation de données variationnelles où les modèles stochastiques du gradient sont calculés par le lisseur de Kalman d'ensemble (EnKS). On montre la convergence dans L^p de l'EnKS vers le lisseur de Kalman, quand la taille de l'ensemble tend vers l'infini. On montre aussi la convergence de l'approche LM-EnKS, qui est une variante de l'algorithme de LM avec l'EnKS utilisé comme solveur linéaire, vers l'algorithme classique de LM ou le sous problème est résolu de façon exacte. La sensibilité de la méthode de décomposition en valeurs singulières tronquée est étudiée. Nous formulons une expression explicite pour le conditionnement de la solution des moindres carrés tronqués. Cette expression est donnée en termes de valeurs singulières de A et les coefficients de Fourier de b. / The Levenberg-Marquardt algorithm (LM) is one of the most popular algorithms for the solution of nonlinear least squares problems. Motivated by the problem structure in data assimilation, we consider in this thesis the extension of the LM algorithm to the scenarios where the linearized least squares subproblems, of the form min||Ax - b ||^2, are solved inexactly and/or the gradient model is noisy and accurate only within a certain probability. Under appropriate assumptions, we show that the modified algorithm converges globally and almost surely to a first order stationary point. Our approach is applied to an instance in variational data assimilation where stochastic models of the gradient are computed by the so-called ensemble Kalman smoother (EnKS). A convergence proof in L^p of EnKS in the limit for large ensembles to the Kalman smoother is given. We also show the convergence of LM-EnKS approach, which is a variant of the LM algorithm with EnKS as a linear solver, to the classical LM algorithm where the linearized subproblem is solved exactly. The sensitivity of the trucated sigular value decomposition method to solve the linearized subprobems is studied. We formulate an explicit expression for the condition number of the truncated least squares solution. This expression is given in terms of the singular values of A and the Fourier coefficients of b.
149

Vers l'assimilation de données estimées par radar Haute Fréquence en mer macrotidale / Towards data assimilation with High Frequency Radar currents in macrotidal sea

Jousset, Solène 01 July 2016 (has links)
La Mer d’Iroise est observée depuis 2006, par des radars à haute fréquence (HF) qui estiment les courants de surface. Ces mesures ont une finesse temporelle et spatiale pour permettre de capturer la dynamique fine du domaine côtier. Ce travail de thèse vise à la conception et l’application d’une méthode d’assimilation de ces données dans un modèle numérique réaliste pour optimiser le frottement sur le fond et corriger l’état du modèle afin de mieux représenter la circulation résiduelle de marée et les positions des fronts d’Ouessant en mer d’Iroise. La méthode d’assimilation de données utilisée est le Filtre de Kalman d’Ensemble dont l’originalité est l’utilisation d’une modélisation stochastique pour estimer l’erreur du modèle. Premièrement, des simulations d’ensemble ont été réalisées à partir de la perturbation de différents paramètres du modèle considérés comme sources d’erreur : le forçage météo, la rugosité de fond, la fermeture turbulente horizontale et la rugosité de surface. Ces ensembles ont été explorés en termes de dispersion et de corrélation d’ensemble. Un Lisseur de Kalman d’Ensemble a ensuite été utilisé pour optimiser la rugosité de fond (z0) à partir des données de courant de surface et d’un ensemble modèle réalisé à partir d’un z0 perturbé et spatialisé. La méthode a d’abord été testée en expérience jumelle puis avec des observations réelles. Les cartes du paramètre z0, optimisés, réalisées avec des observations réelles, ont ensuite été utilisées dans le modèle sur une autre période et les résultats ont été comparés avec des observations sur la zone. Enfin, des expériences jumelles ont été mises en place pour corriger l’état modèle. Deux méthodes ont été comparées, une prenant en compte la basse fréquence en filtrant la marée des données et du modèle pour réaliser l’analyse ; l’autre prenant en compte tout le signal. Avec ces expériences, on a tenté d’évaluer la capacité du filtre à contrôler à la fois la partie observée du vecteur d’état (courant de surface) et la partie non-observée du système (température de surface). / The Iroise Sea has been observed since 2006 by High Frequency (HF) radars, which estimate surface currents. These measurements offer high resolution and high frequency to capture the dynamics of the coastal domain. This thesis aims at designing and applying a method of assimilation of these data in a realistic numerical model to optimize the bottom friction and to correct the model state in order to improve the representation of the residual tidal circulation and the positions of the Ushant fronts in the Iroise Sea. The method of data assimilation used is the Ensemble Kalman Filter. The originality of this method is the use of a stochastic modeling to estimate the model error. First, ensemble simulations were carried out from the perturbation of various model parameters which are the model error sources: meteorological forcing, bottom friction, horizontal turbulent closure and surface roughness. These ensembles have been explored in terms of dispersion and correlation. An Ensemble Kalman smoother was used to optimize the bottom friction (z0) from the surface current data and from an ensemble produced from a perturbed and spatialized z0. The method is tested with a twin experiment and then with real observations. The optimized maps of parameter z0, produced with the real currents, were used in the model over another period and the results were compared with independent observations. Finally, twin experiments were conducted to test the model state correction. Two approaches were compared; first, only the low frequency, by filtering the tide in the data and in the model, is used to perform the analysis. The other approach takes the whole signal into account. With these experiments, we assess the filter's ability to control both the observed part of the state vector (currents) and the unobserved part of the system (Sea surface Temperature).
150

Assimilation de données d'images télédétectées en météorologie / Assimilation of image-derived bogussing observations in meteorology

Michel, Yann 17 December 2008 (has links)
L’évolution libre des fluides géostrophiques turbulents bidimensionnels fait apparaitre des tourbillons présentant une grande cohérence spatio-temporelle. Les écoulements atmosphériques tridimensionnels présentent également ce genre de structures cohérentes, notamment dans les champs de tourbillon potentiel. Certains aspects de la cyclogenèse semblent gouvernés, ou très sensibles, à la position et à l’intensité de ces anomalies. Les images des satellites géostationnaires permettent par ailleurs de visualiser les signatures de ces phénomènes, appelées intrusions sèches. Une première partie du travail adapte des outils de traitement d’image à la détection et au suivi des intrusions sèches sur les images vapeur d’eau. On utilise une approche basée sur des multi-seuillages et le suivi automatisé de structures (logiciel RDT). Le développement de caractéristiques supplémentaires s’avère nécessaire afin de sélectionner les intrusions associées à des événements dynamiques importants. L’une d’entre elles utilise l’information sur le courant-jet à partir de vents d’altitude de l’ébauche. Un deuxième volet s’applique à dégager une méthodologie de correction des structures en tourbillon potentiel à partir de ces informations. L’assimilation de données conventionnelle ne permet pas d’initialiser spécifiquement les structures. Nous décrivons les méthodes alternatives et étudions les possibilités, et limitations, d’une méthodologie basée sur l’assimilation de pseudo-observations. Cela débouche en particulier sur une version renouvelée de la relation entre vapeur d’eau et tourbillon potentiel. Les outils développés sont appliqués à la prévision de la tempête des Landes (2006). L’utilisation de données de concentration d’ozone est finalement évoquée comme une méthode alternative d’initialisation du tourbillon potentiel à la tropopause / Isolated vortices have been shown to emerge in two-dimensional and geostrophic turbulent flows. Coherent structures are apparent in three-dimensional atmospheric flows as well, and may share the property to determine the non-linear evolution and the predictability of the flow. Potential vorticity anomalies have indeed been shown to be of primary importance for cyclogenesis of mid-latitude storms. Their signature can be detected in satellite water vapour images and are known as dry intrusions. The first part of this work proceeds the tracking of dry intrusions on images. We use image processing tools based on thresholding algorithm, and develop additional filters to select relevant cells. One of this filters uses dynamical information on the jet from the background upper-level wind. We highlight the fact that conventional data assimilation does not handle coherent structures, and describe alternative procedures. We focus then on the assimilation of bogussed potential vorticity observations. This leads to a new vision of the relationship between water vapour and potential vorticity. The case study of the storms that has affected the Landes region in 2006 is then presented. We finally pinpoint ozone data as an alternative way to improve the initialization of upper-level potential vorticity

Page generated in 0.108 seconds