• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 109
  • 33
  • 16
  • 3
  • Tagged with
  • 161
  • 161
  • 71
  • 47
  • 39
  • 39
  • 29
  • 27
  • 26
  • 24
  • 23
  • 23
  • 22
  • 21
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Contributions aux méthodes variationnelles pour le calcul du flot optique: prise en compte des informations spatiales et temporelles

Béréziat, Dominique 24 November 2010 (has links) (PDF)
Dans ces travaux nous nous intéressons aux formulations variationnelles pour résoudre des problèmes mal posés du traitement d'images. Nous nous focalisons principalement sur le calcul du flot optique dans les séquences d'images ainsi que la reconstruction 3D à partir d'une séquence d'images 2D. Comme ces problèmes sont mal posés au sens où ils sont sous-contraints, on utilise souvent des techniques de régularisation spatiale pour obtenir l'unicité de la solution. Nous nous proposons d'introduire d'autres contraintes dans la formulation du problème pour limiter l'importance de cette régularisation, voire pour la supprimer complètement. Ces contraintes sont dérivées des informations a priori sur les conditions expérimentales. Dans un premier chapitre, nous examinons un cas d'étude tiré de l'imagerie biologique: il s'agit d'acquisitions multi-focales de vésicules géantes, nous en exploitons alors la topologie sphérique pour divers problèmes tels que le suivi, la segmentation, l'estimation du flot optique et la reconstruction 3D. Ces contraintes sont donc d'ordre spatiales. Dans un second chapitre, nous étudions la possibilité de tirer partie de l'information temporelle présente dans les séquences d'images. Cette information est alors modélisée par une équation d'évolution. La difficulté à lever est de résoudre conjointement cette équation et les contraintes qui dérivent du problème de traitement d'images. Nous utilisons alors le formalisme de l'assimilation variationnelle de données dans une formulation dite ''faible'' car nous attribuons une erreur sur l'équation d'évolution. Bien que l'équation d'évolution décrive imparfaitement la dynamique, nous montrons que l'on peut résoudre le problème mal posé de l'estimation du flot optique sans recourir à la régularisation. Nous montrons également que lorsque les informations sont manquantes, il est possible de fournir une estimation réaliste du flot optique, ceci permet de gérer les cas difficiles d'occultations. Enfin, dans un dernier chapitre, nous résumons des travaux parallèles portant sur la résolution variationnelle de problèmes non linéaires de traitement d'images, des travaux sur l'occupation des sols en imagerie satellitaire haute définition et enfin sur le suivi multi-cibles.
72

Modélisation MHD tridimensionnelle de tubes de flux coronaux utilisant l'assimilation des donnés 4D-VAR

Benslimane, Ali January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
73

Assimilation rétrospective de données par lissage de rang réduit : application et évaluation dans l'Atlantique Tropical

Freychet, Nicolas 11 January 2012 (has links) (PDF)
Le filtre de Kalman est largement utilisé pour l'assimilation de données en océanographie opérationnelle, notamment dans le cadre de prévisions. Néanmoins, à l'heure où les applications de l'assimilation de données tendent à se diversifier, notamment avec les réanalyses, la formulation tridimensionnelle (3D) du filtre n'utilise pas de façon optimale les observations. L'extension de ces méthodes 3D (filtre) à une formulation 4D (appelés lisseurs), permet de mieux tirer partie des observations en les assimilant de façon rétrograde. Nous étudions dans cette thèse la mise en place et les effets d'un lisseur de rang réduit sur les réanalyses, dans le cadre d'une configuration réaliste de la circulation océanique en Atlantique tropical. Ce travail expose dans un premier temps les aspects sensibles mais nécessaires de l'implémentation du lisseur, avec notamment la paramétrisation des statistiques d'erreur et leur évolution temporelle. Les apports du lissage sur les réanalyses sont ensuite étudiés, en comparant la qualité de la solution lissée par rapport à la solution filtrée. Ces résultats permettent d'exposer les bienfaits d'une assimilation 4D. On observe notamment une diminution de l'erreur globale de environ 15% sur les variables assimilées, ainsi qu'une bonne capacité du lisseur à fournir une solution cohérente avec la dynamique de référence. Ce point est illustré par le rephasage de certaines structures sensibles comme les anneaux du Brésil. Enfin, un cas moins en accord avec la théorie mais plus facile à mettre en pratique (et plus souvent utilisé dans les centres opérationnels), l'interpolation optimale, a permis d'étudier les apports du lissage et ses limites dans une telle configuration. L'évolution temporelle des erreurs pour le lissage s'est ainsi révélée nécessaire pour garder un maximum de cohérence avec les erreurs réelles. Néanmoins, le lisseur montre tout de même des résultats encourageant avec l'interpolation optimale en abaissant le niveau global d'erreur (de 10 à 15%).
74

Assimilation de réflectances satellitaires du domaine visible et proche infrarouge dans un modèle détaillé de manteau neigeux / Assimilation of satellite visible and near-infrared reflectances into a detailed snowpack model

Charrois, Luc 05 January 2017 (has links)
Une modélisation précise du manteau neigeux saisonnier est indispensable pour comprendre son évolution et améliorer la prévention d risque d’avalanche. Le Centre d’Études de la Neige (CEN) développe depuis plus de 20 ans un modèle de manteau neigeux nommé Crocus dédié à simuler son évolution et ses propriétés physiques uniquement à partir de variables météorologiques de surface. Les erreurs du modèle et l’imprécision des forçages météorologiques sont des sources inévitables d’incertitudes dans les prévisions de Crocus.Contraindre le modèle avec des observations peut être un moyen de minimiser l’impact de ces incertitudes dans les simulations. En raison de la faible densité des réseaux de mesures in situ et de la forte variabilité spatiale du manteau neigeux, il est vraisemblable que seule l’imagerie satellitaire puisse permettre une contrainte efficace du modèle. Le spectroradiomètre MODIS,fournissant quotidiennement des informations sur la surface terrestre à une résolution de 250m, est bien adapté pour l’observation du couvert nival. Ce capteur opère dans les domaines du visible et de l’infrarouge où les réflectances mesurées (rapport du flux solaire réfléchi surincident selon les longueurs d’onde) sont sensibles à certaines propriétés du manteau neigeux.Le nouveau schéma radiatif TARTES de Crocus est en mesure de simuler l’évolution de ces réflectances, ce qui ouvre la voie à l’assimilation des réflectances MODIS.L’objectif de la thèse est d’explorer l’assimilation des réflectances MODIS dans le modèle de manteau neigeux Crocus, dans une perspective opérationnelle à moyen terme. Ce projet s’appuie fortement sur l’expertise en modélisation physique et radiative du manteau neigeux et en assimilation de données présente au Centre d’Études de la Neige et au Laboratoire de Glaciologie et Géophysique de l’Environnement à Grenoble.Le projet s’est déroulé en deux étapes pour répondre aux questions suivantes :Les réflectances optiques satellitaires possèdent-elles un contenu informatif capable de contraindre efficacement le modèle Crocus ?Quels sont les obstacles à surmonter pour parvenir à l’assimilation effective des réflectances optiques mesurées par satellites ?Un filtre particulaire est utilisé comme méthode d’assimilation pour évaluer l’apport des réflectances sur les estimations du manteau neigeux en termes de hauteur de neige et son équivalent en eau liquide. Le choix de ce filtre, permis par la petite dimension du problème,est conforté par sa facilité d’implémentation au vu des contraintes fortes du modèle Crocus.Les expériences conduites dans cette étude sont réalisées au niveau du Col du Lautaret et du Col de Porte (Alpes françaises). Des expériences d’assimilation d’observations virtuelles démontrent le potentiel des réflectances spectrales pour guider Crocus dans ses estimations du manteau neigeux. L’erreur quadratique moyenne (RMSE) des variables intégrées de la hauteur de neige et de son équivalent en eau est réduite de près de moitié par l’assimilation des observations. L’efficacité de l’assimilation est cependant fortement dépendante de la distribution temporelle des observations.Des expériences d’assimilation de réflectances réelles mettent en évidence une grande sensibilité des résultats de l’assimilation à la qualité des observations. La conversion et le traitement des données MODIS au sommet de l’atmosphère (TOA) en réflectances de surface sont la cause de fortes incertitudes dans ces données. Les biais occasionnés et une mauvaise caractérisation de ces erreurs détériorent les estimations du manteau neigeux. Le contrôle qualité et la sélection des données satellitaires sont à ce titre une priorité dans la perspective d’assimilation des données satellitaires.Ce travail démontre ainsi le potentiel des données spatiales pour le suivi et la prévision du manteau neigeux, potentiel qu’il conviendra d’exploiter dans un futur proche. / An accurate seasonal snowpack modeling is needed to study its evolution and to improvethe avalanche hazard forecast. For 20 years, the snow study center (CEN) has developed asnowpack model named Crocus to simulate the snow cover and its physical properties drivenby near-surface meteorological conditions. Model and meteorological forcing errors are themain uncertainties in the Crocus forecasts. Constraining the model with observations canminimize the impacts of these uncertainties on simulations. Because of the low density ofground-based measurement networks combined to the high spatial variability of the snowcover, satellite observations should be the best way to constrain the model. The MODISspectroradiometer which provides daily surface information at 250 m spatial resolution isappropriated to study the snow cover. The visible and near-infrared reflectances (definedas the fraction of incident solar flux that is reflected by the surface) measured by MODISare strongly sensitive to physical properties of the snowpack. The radiative transfer modelTARTES, recently implemented into Crocus, calculates the same spectral reflectances and so,opens routes to data assimilation of MODIS reflectances.The aim of this thesis is to investigates the assimilation of the MODIS reflectances into thesnowpack model Crocus in an operational perspective. This work benefits from the expertisein physical and radiative snowpack modeling as well as data assimilation from two laboratoriesof Grenoble, the snow study center and the Laboratory of Glaciology and Geophysics of theEnvironment.The project took place in two steps to answer the following questions:Do MODIS reflectances offer an informative content allowing an efficient constraint ofthe Crocus snowpack model?What are the challenges associated to the assimilation of remotely-based optical reflectances?A particle filter is used as data assimilation scheme to evaluate the ability of opticalreflectance data assimilation to improve snow depth and snow water equivalent simulations.The choice of this filter, allowed by the small size of the problem, is based on its ease ofimplementation regarding the severe constraints of the Crocus model. The experiments wereconducted at the Col du Lautaret and the Col de Porte in the French Alps.The assimilation of synthetic observations demonstrates the potential of spectral reflectancesto constraint the Crocus snowpack model simulations. The root-mean square errors(RMSE) of bulk variables like snow depth and snow water equivalent are reduced by a factorof roughly 2 after assimilation. However, the performance of assimilation is highly dependenton the temporal distribution of the observations.The assimilation of real reflectances shows a high sensitivity to the quality of the assimilatedobservations. Converting MODIS top of atmosphere reflectances into surface reflectancesintroduces uncertainties in these data. Resulting biases and a poor characterization of errorsdeteriorate the estimation of the snowpack. Screening methods prior assimilation are thereforea priority in the prospect of satellite data assimilation.This work demonstrates the potential of remotely-based data assimilation to monitor and forecast the snow cover, potential which should be used in the near future.
75

Assimilation rétrospective de données par lissage de rang réduit : application et évaluation dans l'Atlantique Tropical / Retrospective data assimilation with a reduced-rank smoother : application and evaluation in the tropical Atlantic

Freychet, Nicolas 11 January 2012 (has links)
Le filtre de Kalman est largement utilisé pour l'assimilation de données en océanographie opérationnelle, notamment dans le cadre de prévisions. Néanmoins, à l'heure où les applications de l'assimilation de données tendent à se diversifier, notamment avec les réanalyses, la formulation tridimensionnelle (3D) du filtre n'utilise pas de façon optimale les observations. L'extension de ces méthodes 3D (filtre) à une formulation 4D (appelés lisseurs), permet de mieux tirer partie des observations en les assimilant de façon rétrograde. Nous étudions dans cette thèse la mise en place et les effets d'un lisseur de rang réduit sur les réanalyses, dans le cadre d'une configuration réaliste de la circulation océanique en Atlantique tropical. Ce travail expose dans un premier temps les aspects sensibles mais nécessaires de l'implémentation du lisseur, avec notamment la paramétrisation des statistiques d'erreur et leur évolution temporelle. Les apports du lissage sur les réanalyses sont ensuite étudiés, en comparant la qualité de la solution lissée par rapport à la solution filtrée. Ces résultats permettent d'exposer les bienfaits d'une assimilation 4D. On observe notamment une diminution de l'erreur globale de environ 15% sur les variables assimilées, ainsi qu'une bonne capacité du lisseur à fournir une solution cohérente avec la dynamique de référence. Ce point est illustré par le rephasage de certaines structures sensibles comme les anneaux du Brésil. Enfin, un cas moins en accord avec la théorie mais plus facile à mettre en pratique (et plus souvent utilisé dans les centres opérationnels), l'interpolation optimale, a permis d'étudier les apports du lissage et ses limites dans une telle configuration. L'évolution temporelle des erreurs pour le lissage s'est ainsi révélée nécessaire pour garder un maximum de cohérence avec les erreurs réelles. Néanmoins, le lisseur montre tout de même des résultats encourageant avec l'interpolation optimale en abaissant le niveau global d'erreur (de 10 à 15%). / The Kalman filter is widely used in data assimilation for operational oceanography, in particular for forecasting problems. Yet, now that data assimilation applications tend to diversify, with reanalysis problems for instance, the three-dimensional (3D) formulation of the filter doesn't allow an optimal use of the observations. The four-dimensional extention of the 3D methods, called smoothers, allows a better use of the observations, assimilating them on a retrospective way. We study in this work the implementation and the effects of a reduced-rank smoother on reanalysis, with a realistic tropical Atlantic ocean circulation model. First we expose some sensitive steps required for the smoother implementation, most notably the covariances evolution parametrisation of the filter. The smoother's benefits for reanalysis are then exposed, compare to a 3D reanalysis. It shows that the global error can be reduced by 15% on assimilated variables (like temperature). The smoother also leads to an analyzed solution dynamically closer to the reference (compare to the filter), as we can observe with phasing of Brazil rings for instance. Finally, we studied a case of smoothing based on optimal interpolation (instead of the filter). This case is inconsistent with the theory but often used in operational centers. Results shows that the smoother can improve the reanalysis solution in an OI case (reducing the global error from 10 to 15%), but still the dynamical evolution of error covariances (filter) are needed to get a correction according with the real error structures.
76

La décomposition en polynôme du chaos pour l'amélioration de l'assimilation de données ensembliste en hydraulique fluviale / Polynomial chaos expansion in fluvial hydraulics in Ensemble data assimilation framework

El Moçayd, Nabil 01 March 2017 (has links)
Ce travail porte sur la construction d'un modèle réduit en hydraulique fluviale avec une méthode de décomposition en polynôme du chaos. Ce modèle réduit remplace le modèle direct afin de réduire le coût de calcul lié aux méthodes ensemblistes en quantification d'incertitudes et assimilation de données. Le contexte de l'étude est la prévision des crues et la gestion de la ressource en eau. Ce manuscrit est composé de cinq parties, chacune divisée en chapitres. La première partie présente un état de l'art des travaux en quantification des incertitudes et en assimilation de données dans le domaine de l'hydraulique ainsi que les objectifs de la thèse. On présente le cadre de la prévision des crues, ses enjeux et les outils dont on dispose pour prévoir la dynamique des rivières. On présente notamment la future mission SWOT qui a pour but de mesurer les hauteurs d'eau dans les rivières avec un couverture globale à haute résolution. On précise notamment l'apport de ces mesures et leur complémentarité avec les mesures in-situ. La deuxième partie présente les équations de Saint-Venant, qui décrivent les écoulements dans les rivières, ainsi qu'une discrétisation numérique de ces équations, telle qu'implémentée dans le logiciel Mascaret-1D. Le dernier chapitre de cette partie propose des simplifications des équations de Saint-Venant. La troisième partie de ce manuscrit présente les méthodes de quantification et de réduction des incertitudes. On présente notamment le contexte probabiliste de la quantification d'incertitudes et d'analyse de sensibilité. On propose ensuite de réduire la dimension d'un problème stochastique quand on traite de champs aléatoires. Les méthodes de décomposition en polynômes du chaos sont ensuite présentées. Cette partie dédiée à la méthodologie s'achève par un chapitre consacré à l'assimilation de données ensemblistes et à l'utilisation des modèles réduits dans ce cadre. La quatrième partie de ce manuscrit est dédiée aux résultats. On commence par identifier les sources d'incertitudes en hydraulique que l'on s'attache à quantifier et réduire par la suite. Un article en cours de révision détaille la validation d'un modèle réduit pour les équations de Saint-Venant en régime stationnaire lorsque l'incertitude est majoritairement portée par les coefficients de frottement et le débit à l'amont. On montre que les moments statistiques, la densité de probabilité et la matrice de covariances spatiales pour la hauteur d'eau sont efficacement et précisément estimés à l'aide du modèle réduit dont la construction ne nécessite que quelques dizaines d'intégrations du modèle direct. On met à profit l'utilisation du modèle réduit pour réduire le coût de calcul du filtre de Kalman d'Ensemble dans le cadre d'un exercice d'assimilation de données synthétiques de type SWOT. On s'intéresse précisément à la représentation spatiale de la donnée telle que vue par SWOT: couverture globale du réseau, moyennage spatial entre les pixels observés. On montre notamment qu'à budget de calcul donné les résultats de l'analyse d'assimilation de données qui repose sur l'utilisation du modèle réduit sont meilleurs que ceux obtenus avec le filtre classique. On s'intéresse enfin à la construction du modèle réduit en régime instationnaire. On suppose ici que l'incertitude est liée aux coefficients de frottement. Il s'agit à présent de juger de la nécessité du recalcul des coefficients polynomiaux au fil du temps et des cycles d'assimilation de données. Pour ce travail seul des données in-situ ont été considérées. On suppose dans un deuxième temps que l'incertitude est portée par le débit en amont du réseau, qui est un vecteur temporel. On procède à une décomposition de type Karhunen-Loève pour réduire la taille de l'espace incertain aux trois premiers modes. Nous sommes ainsi en mesure de mener à bien un exercice d'assimilation de données. Pour finir, les conclusions et les perspectives de ce travail sont présentées en cinquième partie. / This work deals with the formulation of a surrogate model for the shallow water equations in fluvial hydraulics with a chaos polynomial expansion. This reduced model is used instead of the direct model to reduce the computational cost of the ensemble methods in uncertainty quantification and data assimilation. The context of the study is the flood forecasting and the management of water resources. This manuscript is composed of five parts, each divided into chapters. The first part presents a state of art of uncertainty quantification and data assimilation in the field of hydraulics as well as the objectives of this thesis. We present the framework of flood forecasting, its stakes and the tools available (numerical and observation) to predict the dynamics of rivers. In particular, we present the SWOT2 mission, which aims to measure the height of water in rivers with global coverage at high resolution. We highlight particularty their contribution and their complementarity with the in-situ measurements. The second part presents the shallow water equations, which describe the flows in the rivers. We are particularly interested in a 1D representation of the equations.We formulate a numerical discretization of these equations, as implemented in the Mascaret software. The last chapter of this part proposes some simplifications of the shallow-water equations. The third part of this manuscript presents the uncertainty quantification and reduced order methods. We present particularly the probabilistic context which makes it possible to define well-defined problem of uncertainty quantification and sensitivity analysis. It is then proposed to reduce the size of a stochastic problem when dealing with random fields in the context of geophysical models. The methods of chaos polynomial expansion are then presented ; we present in particular the different strategies for the computation of the polynomial coefficients. This section devoted to methodology concludes with a chapter devoted to Ensemble based data assimilation (specially the Ensemble Kalman filter) and the use of surrogate models in this framework. The fourth part of this manuscript is dedicated to the results. The first step is to identify the sources of uncertainty in hydraulics that should be quantified and subsequently reduced. An article, in the review state, details the method and the validation of a polynomial surrogate model for shallow water equations in steady state when the uncertainty is mainly carried by the friction coefficients and upstream inflow. The study is conducted on the river Garonne. It is shown that the statistical moments, the probability density and the spatial covariance matrice for the water height are efficiently and precisely estimated using the reduced model whose construction requires only a few tens of integrations of the direct model. The use of the surrogate model is used to reduce the computational cost of the Ensemble Kalman filter in the context of a synthetic SWOT like data assimilation exercise. The aim is to reconstruct the spatialized friction coefficients and the upstream inflow. We are interested precisely in the spatial representation of the data as seen by SWOT : global coverage of the network, spatial averaging between the observed pixels. We show in particular that at the given calculation budget (2500 simulations of the direct model) the results of the data assimilation analysis based on the use of the polynomial surrogate model are better than those obtained with the classical Ensemble Kalman filter. We are then interested in the construction of the reduced model in unsteady conditions. It is assumed initially that the uncertainty is carried with the friction coefficients. It is now necessary to judge the need for the recalculation of polynomial coefficients over time and data assimilation cycles. For this work only ponctual and in-situ data were considered. It is assumed in a second step that the uncertainty is carried by the upstr
77

Assimilation variationnelle des données dans le modèle de surface continentale ORCHIDEE grâce au logiciel YAO / Variarional data assimilation in the land surface model ORCHIDEE using YAO

Benavides Pinjosovsky, Hector Simon 27 March 2014 (has links)
Un modèle de surface continentale (LSM en anglais) est un modèle numérique décrivant les échanges d'eau et d'énergie entre la surface terrestre et l'atmosphère. La physique de la surface de la terre comprend une vaste collection de processus complexes. L'équilibre entre la complexité du modèle et sa résolution, confronté à des limitations de calcul, représente une question fondamentale dans le développement d'un LSM. Les observations des phénomènes étudiés sont nécessaires afin d’adapter la valeur des paramètres du modèle à des variables reproduisant le monde réel. Le processus d'étalonnage consiste en une recherche des paramètres du modèle qui minimisent l’écart entre les résultats du modèle et un ensemble d'observations. Dans ce travail, nous montrons comment l'assimilation variationnelle de données est appliquée aux bilans d'énergie et d'eau du modèle de surface continentale ORCHIDEE afin d’étalonner les paramètres internes du modèle. Cette partie du modèle est appelé SECHIBA. Le logiciel YAO est utilisé pour faciliter la mise en œuvre de l'assimilation variationnelle 4DVAR. Une analyse de sensibilité a été réalisée afin d'identifier les paramètres les plus influents sur la température. Avec la hiérarchie des paramètres obtenue, des expériences jumelles à partir d'observations synthétiques ont été mises en œuvre. Les résultats obtenus suggèrent que l'assimilation de la température de surface a le potentiel d'améliorer les estimations de variables, en ajustant correctement les paramètres de contrôle. Enfin, plusieurs assimilations ont été faites en utilisant des observations de données réelles du site SMOSREX à Toulouse, France. Les expériences faites en utilisant différentes valeurs initiales pour les paramètres, montrent les limites de l'assimilation de la température pour contraindre les paramètres de contrôle. Même si l'estimation des variables est améliorée, ceci est dû à des valeurs finales des paramètres aux limites des intervalles prescrit de la fonction de coût. Afin de parvenir à un minimum, il faudrait permettre aux paramètres de visiter des valeurs irréalistes. Les résultats montrent que SECHIBA ne simule pas correctement simultanément la température et les flux et la relation entre les deux n’est pas toujours cohérente selon le régime (ou les valeurs des paramètres que l’on utilise). Il faut donc travailler sur la physique pour mieux simuler la température. En outre, la sensibilité des paramètres à la température n’est pas toujours suffisante, donnant une fonction de coût plate dans l’espace des paramètres prescrit. Nos résultats montrent que le système d'assimilation mis en place est robuste, puisque les résultats des expériences jumelles sont satisfaisants. Le couplage entre l'hydrologie et la thermodynamique dans SECHIBA doit donc être revu afin d'améliorer l'estimation des variables. Une étude exhaustive de l'erreur des mesures doit être menée afin de récupérer des termes de pondération dans la fonction de coût. Enfin, l'assimilation d'autres variables telles que l'humidité du sol peut maintenant être réalisée afin d'évaluer l'impact sur les performances de l’assimilation. / A land surface model (LSM) is a numerical model describing the exchange of water and energy between the land surface and the atmosphere. Land surface physics includes an extensive collection of complex processes. The balance between model complexity and resolution, subject to computational limitations, represents a fundamental query in the development of a LSM. With the purpose of adapting the value of the model parameters to values that reproduces results in the real world, measurements are necessary in order to compare to our estimations to the real world. The calibration process consists in an optimization of model parameters for a better agreement between model results and a set of observations, reducing the gap between the model and the available measurements. Here we show how variational data assimilation is applied to the energy and water budgets modules of the ORCHIDEE land surface model in order to constrain the model internal parameters. This part of the model is denoted SECHIBA. The adjoint semi-generator software denoted YAO is used as a framework to implement the 4DVAR assimilation. A sensitivity analysis was performed in order to identify the most influent parameters to temperature. With the parameter hierarchy resolved, twin experiments using synthetic observations were implemented for controlling the most sensitive parameters. Results obtained suggest that land surface temperature assimilation has the potential of improving the output estimations by adjusting properly the control parameters. Finally, several assimilations were made using observational meteorology dataset from the SMOSREX site in Toulouse, France. The experiments implemented, using different prior values for the parameters, show the limits of the temperature assimilation to constrain control parameters. Even though variable estimation is slightly improved, this is due to final parameter values are at the edge of a variation interval in the cost function. Effectively reaching a minimum would require allowing the parameters to visit unrealistic values. SECHIBA does not correctly simulates simultaneously temperature and fluxes and the relationship between the two is not always consistent according to the regime (or parameter values that are used). We must therefore work on the physical aspects to better simulate the temperature. Likewise, the parameter sensitivity to temperature is not always sufficient, giving as a result a flat cost function. Our results show that the assimilation system implemented is robust, since performances results in twin experiments are satisfactory. The coupling between the hydrology and the thermodynamics in SECHIBA must be reviewed in order to improve variable estimation. An exhaustive study of the prior errors in the measurements must be conducted in order to retrieve more adapted weighing terms in the cost function. Finally, the assimilation of other variables such as soil moisture should be performed to evaluate the impacts in constraining control parameters
78

Inversion régionale des sources de poussières désertiques / Regional inversion of desert dust sources

Escribano, Jerónimo 09 March 2017 (has links)
Dans cette thèse, nous concevons et appliquons un système d'assimilation de données pour l'estimation des sources de poussières désertiques à l'échelle régionale. Nous assimilons des données d'épaisseur optique des aérosols à partir de produits satellitaires dans une configuration régionale d'un modèle de circulation générale, couplé à un modèle d'aérosol et à un module de production de poussières. Le vecteur de contrôle dans le système d'assimilation est composé des facteurs de correction pour les émissions obtenues par l'ébauche du module de production de poussières. Nous concentrons nos inversions sur l'Afrique du Nord et la péninsule arabique pour une période d'un an. Nous décrivons le module de production de poussières et le système d'assimilation. Les résultats de l'inversion et la validation par rapport à des mesures indépendantes sont ensuite présentés en détail. Nous poursuivons cette thèse en mettant l'accent sur la sensibilité des émissions de poussières au jeu de données d'observation. Pour cela, nous avons assimilé cinq produits différents d'épaisseur optique d'aérosols dans notre système d'assimilation de données. Nous avons identifié des erreurs systématiques dans le modèle et dans les observations, ainsi que les limites et les avantages de notre approche. Nous avons accordé une attention particulière à la définition des statistiques d'erreur et à la procédure numérique pour calculer les analyses. Nous proposons et mettons en oeuvre un schéma de correction de biais dans l'espace des observations, et nous évaluons sa performance. / In this thesis we design and apply a data assimilation system for the estimation of mineral dust emission fluxes at the regional scale. We assimilate aerosol optical depth retrievals from satellite-borned instruments in a regional configuration of a general circulation model, coupled to an aerosol model and to a dust production module. The control variable in the assimilation system are correction factors for the prior emissions of the dust production module. We focus our inversions over North Africa and the Arabian Peninsula for a one-year period. We describe the dust production module and the assimilation system. The inversion results and the validation against independent measurements is presented in detail. We continue this thesis with a focus on the sensitivity of the inferred dust emissions with respect to the observational dataset assimilated. For this purpose, we have assimilated five different aerosol optical depth retrievals in our data assimilation system. We have identified systematic errors in the model, in the observations and limitations and advantages of our approach. We have given special attention to the definition of the error statistics and the numerical procedure to compute the analyses. We propose and implement a bias correction scheme in the observational space, and we evaluate its performance.
79

Modèles multi-échelles pour l'analyse d'images : application à la turbulence

Zille, Pascal 07 November 2014 (has links)
Cette étude a pour cadre l’analyse d’images dans un contexte multi-échelles, une attention particulière étant portée sur les images fluides dans un contexte turbulent. Nous traitons en premier lieu le problème de l’estimation de mouvement. Dans un contexte multi-échelles, on néglige bien souvent dans un premier temps la contribution des fines échelles du problème. Nous proposons, pour pallier ce problème, plusieurs termes d’attache aux données dérivant de l’OFCE. Ceux-ci permettent, à chaque niveau d’échelle, la prise en compte de ces composantes fines échelles. Les performances de ces termes sont expérimentalement démontrées sur des images générales et fluides. Nous abordons en second lieu le problème de super-résolution d’images de scalaires passifs : nous souhaitons reconstruire, de manière explicite, certains détails manquants au sein d’images basse résolution données. Pour cela, nous utilisons plusieurs modèles issus de la simulation des grandes échelles ainsi que des méthodes d’assimilation de données permettant d’assurer une certaine cohérence temporelle de la solution. Les approches présentées sont expérimentalement étudiées sur différentes séquences d’images. Enfin, nous proposons une méthode d’estimation multi-résolution permettant de combiner de manière simultanée les informations issues des différents niveaux de résolution. / This thesis is concerned with image analysis within a multi-scale framework. Specific attention is given to fluid images in the presence of turbulence. In a first part, we adress the problem of multi-scale motion estimation from image sequences. Starting from OFCE equation, we derive several image data terms allowing to take into account, while estimating the solution coarse scales, the contribution of the finer scales components usually neglected in classic approaches. The performances of the resulting estimators is demonstrated on both general and fluid images. The second step of this study is concerned with the problem of passive scalar images super- resolution : starting from low resolution input images, we aim at recovering some of the missing high frequencies. We proposed several methods inspired by the LES framework, as well as data assimilation techniques, in order to ensure the solution consistency over time. Such approaches are experimented and compared over various image sequences. Finally, we propose a multi-resolution estimation method simultaneously combining informations from different grid levels.
80

Estimation de la dynamique à partir des structures observées dans une séquence d'images / Estimation of motion from observed objects in image sequences

Lepoittevin, Yann 03 December 2015 (has links)
Cette thèse traite de l'estimation du mouvement à partir d'une séquence d'images par des méthodes d'assimilation de données. Les travaux ont porté sur la prise en compte des objets dans les processus d'estimation, afin de corréler en espace les résultats obtenus. Les deux composantes méthodologiques que sont approche variationnelle et approche séquentielle sont traitées. L'algorithme variationnel repose sur une équation d'évolution, une équation d'ébauche et une équation d'observation. L'estimation s'obtient comme le minimum d'une fonction de coût. Dans une première étape, l'objet est décrit par sa courbe frontière. Le modèle dynamique caractérise l'évolution des images et déplace les objets afin que leurs positions correspondent à celles observées dans les acquisitions image. Cette approche impacte fortement les temps de calculs, mais permet une amélioration de l'estimation du mouvement. Deuxièmement, les valeurs de la matrice de covariance des erreurs d'ébauche sont modifiées afin de corréler, à moindre coût, les pixels de l'image. L'algorithme séquentiel présenté repose sur la création d'un ensemble de vecteurs d'état ainsi que sur des approches de localisation. Pour modéliser les objets, un nouveau critère de localisation portant sur l'intensité de niveau de gris des pixels a été défini. Cependant, la localisation, si elle est appliquée directement sur la matrice de covariance d'erreur, rend la méthode inutilisable pour de grandes images. Une approche consistant à découper le domaine global en sous-domaines indépendants, avant d'estimer le mouvement, a été mise au point. La prise en compte des objets intervient lors du découpage du domaine d'analyse global. / This thesis describes approaches estimating motion from image sequences with data assimilation methods. A particular attention is given to include representations of the displayed objects in the estimation process. Variational and sequential implementations are discussed in the document.The variational methods rely on an evolution equation, a background equation and an observation equation, which characterize the studied system and the observations. The motion estimation is obtained as the minimum of a cost function. In a first approach, the structures are modeled by their boundaries. The image model describes both the evolution of the gray level function and the displacement of the structures. The resulting motion field should allow the position of the structures in the model to match their observed position. The use of structures betters the result. A second approach, less expensive regarding the computational costs, is designed, where the structures are modeled by the values of the background error covariance matrix.The sequential approach, described in the thesis, relies on the creation of an ensemble of state vectors and on the use of localization methods. In order to model the structures, a new localization criteria based on the gray level values is defined. However, the localization method, if directly applied on the background error covariance matrix, renders the approach inoperable on large images. Therefore, another localization method is designed, which consists to decompose the image domain into independent subdomains before the estimation. Here, the structures representation intervenes while decomposing the global domain.

Page generated in 0.1752 seconds