• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 109
  • 33
  • 16
  • 3
  • Tagged with
  • 161
  • 161
  • 71
  • 47
  • 39
  • 39
  • 29
  • 27
  • 26
  • 24
  • 23
  • 23
  • 22
  • 21
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Mise en œuvre, diagnostic et optimisation des schémas d'assimilation de données

Desroziers, Gérald 11 May 2007 (has links) (PDF)
L'assimilation de données, telle qu'elle s'est développée en particulier en météorologie ou en océanographie, désigne le processus par lequel on cherche à estimer de la manière la plus précise possible l'état atmosphérique ou océanique à partir d'observations et en s'appuyant sur un modèle de prévision. Le formalisme de l'assimilation peut être appréhendé de multiples manières. Il conduit à des algorithmes divers, mais présentant entre eux des liens aujourd'hui assez clairement établis. Une première partie des travaux présentés correspond au développement de techniques visant à améliorer la représentation des covariances d'erreur d'ébauche qui jouent un rôle important dans un schéma d'analyse. Une autre thématique traitée concerne le gain apporté par le 4D-Var sur la qualité des prévisions et des réanalyses d'expériences comme FASTEX. Nous présentons également des travaux associés au développement théorique et pratique de diagnostics des schémas d'assimilation. Il est montré comment ces diagnostics permettent aussi de mesurer l'impact des observations dans une analyse. Des perspectives d'évolution de l'assimilation de données sont enfin indiquées.
2

Simulation-inversion des diagraphies

Vandamme, Thibaud 12 November 2018 (has links) (PDF)
L’évaluation des formations géologiques consiste en l’analyse et la synthèse de données de différentes sources, de différentes échelles (microscopique à kilométrique) et acquises à des dates très variables. Le processus conventionnel de caractérisation des formations relève alors de l’interprétation physique spécialisée de chacune de ces sources de données et leur mise en cohérence par des processus de synthèse essentiellement d’ordre statistique (corrélation, apprentissage, up-scaling…). Il s’avère cependant qu’une source de données présente un caractère central : les diagraphies. Ces mesures physiques de différentes natures (nucléaires, acoustiques, électromagnétiques…) sont réalisées le long de la paroi d’un puits à l’aide de différentes sondes. Elles sont sensibles aux propriétés in situ des roches, et ce, sur une gamme d’échelle centimétrique à métrique intermédiaire aux carottes et données de test de production. De par leur profondeur d’investigation, les données diagraphiques sont particulièrement sensibles au phénomène d’invasion de boue se produisant lors du forage dans l’abord puits. Traditionnellement, l’invasion est modélisée de façon frustre au moment de l’interprétation diagraphiques par un simple effet piston. Ce modèle simple permet d’honorer le bilan de volume mais ne prend aucunement en compte la physique réelle d’invasion et prive, de fait, les diagraphies de toute portée dynamique. Des essais de modélisation de l’historique d’invasion couplés aux données diagraphiques ont déjà été élaborés par différents laboratoires et une abondante littérature sur le sujet est disponible. Les limitations majeures de ces approches résident dans le caractère sous déterminé des problèmes inverses issus de ces modèles physiques et dans le fait que la donnée diagraphique est réalisée en général sur un intervalle de temps inadaptée au regard du développement de l’invasion. Nous proposons une approche différente qui s’attèle non pas à décrire la physique de l’écoulement mais celle de l’équilibre radial des fluides dans le domaine envahi lorsque les diagraphies sont acquises. Nous montrons qu’en introduisant quelques contraintes pétrophysiques supplémentaires, il est possible d’inverser efficacement la distribution des propriétés dynamiques pour chaque faciès géologique. L’inversion prend en compte le phénomène d’invasion radial dans la zone à eau ainsi que l’équilibre capillaire vertical caractérisant le profil de saturation dans le réservoir pour chaque facies. A chaque profondeur du puits, sont ainsi obtenues perméabilités, pressions capillaires et facteurs de cimentation avec leurs incertitudes ainsi que les lois pétrophysiques propres à chaque faciès. Cette méthode a été appliquée à deux puits réels. En guise de validation, les résultats d’inversion ont été comparés aux mesures laboratoire faites sur carotte. De plus, les perméabilités inversées ont été comparées aux transitoires de pression de mini-tests. La cohérence des résultats montre que, d’une part, les hypothèses de base du modèle sont validées et que, d’autre part, l’approche fournit une estimation fiable de grandeurs dynamiques à toute échelle pour chaque faciès réservoir, et ce, dès l’acquisition des données diagraphiques. L’approche d’inversion proposée a permis de lever une limitation majeure des précédentes tentatives de prédiction des propriétés dynamiques par les diagraphies en reconsidérant la problématique non pas sous l’angle d’une modélisation phénoménologique exacte mais en l’abordant de manière globale à l’échelle d’une chaîne d’étude complète. Cette approche permet de fait une mise en cohérence très précoce des données, d’identifier les faciès d’intérêt et de qualifier les besoins véritables en données. Cet outil s’avère très puissant pour qualifier et caractériser les hétérogénéités pétrophysiques des formations et aider ainsi à résoudre le problème de mise à l’échelle des grandeurs dynamiques
3

Évaluation de l'impact de la méthode d'assimilation utilisée sur la phase de démarrage d'un modèle atmosphérique

Chikhar, Kamel 12 1900 (has links) (PDF)
Des lacunes dans la représentation des processus physiques par un modèle atmosphérique peuvent avoir un impact sur le réalisme du climat simulé ainsi que sur sa variabilité. Il a été observé assez souvent que les climats simulés par les modèles diffèrent largement de celui réellement observé dû à la présence de biais. La qualité de la représentation des processus physiques peut être évaluée par l'équilibre entre ces processus dans les premiers instants d'une intégration utilisant comme conditions initiales une analyse. Cette dernière est réputée bien équilibrée car représentant l'état réel de l'atmosphère. Des déséquilibres entre ces processus sont un signe de défaillances du modèle quant à leur représentation. Des diagnostics sont donc nécessaires pour vérifier si les ajustements dans les paramétrisations des différents processus physiques et dynamiques tendent vers un état de l'atmosphère proche des observations. Les diagnostics utilisés sont ceux proposés par Rodwell et Palmer (2007). Ils sont basés sur les tendances systématiques initiales d'un modèle lorsque des analyses sont utilisées comme conditions initiales. Ces tendances déterminées pour les premiers instants de l'intégration sont équivalentes à l'incrément d'analyse moyen obtenu par un ensemble de cycles d'assimilation. Ce dernier, moyenné temporellement devrait être nul. Par conséquent, ces diagnostics peuvent apporter des informations très utiles sur la cohérence des processus physiques pendant que le modèle tend à retourner vers sa propre climatologie lors des premiers instants de l'intégration. D'autre part, il est bien connu que les analyses, elles-mêmes, engendrent des problèmes de spin-up et requièrent entre autres l'utilisation d'une initialisation aux modes normaux ou l'application d'un filtre digital pour supprimer les ondes de gravité artificielles. Dans leur étude, Gauthier et Thépaut (2001) ont montré que les analyses 4D-Var produisent des conditions initiales mieux équilibrées et ne nécessitent pas l'application de contraintes pour maintenir cet équilibre. Dans cette étude, en utilisant un modèle global très similaire à celui utilisé pour produire les analyses, il a été montré que la différence de l'impact sur les diagnostics des tendances initiales était significative dans les tropiques selon qu'on utilise des analyses 3D-Var ou 4D-Var. Cet impact est surtout observé dans l'activité convective de la zone de convergence inter-tropicale (ZCIT). On notera qu'une analyse vise à se rapprocher des observations sous la contrainte de demeurer près d'une ébauche obtenue d'une prévision à courte échéance produite par un modèle de prévision numérique. Ce dernier constitue une composante primordiale dans le système d'assimilation. D'autres expériences utilisant des systèmes d'assimilation différents ont montré, à travers ces diagnostics, que le modèle était très sensible aux conditions initiales utilisées. Finalement, ces diagnostics ont été évalués pour le modèle régional canadien du climat (MRCC) intégré sur la région de l'Amérique du nord avec les mêmes paramétrages que ceux utilisés dans le modèle global. Ces intégrations sont effectuées en utilisant des conditions initiales et aux bords provenant de deux systèmes d'assimilation différents. Les résultats ont montré de nettes différences indiquant que le modèle est mieux équilibré lorsque l'analyse et les conditions aux bords proviennent du système d'assimilation dans lequel le modèle utilisé est similaire à celui employé dans l'intégration. ______________________________________________________________________________
4

Étude sur l'observabilité de l'atmosphère et l'impact des observations sur les prévisions météorologiques

Lupu, Cristina 08 1900 (has links) (PDF)
L'assimilation de données est une composante essentielle du système de prévision numérique du temps et consiste à trouver un état de l'atmosphère, l'analyse, qui est compatible avec les différentes sources d'observations, la dynamique de l'atmosphère et un état antérieur du modèle. Dans ce processus, il est important de bien caractériser l'erreur associée à chaque source d'information (observations, ébauche) afin de mieux décrire les conditions initiales. La matrice de covariance des erreurs de prévisions joue un rôle clé dans le processus d'assimilation de données car elle détermine la nature de la correction apportée par l'analyse. Cette matrice étant trop grande pour être représentée explicitement, elle est modélisée sous la forme d'une suite d'opérateurs relativement simples. Les modèles de covariance d'erreurs de prévisions utilisées dans un 3D-Var sont généralement stationnaires et ne considèrent pas des variations dues à la nature de l'écoulement. En présence d'instabilité, une petite erreur dans les conditions initiales connaîtra une croissance rapide. Pour contrôler cette croissance d'erreur à courte échéance, il est nécessaire d'apporter des corrections à l'analyse dans des régions localisées selon une structure spatiale très particulière. L'assimilation adaptative 3D-Var considère une formulation différente des covariances d'erreur de prévision qui permet d'inclure les fonctions de structure basées sur des fonctions de sensibilité a posteriori et a priori définissant la structure de changements aux conditions initiales qui ont le plus d'impact sur une prévision d'échéance donnée. Dans le cadre de cette thèse, des fonctions de sensibilité sont introduites comme fonctions de structure dans l'assimilation 3D-Var. La définition d'une fonction de structure appropriée pour un système d'assimilation vise à simultanément concorder aux observations disponibles et améliorer la qualité des prévisions. L'observabilité des fonctions de structure par les observations est tout d'abord présentée et analysée dans le cadre plus simple d'une analyse variationnelle 1D (1D-Var) pour être ensuite introduite dans le 3D-Var d'Environnement Canada. L'amplitude de la correction est caractérisée par un seul paramètre défini par l'ensemble des observations disponibles. Les résultats montrent que si le rapport entre l'amplitude du signal et l'erreur d'observation est très faible, les observations ne sont pas en mesure de détecter les instabilités atmosphériques qui peuvent croître très rapidement. Dans cette perspective, l'assimilation pourra seulement extraire l'information contenue dans les structures atmosphériques déjà évoluées. Dans un deuxième temps, nous présentons une nouvelle méthode permettant d'estimer l'impact des observations dans les analyses 3D/4D-Var basé sur le Degrees of freedom for signal. Le contenu en informations des observations est calculé en employant les statistiques a posteriori, à partir des écarts des observations à l'ébauche et à l'analyse. Les résultats montrent que le DFS estimé en utilisant les statistiques a posteriori est identique avec celui obtenu à partir des statistiques a priori. Ce diagnostic permet de comparer l'importance de différents types d'observations pour les expériences d'assimilation 3D et 4D-Var incluant toutes les observations assimilées opérationnellement. En particulier, cette étude s'intéresse à l'évaluation du réseau canadien d'observations et il est appliqué aux Observing System Experiments (OSEs) effectués à Environnement Canada pour les mois de janvier et février 2007. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Assimilation de données, Dépendance à l'écoulement, 3D-Var, DFS, OSEs.
5

Observation adaptative : limites de la prévision et du contrôle des incertitudes

Oger, Niels 02 July 2015 (has links) (PDF)
L'observation adaptative (OA) est une pratique de prévision numérique du temps (PNT) qui cherche à prévoir quel jeu (ou réseau) d'observations supplémentaires à déployer et à assimiler dans le futur améliorera les prévisions. L'objectif est d'accroître la qualité des prévisions météorologiques en ajoutant des observations là où elles auront le meilleur impact (optimal). Des méthodes numériques d'OA apportent des réponses objectives mais partielles. Elles prennent en compte à la fois les aspects dynamiques de l'atmosphère à travers le modèle adjoint, et aussi le système d'assimilation de données. Le système d'assimilation de données le plus couramment utilisé pour l'OA est le 4D-Var. Ces méthodes linéaires (technologie de l'adjoint) reposent cependant sur une réalisation déterministe (ou trajectoire) unique. Cette trajectoire est entachée d'une incertitude qui affecte l'efficacité de l'OA. Le point de départ de ce travail est d'évaluer l'impact de l'incertitude associée au choix de cette trajectoire sur une technique: la KFS. Un ensemble de prévisions est utilisé pour étudier cette sensibilité. Les expériences réalisées dans un cadre simplifié montrent que les solutions de déploiement peuvent changer en fonction de la trajectoire choisie. Il est d'autant plus nécessaire de prendre cette incertitude en considération que le système d'assimilation utilisé n'est pas vraiment optimal du fait de simplifications liées à sa mise en oeuvre. Une nouvelle méthode d'observation adaptative, appelée Variance Reduction Field (VRF), a été développée dans le cadre de cette thèse. Cette méthode permet de déterminer la réduction de variance de la fonction score attendue en assimilant une pseudo-observation supplémentaire pour chaque point de grille. Deux approches de la VRF sont proposées, la première est basée sur une simulation déterministe. Et la seconde utilise un ensemble d'assimilations et de prévisions. Les deux approches de la VRF ont été implémentées et étudiées dans le modèle de Lorenz 96. Le calcul de la VRF à partir d'un ensemble est direct si l'on dispose déjà des membres de l'ensemble. Le modèle adjoint n'est pas nécessaire pour le calcul.L'implémentation de la VRF dans un système de prévision du temps de grande taille, tel qu'un système opérationnel, n'a pas pu être réalisée dans le cadre de cette thèse. Cependant, l'étude de faisabilité de la construction de la VRF dans l'environnement OOPS a été menée. Une description de OOPS (version 2013) est d'abord présentée dans le manuscrit, car cet environnement est une nouveauté en soi. Elle est suivie de la réflexion sur les développements à introduire pour l'implémentation de la VRF.
6

Assimilation de données de radar à nuages aéroporté pendant la campagne de mesures HyMeX

Borderies, Mary 07 December 2018 (has links) (PDF)
Les radars à nuages sont des atouts indéniables pour la Prévision Numérique du Temps (PNT). De par leur petite longueur d’onde, ils possèdent une excellente sensibilité aux particules nuageuses et ils sont facilement déployables à bord de plates-formes mobiles. Cette thèse a permis d’évaluer l’apport des observations de radars à nuages pour la validation et l’initialisation de modèles de PNT à échelle kilométrique. Dans la première partie, un opérateur d’observation pour la réflectivité en bande W a été conçu en cohérence avec le schéma microphysique à un moment d'Arome, le modèle de PNT à échelle kilométrique de Météo-France, mais de façon suffisamment générale pour pouvoir être adapté à un autre modèle de PNT à échelle kilométrique. Il est adaptable pour des radars à visée verticale aéroportés ou au sol. Afin de dissocier les erreurs de positionnement des nuages prévus par Arome, de celles présentes dans l’opérateur d’observation, une nouvelle méthode de validation, appelée "la méthode de la colonne la plus ressemblante (CPR), a été élaborée. Cette méthode a été employée afin de valider et de calibrer l'opérateur d'observation en utilisant les profils de réflectivité collectés par le radar à nuages aéroporté Rasta dans des conditions variées durant la première période d’observations (SOP1) du programme international HyMeX, qui vise à améliorer notre compréhension du cycle de l'eau en méditerranée. La seconde partie s'est intéressée à l'apport respectif de l'assimilation de profils verticaux de réflectivité et de vents horizontaux mesurés par le radar à nuages Rasta dans le système d'assimilation variationnel tridimensionnel (3DVar) d'Arome. Le bénéfice apporté par des conditions thermodynamiques, via l'assimilation de la réflectivité en bande W, et dynamiques, via l'assimilation des profils de vents horizontaux, cohérentes dans l'état initial a également été étudié. Pour assimiler la réflectivité en bande W, la méthode d'assimilation "1D+3DVar", qui est opérationnelle dans Arome pour assimiler les réflectivités des radars de précipitation au sol, a été employée. La méthode de restitution bayésienne 1D de profils d'humidité a été validée avec des mesures d'humidité in situ indépendantes. Puis, les expériences d'assimilation ont été menées sur un événement fortement convectif, ainsi que sur une plus longue période de 45 jours. Les résultats suggèrent notamment que l'assimilation conjointe des profils de réflectivité en bande W et des profils verticaux de vents horizontaux permet d'améliorer les analyses d'humidité, mais suggèrent également une légère amélioration des prévisions des cumuls de précipitation
7

Identification rapide de la température dans les structures du génie civil

Nassiopoulos, Alexandre 28 January 2008 (has links) (PDF)
Le contrôle de santé des structures par méthodes vibratoires se heurte à l'influence prédominante des effets thermiques et suscite le besoin de méthodes d'assimilation thermique en temps réel pour éliminer ces effets. On propose des algorithmes qui permettent de reconstituer, à un instant donné, le champ de température dans une structure tridimensionnelle à partir de mesures ponctuelles enregistrées sur un intervalle de temps précédant cet instant. La démarche adoptée est celle de la méthode adjointe tirée de la théorie du contrôle optimal : on résout un problème de minimisation au sens des moindres carrés d'une fonction de coût mesurant l'écart entre les données et le champ de température reconstruit. La minimisation dans un espace de type H1 lève la difficulté habituelle de la méthode adjointe à la fin de la fenêtre d'observation, ce qui permet la reconstruction précise de la température à l'instant courant. La définition des valeurs ponctuelles du champ de température impose le choix d'espaces de contrôle de régularité importante. Pour pouvoir utiliser des méthodes usuelles de discrétisation malgré un second membre formé de masses de Dirac, l'état adjoint est défini par des techniques spécifiques fondées sur la transposition. Le formalisme dual adopté conduit à poser le problème dans un espace essentiellement unidimensionnel. En réduisant la quantité de calculs en ligne, au prix d'une série de précalculs, il donne lieu à des algorithmes d'assimilation en temps réel applicables à des structures tridimensionnelles de géométrie complexe. La robustesse des méthodes par rapport aux erreurs de modélisation et au bruit de mesure est évaluée numériquement et validée expérimentalement.
8

L’assimilation de données multivariées par filtre de Kalman d’ensemble pour la prévision hydrologique

Bergeron, Jean January 2017 (has links)
Le potentiel de l’assimilation d’un type d’observation pour la prévision hydrologique a été démontré dans certaines études. Cependant, le potentiel de l’assimilation simultanée de plusieurs types d’observations a été peu validé, particulièrement pour les données comprenant une information sur la neige au sol. De plus, l’amplitude et la durée de l’impact de l’assimilation de données peuvent dépendre du type de données assimilé, ainsi que du contenu du vecteur d’état employé pour mettre à jour les variables ou les paramètres du modèle hydrologique. La présente thèse examine l’impact de l’assimilation de données multivariées en fonction du type de données assimilé et du contenu du vecteur d’état pour la prévision hydrologique à court terme (horizon de prévision jusqu’à 5 jours) et moyen terme (horizon de prévision entre 25 et 50 jours). Le filtre de Kalman d’ensemble est employé pour assimiler les observations de l’équivalent en eau de la neige à trois endroits sur le bassin versant de la rivière Nechako, ainsi que le débit à l’exutoire, dans le modèle hydrologique CEQUEAU. Les scénarios d’assimilation sont premièrement testés dans un cadre synthétique afin d’identifier les variables les plus susceptibles à l’assimilation des données pour la prévision hydrologique. La robustesse des scénarios d’assimilation de données est ensuite testée en introduisant un biais sur les précipitations solides. Finalement, les observations réelles sont assimilées pour vérifier l’impact réel des scénarios pour la prévision hydrologique. Les résultats montrent une amélioration variable des prévisions hydrologiques en fonction des scénarios selon plusieurs critères de performance mesurant l’exactitude, le biais et la représentativité de l’incertitude représentée par les prévisions d’ensemble. L’assimilation du débit pour la mise à jour des variables améliore principalement les prévisions à court terme, tandis que l’impact de la mise à jour de certains paramètres persiste à moyen terme. L’assimilation de l’équivalent en eau de la neige améliore les prévisions à court et moyen terme, principalement pendant la période de fonte de neige. Pour la plupart des scénarios, l’assimilation simultanée du débit et de l’équivalent en eau de la neige surpasse l’assimilation des données individuellement. Ces résultats sont cohérents entre les cadres synthétique et réel.
9

Simulation-inversion des diagraphies / Simulation-inversion of logs

Vandamme, Thibaud 12 November 2018 (has links)
L’évaluation des formations géologiques consiste en l’analyse et la synthèse de données de différentes sources, de différentes échelles (microscopique à kilométrique) et acquises à des dates très variables. Le processus conventionnel de caractérisation des formations relève alors de l’interprétation physique spécialisée de chacune de ces sources de données et leur mise en cohérence par des processus de synthèse essentiellement d’ordre statistique (corrélation, apprentissage, up-scaling…). Il s’avère cependant qu’une source de données présente un caractère central : les diagraphies. Ces mesures physiques de différentes natures (nucléaires, acoustiques, électromagnétiques…) sont réalisées le long de la paroi d’un puits à l’aide de différentes sondes. Elles sont sensibles aux propriétés in situ des roches, et ce, sur une gamme d’échelle centimétrique à métrique intermédiaire aux carottes et données de test de production. De par leur profondeur d’investigation, les données diagraphiques sont particulièrement sensibles au phénomène d’invasion de boue se produisant lors du forage dans l’abord puits. Traditionnellement, l’invasion est modélisée de façon frustre au moment de l’interprétation diagraphiques par un simple effet piston. Ce modèle simple permet d’honorer le bilan de volume mais ne prend aucunement en compte la physique réelle d’invasion et prive, de fait, les diagraphies de toute portée dynamique. Des essais de modélisation de l’historique d’invasion couplés aux données diagraphiques ont déjà été élaborés par différents laboratoires et une abondante littérature sur le sujet est disponible. Les limitations majeures de ces approches résident dans le caractère sous déterminé des problèmes inverses issus de ces modèles physiques et dans le fait que la donnée diagraphique est réalisée en général sur un intervalle de temps inadaptée au regard du développement de l’invasion. Nous proposons une approche différente qui s’attèle non pas à décrire la physique de l’écoulement mais celle de l’équilibre radial des fluides dans le domaine envahi lorsque les diagraphies sont acquises. Nous montrons qu’en introduisant quelques contraintes pétrophysiques supplémentaires, il est possible d’inverser efficacement la distribution des propriétés dynamiques pour chaque faciès géologique. L’inversion prend en compte le phénomène d’invasion radial dans la zone à eau ainsi que l’équilibre capillaire vertical caractérisant le profil de saturation dans le réservoir pour chaque facies. A chaque profondeur du puits, sont ainsi obtenues perméabilités, pressions capillaires et facteurs de cimentation avec leurs incertitudes ainsi que les lois pétrophysiques propres à chaque faciès. Cette méthode a été appliquée à deux puits réels. En guise de validation, les résultats d’inversion ont été comparés aux mesures laboratoire faites sur carotte. De plus, les perméabilités inversées ont été comparées aux transitoires de pression de mini-tests. La cohérence des résultats montre que, d’une part, les hypothèses de base du modèle sont validées et que, d’autre part, l’approche fournit une estimation fiable de grandeurs dynamiques à toute échelle pour chaque faciès réservoir, et ce, dès l’acquisition des données diagraphiques. L’approche d’inversion proposée a permis de lever une limitation majeure des précédentes tentatives de prédiction des propriétés dynamiques par les diagraphies en reconsidérant la problématique non pas sous l’angle d’une modélisation phénoménologique exacte mais en l’abordant de manière globale à l’échelle d’une chaîne d’étude complète. Cette approche permet de fait une mise en cohérence très précoce des données, d’identifier les faciès d’intérêt et de qualifier les besoins véritables en données. Cet outil s’avère très puissant pour qualifier et caractériser les hétérogénéités pétrophysiques des formations et aider ainsi à résoudre le problème de mise à l’échelle des grandeurs dynamiques / The current geological formation evaluation process is built on a workflow using data from differentsources, different scales (microscopic to kilometric) and acquired at different times. Theconventional process of formation evaluation belongs to the dedicated study of each of thesesource of data and their reconciliation through a synthesis step, often based on statisticalconsideration (correlation, learning, up-scaling …). It turns out that there exists a source of datawhich is of considerable importance: logs. These physical measurements of different nature(nuclear, acoustic, electro-magnetic…) are acquired all across the well thanks to multiple probes.They are sensitive to the in situ properties of the rock on an intermediate scale between core dataand well tests (from centimeters to several meters). Because of their depth of investigation, logsare particularly sensitive to the mud filtrate invasion, a phenomenon which occurs during thedrilling in the near well-bore environment. The invasion is conventionally modeled in a rough waywith a piston effect hypothesis. This simple model allows to ensure the volume balance but doesnot take into account the physical processes of the invasion and thus prevent any estimation ofdynamic properties from log interpretation. Several attempts of simulating the complete history ofinvasion have been made by different laboratories in the past, and a rich literature is available onthis topic. The major pitfalls of these approaches come from the under-determination of theinverse problems derived from such models. Furthermore, logs are generally made in a time lapsewhich does not allow to fully characterize the process of invasion. We propose a differentapproach which does not fully describe the physics of the invasion but considers that a radialequilibrium has been reached between the fluids in the invaded zone when logs are acquired. Weshow that it is possible to efficiently invert the distribution of dynamical properties for eachgeological facies by adding some petrophysical constraints. The inversion takes into account thephenomenon of radial invasion in the water zone and the vertical capillary equilibrium describingthe water saturation profile in the reservoir for each facies. At each depth, permeabilities, capillarypressures and cementation factors are thus obtained, along with their uncertainties and thepetrophysical laws specific to each facies. This method has been applied to two wells. Weobtained good results when comparing inverted parameters to the measurements made on coresamples in laboratory. Furthermore, inverted permeabilities have also been compared topermeabilities derived from mini-tests. The consistency of the results shows that, on the one hand,the hypothesis behind our model are valid and, on the other hand, this approach can provide areliable estimation of dynamical parameters at different scales for each reservoir facies as soon asthe logs are acquired. The proposed approach allows to overcome a major limitation of theprevious attempts of the dynamical properties estimation from log interpretation. It allows areconciliation of different data and a facies recognition at an early stage of interpretation, and canindicate the real contribution of each source of data. The technique can even help in identifying theformation heterogeneities and for the petrophysical upscaling.
10

Apports de données Argo pour caractériser les erreurs modèles et contraindre les systèmes d'assimilation / Contribution of argo data to characterize model errors and data assimilation systems

Ninove, Floriane 17 November 2015 (has links)
Le programme international Argo a révolutionné l'observation globale des océans. Une flotte de plus de 3000 instruments sous-marins autonomes est en place, programmés pour fournir des mesures globales de profils de température et de salinité sur les 2000 premiers mètres de l'océan. Ces mesures sont assimilées dans des modèles océaniques conjointement aux observations satellitaires afin de décrire et prévoir l'océan. Dans cette thèse nous proposons une analyse permettant de caractériser les erreurs d'un modèle global océanique par comparaison aux données du réseau Argo. Ces erreurs sont décrites via leurs amplitudes, leurs variations régionales et temporelles ainsi que via les échelles spatiales associées. Une caractérisation des échelles spatiales à la fois pour la variabilité océanique et pour les erreurs modèles est, en particulier, menée permettant de relier la structure des erreurs modèles à celle du signal. Enfin, des techniques basées sur le contenu en information sont testées afin de pouvoir à terme mieux quantifier l'impact des observations Argo sur les systèmes d'assimilation de Mercator Océan. / The international Argo program has revolutionized the observation of the global ocean. An array of more than 3000 profiling floats is in place and provides global measurements of temperature and salinity on the first 2000 meters of the ocean. These measurements are assimilated into ocean models together with satellite observations to describe and forecast the ocean state. We propose here to characterize model errors using Argo observations. Model errors are described through their amplitude, geographical and temporal variations as well as their spatial scales. Spatial scales of both model errors and ocean signals are, in particular, estimated. This allows a comparison of model errors and ocean variability structure. Finally, techniques based on information content are tested in the longer run quantifying the impact of Argo observations in the Mercator Ocean data assimilation systems.

Page generated in 1.0431 seconds