• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 111
  • 55
  • 10
  • 1
  • 1
  • Tagged with
  • 179
  • 179
  • 179
  • 178
  • 178
  • 178
  • 178
  • 178
  • 178
  • 172
  • 172
  • 172
  • 160
  • 160
  • 53
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Caractérisation expérimentale et modélisation de l'altération des ciments fracturés en conditions de stockage du CO2

ABDOULGHAFOUR, Halidi 18 December 2012 (has links) (PDF)
L'objectif de cette thèse était de modéliser à partir des expériences de percolation-réactive, les processus hydrodynamique et réactionnel qui gouvernent l'altération des ciments de puits. Différentes expériences ont été réalisées dans des conditions représentatives de celles du stockage du CO2. Des échantillons fracturés ont été utilisés pour injecter une saumure enrichie en CO2 à 60°C et 10MPa et à différentes pressions partielles de CO2. Le débitd'injection variait en fonction des propriétés hydrauliques de l'échantillon exposé. L'injection d'une saumure enrichie en CO2 à débit constant à travers une fracture supposée plane a permis d'étudier les modifications des propriétés hydrodynamiques et ces conséquences sur la géochimie et la microstructure du ciment altéré. L'impact dynamique de l'évolution microstructurale a été mis en évidence. Les expériences conduites sur des échantillons présentant de larges ouvertures, réalisées sur une durée de 5 h, ont montré que la perméabilité était maintenue constante le long de l'expérience. Trois couches d'altération se sont développées consécutivement à la dissolution de la portlandite et la décalcification des CSH. L'altération a entrainé la précipitation des carbonates et de la silice amorphe à proximité de la fracture. Dans le cas d'une expérience longue durée appliquant les mêmes conditions que précédemment on a observé que la croissance de la silice amorphe a entrainé la diminution de la perméabilité. Par ailleurs les expériences effectuées sur des échantillons présentant de faibles ouvertures, ont indiqué que la conversion de la portlandite en calcite conduit au colmatage de la fracture. L'évolution des assemblages de phases conduisant à la formation des carbonates et de la silice amorphe a été modélisée à partir du code géochimique GEMS. Les mécanismes de diffusion et les processus de mise en place des couches d'altération ont été étudiés à partir d'un modèle analytique et d'un modèle de transport réactif à partir du code géochimique PHREEQC.
122

Compréhension des processus magmatiques et localisation de source sismo-volcanique avec des antennes sismiques multicomposantes

Inza, Adolfo 30 May 2013 (has links) (PDF)
Dans cette thèse, nous étudions le problème de la localisation de sources sismo-volcanique, à partir des données enregistrées par des r\'seaux de capteurs composés de nouveaux sismomètres à trois composantes (3C). Nous nous concentrerons sur le volcan Ubinas, l'un des plus actifs au Pérou. Nous développons une nouvelle approche (MUSIC-3C) basée sur la méthode MUSIC permettant de retourner les 3 paramètres utiles (lenteur, azimut et incidence). Pour valider notre méthodologie, nous analysons des sources synthétiques propagées en tenant compte de la topographie du volcan Ubinas. Dans cette expérience, les données synthétiques ont été générées pour plusieurs sources situées à différentes profondeurs sous le cratère Ubinas. Nous utilisons l'algorithme MUSIC-3C pour les relocaliser. Nous traitons également des données réelles provenant d'une expérience de terrain menée sur le volcan Ubinas (Pérou) en 2009 par les équipes de recherche de l'IRD-France (Institut de Recherche pour le Développement), UCD l'Irlande (projet VOLUME) et l'Institut de Géophysique du Pérou (IGP). Nous utilisons l'algorithme MUSIC-3C pour localiser les évènements explosifs (type vulcanien), ce qui nous permet d'identifier et d'analyser les processus physiques de ces évènements. Dans la suite de cette analyse, nous avons trouvé deux sources pour chaque explosion situées à 300 m et 1100 m en dessous du fond du cratère actif. Basé sur les mécanismes éruptifs proposés pour d'autres volcans du même type, nous interprétons la position de ces sources ainsi que les limites du conduit éruptif impliqué dans le processus de fragmentation.
123

Contraintes isotopiques sur l'interprétation de l'enregistrement en nitrate dans la carotte de glace de Vostok

Erbland, Joseph 21 October 2011 (has links) (PDF)
L'ion nitrate (NO3-) présent dans les neiges Antarctiques est issus de l'oxydation des oxydes d'azote (NOx = NO + NO2) dans l'atmosphère. Aux sites de faible accumulation de neige tels que Vostok et Dôme C sur le plateau de l'Est de l'Antarctique, le nitrate n'est pas piégé de manière ultime dans la neige, ce qui limite fortement l'interprétation des enregistrements en nitrate dans les carottes de glace. Des mesures récentes de la composition isotopique en azote du nitrate (δ15N) montrent des valeurs extrêmement élevées (+339‰) dans les premiers décimètres de la neige de Dôme C. Ces valeurs ont été attribuées à la photolyse du nitrate et au recyclage important qui en résulte. Le nitrate possède, par ailleurs, une anomalie isotopique en oxygène (Δ17O) qui permet de tracer l'activité de l'ozone (O3) au cours de sa formation. Ce travail de thèse présente le premier enregistrement de la composition isotopique complète du nitrate (δ15N, Δ17O et δ18O) dans une carotte de glace : la carotte de glace de Vostok dont les 64 échantillons analysés couvrent une période de 150 000 ans. Ce jeu de données a été complété par 313 échantillons collectés entre 2007 et 2010 dans le continuum atmosphère/givre/neige au Dôme C ainsi que dans 21 puits de neige prélevés dans une zone couvrant l'essentiel de l'Est de l'Antarctique. L'analyse isotopique de ces échantillons modernes a permis de contraindre le modèle conceptuel TRANSITS développé au cours de cette thèse et dont le but est de représenter le recyclage du nitrate à l'interface entre l'atmosphère et la neige ainsi que son impact sur la composition isotopique du nitrate archivé. Les valeurs positives et élevées du δ15N du nitrate piégé dans la carotte de glace de Vostok montrent que le recyclage du nitrate a toujours eu lieu sur le plateau Antarctique au cours de la période étudiée. Les variations du flux primaire de nitrate reçu au site de Vostok estimées à l'aide du modèle TRANSITS montrent, en périodes glaciaires, un flux primaire plus important qui pourrait être lié à une dénitrification stratosphérique plus conséquente. Les valeurs de Δ17O du nitrate montrent que l'incursion d'ozone d'origine stratosphérique dans la troposphère était plus fréquente en périodes glaciaires. Nous proposons enfin que les résultats acquis dans le cadre de cette thèse pourraient permettre de mieux contraindre le cycle de l'azote sur la côte Antarctique et d'apporter des éléments d'interprétation des enregistrements en nitrate dans les carottes de glace de sites de plus forte accumulation de neige (au Groenland par exemple).
124

Contribution à l'étude des mécanismes de mise en place et d'évolution du remplissage de la Baume-Bonne (Quinson, Alpes-de-Haute-Provence, France) : Apports de l'analyse minéralogique et micromorphologique des dépôts phosphatés et des dépôts carbonatés

Mestour, Brahim 28 November 1996 (has links) (PDF)
Le remplissage Pléistocène moyen et supérieur de l'abri-grotte de la Baume-Bonne présente des transformations post-dépositionnelles profondes tant sur le plan minéralogique (néoformations) que sur le plan microstructural. Ces transformations sont variables et inégales d'une zone à l'autre et ont abouti à une perte généralisée des caractéristiques sédimentaires originelles. De ce fait, la morphologie et les faciès sédimentaires actuels sont complexes, ce qui crée d'énormes difficultés de raccords d'une zone à l'autre. A partir d'une étude minéralogique et micromorphologique, ce travail s'est intéressé à la caractérisation et au rôle de chacune de ces transformations dans l'évolution du remplissage. Sur cette base, une interprétation paléoenvironnementale et paléoclimatique des différents traits observés et un historique du remplissage et de son évolution sont proposés. L'accent est mis sur le rôle des néoformations minérales dans la perte des traits originels. Ainsi, la mise en place de la paragenèse phosphatée s'est faite aux dépens du matériel préexistant quelle que soit sa nature minéralogique (carbonatée ou silicatée ). Les mécanismes de mise en place n'ont pas de signification paléoclimatique certaine, mais possèdent une valeur paléoenvironnementale à l'échelle de la grotte. Le rôle des apports anthropiques et faunique en matières organiques et en restes osseux dans la phosphatation a été prépondérant. De même, les calcitisations secondaires se font aux dépens du matériel préexistant et n'ont qu'une signification paléoenvironnementale. Par contre, leur évolution vers des croûtes indiquerait un réchauffement du climat. L'accent est également mis sur le rôle des alternances de phases de gel et de dégel dans les restructurations et les réorganisations sédimentaires. Ces alternances provoquent la restructuration du sédiment en agrégats lamellaires ou arrondis qui sont souvent associés à des coiffes grossières et à des plages de lavages. Elles sont également responsables de la fragmentation et de la dispersion des constituants élémentaires. Ce facteur de gel-dégel est accentué par la configuration très irrégulière du substratum. L'ensemble de cette étude et les données antérieures montrent que la mise en place et l'évolution du remplissage seraient sous contrôle de facteurs morphologiques (configuration irrégulière du substratum, emplacement des dépôts vis-à-vis de l'extérieur et des parois calcaires), climatiques (principalement l'alternance de phases de gel et de dégel) et biologiques (fréquentation et apports anthropiques et fauniques). Leurs interactions variables, à la fois dans l'espace et dans le temps, donc complexes, seraient à l'origine de la complexité du remplissage de la Baume-Bonne.
125

Déformation intersismique le long de la faille de Haiyuan, Chine: Variations spatio-temporelles contraintes pas interférométrie radar

Jolivet, Romain 18 November 2011 (has links) (PDF)
Le système de failles de Haiyuan qui borde le plateau du Tibet au Nord-Est est un système majeur sénestre. Au cours du dernier siècle, deux grands séismes (M∼8) ont rompu ce système de failles : le séisme de Haiyuan en 1920 et le séisme de Gulang en 1927. A l'aide d'interférométrie radar à synthèse d'ouverture, nous analysons les variations spatiales et temporelles de la déformation intersismique au travers de la faille de Haiyuan, dans une zone étendue (150×150 km2) qui couvre l'extrémité Ouest de la rupture de 1920 et la lacune sismique de "Tianzhu". Avec une approche dite en "Small Baseline", nous traitons cinq séries temporelles d'images SAR, acquises par le satellite Envisat le long de tracks descendantes et ascen- dantes pendant la période allant de 2003 à 2009. Les cartes de vitesse moyenne de dé- formation dans la ligne de visée du satellite ainsi obtenues sont cohérentes avec un mou- vement sénestre au travers de la faille et montrent des variations latérales du gradient de vitesse dans la zone de faille. Nous inversons ces cartes de vitesse moyenne en LOS pour obtenir le taux de chargement à court terme en profondeur et la distribution du glissement dans la partie sismogène le long du plan de faille. Le taux de chargement en profondeur est d'environ 5 mm.an−1. Les sections de faille ayant rompu en 1920 et une grande partie de la lacune sismique de "Tianzhu" sont bloquées en surface. Entre ces deux sections, un segment de 35 km de long, qui montre une forte activité micro-sismique, glisse de manière asismique avec un taux de glissement horizontal qui atteint presque 5 mm.an−1. Cependant, le taux de glissement asismique le long de la partie sismogène varie le long du plan de faille et atteint localement des taux supérieurs au chargement tectonique, suggérant des variations temporelles du glissement asismique. La comparaison de profils moyens de vitesse parallèle à la faille issus de données InSAR sur les périodes 1993-1998 (données ERS) et 2003-2009 suggèrent une migration vers la surface du glissement asis- mique sur une période de 20 ans. Une analyse en séries temporelles des données Envisat, en appliquant un lissage temporel, montrent une accélération du taux de glissement asismique pendant l'année 2007. Cette accélération est précédée et a probablement été déclenchée par un séisme de magnitude 4.7 au sein même du glissement asismique. Enfin, nous étudions la relation entre l'évolution spatio-temporelle du glissement asismique en surface et la rugosité de la trace de la faille à l'aide d'une analyse multi- échelle. Nous montrons que les propriétés élastiques de la croûte cassante contrôlent la rugosité de la faille, qui exerce à son tour un contrôle sur la distribution de glissement asismique en surface. Le glissement asismique est fait de spasmes qui interagissent les uns avec les autres en suivant une loi d'échelle similaire à la loi de Gutenberg-Richter pour les séismes.
126

Des milieux polyphasiques aux milieux complexes

Cherblanc, Fabien 05 December 2008 (has links) (PDF)
Des milieux polyphasiques aux milieux complexes
127

Entre désertification et reverdissement du Sahel : Diagnostic des observations spatiales et in situ

Dardel, Cécile 29 January 2014 (has links) (PDF)
Le Sahel est une région semi-aride caractérisée par un fort gradient bioclimatique et qui est particulièrement sensible à la variabilité des précipitations. Les périodes de très forte sécheresse qui ont sévi sur l'ensemble du Sahel entre les années 1970 et 1980 ont eu des effets dévastateurs sur les écosystèmes, les populations et leurs ressources. La théorie d'une désertification du Sahel a été ravivée, ainsi que celle prédisant une avancée rapide du Sahara sur le reste du continent. Dès les années 1990, l'analyse des premiers indices de végétation satellitaires (NDVI) acquises à l'échelle du globe à une fréquence temporelle journalière a mis en évidence une nette augmentation du NDVI depuis les années 1980. On parle alors de reverdissement du Sahel. L'objectif de cette thèse est de faire la part de ce reverdissement et d'une éventuelle dégradation des écosystèmes sahéliens, sur les 30 dernières années. Les indices de végétation satellitaires basés sur les propriétés optiques de la végétation verte sont de "simples estimateurs" de la production annuelle : la validation des tendances de NDVI sur le long-terme nécessite une vérité terrain. De telles données sont très difficiles à acquérir sur des échelles spatiales compatibles avec la résolution des satellites d'observation de la Terre et sur une période de temps permettant l'analyse de tendances temporelles. Dans le cadre du projet AMMA et de projets antérieurs, nous bénéficions de séries longues de masse de la strate herbacée pour deux régions : le Gourma au Mali (1984-2011) et le Fakara au Niger (1994-2011). La confrontation des deux sources de données (NDVI GIMMS-3g et productivité végétale mesurée sur le terrain) montre que le Sahel pastoral du Gourma est marqué par un reverdissement ainsi que par une augmentation de la productivité végétale mesurée in situ. En revanche, le Sud-ouest Nigérien montre une tendance à la baisse de ces deux variables. La cohérence des données de terrain avec les observations satellitaires confirme que le NDVI peut être utilisé comme outil de détection de l'évolution des écosystèmes semi-arides sur de longues périodes de temps. A l'échelle du Sahel, des tendances au reverdissement sont mises en évidence sur la plus grande partie de la région, sur la période 1981-2011. L'analyse du RUE, le rapport de la production par le cumul de pluie, a montré que le reverdissement du Gourma est majoritairement expliqué par le rétablissement des précipitations, et que les écosystèmes sahéliens sont particulièrement résilients aux évènements climatiques extrêmes. Cette résilience, cependant, est surtout mise en évidence pour les sols profonds sableux. Des changements contradictoires sont en effet observés sur la partie du paysage constituée de sols superficiels qui connaissent une augmentation des coefficients de ruissellement et de l'érosion, provoquant parfois une dégradation du couvert végétal. Le reverdissement observé à l'échelle du Gourma doit donc être nuancé par des changements des écosystèmes pouvant toucher une petite portion du paysage (les sols superficiels). Sur le Fakara nigérien, des tendances à la dégradation du couvert herbacé sont mises en évidence par les deux sources de données et ne sont pas expliquées par les précipitations. Les changements d'occupation du sol (augmentation des superficies cultivées, raccourcissement des temps de jachère) peuvent expliquer une diminution de la fertilité du sol et donc de la capacité de production de la région. Nous n'observons donc pas de désertification du Sahel sur les 30 dernières années mais bien une reprise généralisée de la végétation qui suit globalement le rétablissement des précipitations. Cela n'exclut pas que dans certaines régions, ou à l'échelle locale, une dégradation du couvert puisse aussi être observée, comme par exemple sur les sols soumis à une forte érosion ou sur quelques terroirs agricoles, ce qui tend à réconcilier les deux théories.
128

Etude de la variabilité micro-échelle des précipitations : Application à la propagation des ondes millimétriques en SATCOM

De Montera, Louis 01 December 2008 (has links) (PDF)
Aux fréquences de la bande EHF (20-50 GHz), les gaz, les nuages et surtout la pluie provoquent un affaiblissement du signal entre les stations de télécommunication terrestres et les satellites. Les séries temporelles d'affaiblissement présentent des caractéristiques particulières, tel que des périodes de grande variabilité (hétéroscédasticité) et des queues de distributions épaisses. Leur comportement statistique est similaire à certains cours de bourse ou taux de change, ce qui suggère que des modèles de prédiction originellement développés pour des applications financières pourraient être appropriés. L'analyse statistique des séries temporelles d'affaiblissement conduit à un modèle non-linéaire de type ARIMA-GARCH. Ce modèle permet d'obtenir de meilleures performances de prédiction que les modèles existants, notamment grâce à l'estimation de la variance conditionnelle de l'erreur de prédiction.<br />Afin de prédire l'affaiblissement sur la liaison montante à partir de celui sur la liaison descendante qui opère à une fréquence différente, un modèle de similitude en fréquence a été ajouté au modèle de prédiction. La séparation des effets (gaz, nuage, pluie) est réalisée par un réseau de neurones, puis chaque composante est transposée à la fréquence voulue grâce à des coefficients de similitude spécifiques. L'incertitude sur ces coefficients de similitude implique une gestion combinée des erreurs de prédiction et des erreurs dues à la similitude.<br />Le modèle de prédiction avec similitude en fréquence a été développé avec des mesures de l'affaiblissement des balises 20/30 GHz du satellite OLYMPUS et est ensuite testé avec des données récentes de l'expérience SYRACUSE3 20/44 GHz. Les premiers résultats de cette expérience concernant les statistiques à long terme de l'affaiblissement sont ensuite présentés et comparés aux modèles standard de l'ITU. <br />Afin de mieux comprendre le lien entre l'affaiblissement et ses causes physiques, une approche basée sur les propriétés multifractales de la pluie est ensuite présentée. En effet, l'analogie entre la pluie et la finance peut être étendue, car ces deux phénomènes sont liés à des processus turbulents et possèdent des propriétés d'invariance d'échelle intéressantes. Malheureusement, l'analyse multifractale directe des séries temporelles d'affaiblissement ne donne pas de résultats satisfaisants. L'analyse multifractale est donc appliquée dans un premier temps à des séries temporelles de taux de pluie. Une évaluation de l'effet de l'intermittence pluie-non pluie sur l'analyse multifractale montre qu'elle provoque une cassure des relations d'invariance d'échelle et peut biaiser considérablement l'estimation des paramètres. L'analyse multifractale est alors réalisée évènement par évènement, c'est-à-dire avec des séries temporelles ininterrompues. Les résultats montrent que la pluie peut être modélisée par un FIF (Fractionally Integrated Flux) auquel on applique un seuil afin de reproduire l'intermittence pluie-non pluie. <br />La modélisation multifractale de la pluie est ensuite utilisée afin de simuler une liaison Terre-Satellite et de générer des séries synthétiques d'affaiblissement par la pluie. L'analyse de ces séries simulées permet de mieux comprendre pourquoi l'affaiblissement est difficile à modéliser. En particulier, bien que le champ pluie soit multifractal, les séries temporelles d'affaiblissement ne présentent pas de propriétés d'invariance d'échelle stables et peuvent même présenter un redressement du spectre de puissance aux hautes fréquences. Ces résultats montrent que le redressement du spectre observé empiriquement n'est pas dû uniquement au bruit de scintillation.
129

Étude des mécanismes de refroidissement du manteau terrestre simulés par des systèmes multi-agents

Combes, Manuel 10 November 2011 (has links) (PDF)
Le couplage entre la tectonique des plaques et la convection mantellique est généralement étudié avec des modèles numériques dans lesquels le nombre de plaques est fixé a priori. Nous présentons ici un nouvel outil : le modèle MACMA (MAnteau Convectif Multi-Agents) simule une tectonique variable dans le temps, avec des frontières de plaques mobiles dans une géométrie cylindrique 2D. Les vitesses de plaques sont calculées à partir d'un bilan de forces individuel et des mécanismes explicites sont utilisés pour simuler la dynamique des frontières de plaques, décrivant en particulier l'initiation des subductions, la migration des fosses de subduction, la rupture de lithosphère continentale (ouverture d'un océan) et la suture de plaques. La géométrie et l'état thermique du système sont ainsi mis à jour à chaque pas de temps. Dans notre modèle, le nombre de plaques tectoniques émerge donc naturellement de leur interaction. Cette approche est basée sur des systèmes multi-agents en interaction thermique et mécanique. Notre modèle met en jeu quatre types d'agents : cellules de convection, plaques lithosphériques, continents et frontières de plaques. Ces agents collectent des informations dans leur environnement pour prendre des décisions en fonction de règles de comportement incorporées dans le modèle géophysique. Le développement de cette méthode présente deux objectifs : (1) examiner dans quelle mesure des lois de comportement analytiques et empiriques peuvent affecter la dynamique des plaques, et (2) évaluer l'impact des mécanismes de surface de la tectonique des plaques sur l'évolution thermique du manteau. Nous obtenons des prédictions des forces motrices et des vitesses de plaques de la tectonique qui sont en bon accord avec les observations. De plus, notre modèle met en évidence le rôle clé joué par la distribution des âges du plancher océanique sur les fluctuations de flux de chaleur à la surface du manteau, soulignant ainsi l'importance des changements structurels à l'échelle locale (par exemple, la création d'une nouvelle dorsale océanique). D'autre part, en utilisant dans nos simulations les estimations courantes de la température et de la viscosité du manteau, la configuration actuelle des plaques correspond à une phase de décroissance du flux de chaleur, corroborant ainsi le comportement thermique déduit des reconstructions tectoniques récentes. Sur le long terme, l'histoire thermique terrestre est généralement étudiée à partir de lois d'échelle reliant le flux de chaleur surfacique à la température et à la viscosité du manteau convectif. Cependant, une telle paramétrisation du flux conduit à une divergence de la température dans le passé, quand elle est utilisée dans le bilan thermique global de la planète pour calculer l'état thermique de la Terre en remontant le temps à partir de la valeur actuelle de flux de surface. Afin d'étudier le taux de refroidissement de la Terre en utilisant des processus tectoniques explicites, nous avons mis à profit le faible temps de calcul du modèle MACMA pour étudier l'effet d'un large panel de paramètres physiques sur l'évolution thermique à long terme du système. Pour des paramètres terrestres, un taux de refroidissement moyen de 60 K par milliard d'années est obtenu sur 3 Ga, ce qui respecte les contraintes pétrologiques et rhéologiques dont disposent les géologues, sans pour autant invoquer une tectonique plus lente dans le passé, comme cela est souvent fait pour éviter la catastrophe thermique obtenue par les méthodes classiques de paramétrisation. Deux échelles de temps apparaissent donc dans l'évolution du flux de chaleur : une décroissance monotone sur le long terme (plusieurs milliards d'années) et des fluctuations de forte amplitude à court terme dues aux réarrangements structurels de la tectonique des plaques. Nous montrons que la viscosité du manteau n'est pas un paramètre clé de l'évolution thermique du système. Le taux de refroidissement de la planète dépend principalement de sa capacité à remplacer du plancher océanique vieux et isolant par une lithosphère jeune donc fine. Ainsi, les principaux paramètres de contrôle sont liés aux processus de surface, tels que le seuil de rupture continentale et l'âge critique d'initiation des subductions. Nous déduisons de cette étude que la convection mantellique seule ne peut rendre compte de la complexité du refroidissement du manteau à différentes échelles de temps, et que ce sont les processus tectoniques de surface qui contrôlent l'évolution thermique de la Terre.
130

Etude du cycle hydrologique des régions boréales et apports de l'altimétrie à large fauchée

Biancamaria, Sylvain 08 December 2009 (has links) (PDF)
Les régions boréales seront les plus affectées par le réchauffement climatique, c'est pourquoi cette thèse s'est intéressée à l'étude du cycle hydrologique de ces régions. Une nouvelle méthodologie d'extraction du volume de neige à partir de données radiométriques sur l'ensemble des régions boréales a été validée et a permis de montrer une différence de comportement entre 1988 et 2006 sur les variations du volume de neige de l'Eurasie et celui de l'Amérique du Nord. L'étude des variations de volume des eaux de surface des régions arctiques est par contre plus difficile à estimer avec les données satellitaires actuelles. C'est pourquoi un nouveau projet de satellite, la mission SWOT (Surface Water and Ocean Topography), a été proposé qui vise à fournir des cartes de hauteurs d'eau sur l'ensemble du globe. L'apport de cette mission à l'étude des régions arctiques a été estimé en implémentant une modélisation de l'Ob inférieur, fleuve de l'Ouest sibérien, en couplant un modèle hydrologique à grande échelle et un modèle hydrodynamique d'inondations. En ajustant certains paramètres de ces modèles, il a été possible d'obtenir une modélisation réaliste du débit et des hauteurs d'eau du fleuve. L'utilisation d'un lisseur de Kalman d'ensemble local a permis de montrer que les données SWOT devraient permettre de réduire significativement (de plus de 50%) les erreurs de modélisation. L'intérêt de la mission pour l'observation du débit de l'ensemble des fleuves a aussi été estimé en se basant sur un bilan d'erreur préliminaire. L'utilisation de courbes de tarage, ainsi que la prise en compte des erreurs de mesure SWOT ont permis de montrer que ces nouvelles données devraient permettre d'estimer un débit moyen avec une erreur inférieure à 30% pour tous les fleuves ayant une profondeur de plus de 1 m. D'autre part, il a été montré que l'erreur sur l'estimation du débit mensuel due seulement à l'échantillonnage temporel de SWOT diminue avec l'aire drainée et que, pour une aire drainée supérieure à 6 900 km2, cette erreur devrait être inférieure à 20%. Enfin, une méthodologie simple a permis de calculer que la variation annuelle totale du volume de l'ensemble des lacs est de l'ordre de 9 000 km3. Les données spatiales actuelles ne peuvent pas en observer plus de 15%. Selon notre estimation, SWOT quant à lui devrait pouvoir mesurer entre 50% et 65% de cette variation de volume.

Page generated in 0.0904 seconds