• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 105
  • 45
  • 10
  • 1
  • Tagged with
  • 161
  • 161
  • 74
  • 49
  • 35
  • 35
  • 34
  • 24
  • 21
  • 20
  • 20
  • 19
  • 18
  • 17
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Extraction et débruitage de signaux ECG du foetus.

Niknazar, Mohammad 07 November 2013 (has links) (PDF)
Les malformations cardiaques congénitales sont la première cause de décès liés à une anomalie congénitale. L''electrocardiogramme du fœtus (ECGf), qui est censé contenir beaucoup plus d'informations par rapport aux méthodes échographiques conventionnelles, peut ˆêtre mesuré'e par des électrodes sur l'abdomen de la mère. Cependant, il est tr'es faible et mélangé avec plusieurs sources de bruit et interférence y compris l'ECG de la mère (ECGm) dont le niveau est très fort. Dans les études précédentes, plusieurs méthodes ont été proposées pour l'extraction de l'ECGf à partir des signaux enregistrés par des électrodes placées à la surface du corps de la mère. Cependant, ces méthodes nécessitent un nombre de capteurs important, et s'avèrent inefficaces avec un ou deux capteurs. Dans cette étude trois approches innovantes reposant sur une paramétrisation algébrique, statistique ou par variables d'état sont proposées. Ces trois méthodes mettent en œuvre des modélisations différentes de la quasi-périodicité du signal cardiaque. Dans la première approche, le signal cardiaque et sa variabilité sont modélisés par un filtre de Kalman. Dans la seconde approche, le signal est découpé en fenêtres selon les battements, et l'empilage constitue un tenseur dont on cherchera la décomposition. Dans la troisième approche, le signal n'est pas modélisé directement, mais il est considéré comme un processus Gaussien, caractérisé par ses statistiques à l'ordre deux. Dans les différentes modèles, contrairement aux études précédentes, l'ECGm et le (ou les) ECGf sont modélisés explicitement. Les performances des méthodes proposées, qui utilisent un nombre minimum de capteurs, sont évaluées sur des données synthétiques et des enregistrements réels, y compris les signaux cardiaques des fœtus jumeaux.
82

Rejeu de chemin et localisation monoculaire : Application du Visual SLAM sur carte peu dense en environnement extérieur contraint.

Thomas, Féraud 09 December 2011 (has links) (PDF)
Dans le cadre de la robotique mobile en environnement extérieur, les concepts de localisation et de perception sont au coeur de toute réalisation. Aussi, les travaux menés au sein de cette thèse visent à rendre plus robustes des processus de localisation existants sans pour autant augmenter de manière notable leur complexité. La problématique proposée place un robot au sein d'un environnement potentiellement dangereux avec pour objectif de suivre une trajectoire établie comme sécurisée avec une carte aussi simple que possible. De plus, des contraintes fortes sont imposées tant dans la réalisation (système peu onéreux, indétectable) que dans le résultat (une exécution temps-réel et une localisation en permanence dans une tolérance de 10 cm autour de la trajectoire de référence). Le capteur extéroceptif choisi pour mener à bien ce projet est une caméra tandis que l'estimation de la pose du véhicule à chaque instant est réalisée par un ltre de Kalman dans sa version étendue. Les principaux problèmes d'estimation résident dans la non-linéarité des modèles d'observation et les contributions apportées apportent quelques solutions : - une méthode de calcul exacte de la propagation des incertitudes de l'espace monde vers l'espace capteur (caméra) ; - une méthode de détection des principaux cas de divergence du filtre de Kalman dans le calcul de la phase de mise à jour ; - une méthode de correction du gain de Kalman. Ce projet avait deux objectifs : réaliser une fonction de localisation répondant aux contraintes fortes préalablement évoquées, et permettre à un véhicule de quitter temporairement la trajectoire de référence, suite à la prise en main de l'opérateur pour ensuite reprendre le cours normale de sa mission au plus près de la trajectoire de référence. Ce deuxième volet fait intervenir un cadre plus large dans lequel il faut, en plus de la localisation, cartographier son environnement. Cette problématique, identifiée par l'acronyme SLAM (Simultaneous Localization And Mapping), fait le lien avec les deux dernières contributions de ces travaux de thèse : - une méthode d'initialisation des points qui constitueront la carte SLAM; - une méthode pour maintenir la cohérence entre la carte de référence et la carte SLAM. Des résultats sur des données réelles, étayant chacune des contributions, sont présentés et illustrent la réalisation des deux principaux objectifs.
83

Rejeu de chemin et localisation monoculaire : application du Visual SLAM sur carte peu dense en environnement extérieur contraint

Féraud, Thomas 09 December 2011 (has links) (PDF)
Dans le cadre de la robotique mobile en environnement extérieur, les concepts de localisation et de perception sont au coeur de toute réalisation. Aussi, les travaux menés au sein de cette thèse visent à rendre plus robustes des processus de localisation existants sans pour autant augmenter de manière notable leur complexité. La problématique proposée place un robot au sein d'un environnement potentiellement dangereux avec pour objectif de suivre une trajectoire établie comme sécurisée avec une carte aussi simple que possible. De plus, des contraintes fortes sont imposées tant dans la réalisation (système peu onéreux, indétectable) que dans le résultat (une exécution temps-réel et une localisation en permanence dans une tolérance de 10 cm autour de la trajectoire de référence). Le capteur extéroceptif choisi pour mener à bien ce projet est une caméra tandis que l'estimation de la pose du véhicule à chaque instant est réalisée par un filtre de Kalman dans sa version étendue. Les principaux problèmes d'estimation résident dans la non-linéarité des modèles d'observation et les contributions apportées apportent quelques solutions : - une méthode de calcul exacte de la propagation des incertitudes de l'espace monde vers l'espace capteur (caméra) ; - une méthode de détection des principaux cas de divergence du filtre de Kalman dans le calcul de la phase de mise à jour ; - une méthode de correction du gain de Kalman. Ce projet avait deux objectifs : réaliser une fonction de localisation répondant aux contraintes fortes préalablement évoquées, et permettre à un véhicule de quitter temporairement la trajectoire de référence, suite à la prise en main de l'opérateur pour ensuite reprendre le cours normal de sa mission au plus près de la trajectoire de référence. Ce deuxième volet fait intervenir un cadre plus large dans lequel il faut, en plus de la localisation, cartographier son environnement. Cette problématique, identifiée par l'acronyme SLAM (Simultaneous Localization And Mapping), fait le lien avec les deux dernières contributions de ces travaux de thèse : - une méthode d'initialisation des points qui constitueront la carte SLAM ; - une méthode pour maintenir la cohérence entre la carte de référence et la carte SLAM. Des résultats sur des données réelles, étayant chacune des contributions, sont présentés et illustrent la réalisation des deux principaux objectifs.
84

Assimilation de données et inversion bathymétrique pour la modélisation de l'évolution des plages sableuses

Birrien, Florent 14 May 2013 (has links) (PDF)
Cette thèse présente une plateforme d'assimilation de données issues de l'imagerie vidéo et intégrée au modèle numérique d'évolution de profil de plage 1DBEACH. Le manque de jeux de données bathymétriques haute-fréquence est un des problèmes récurrents pour la modélisation morphodynamique littorale. Pourtant, des relevés topographiques réguliers sont nécessaires non seulement pour la validation de nos modèles hydro-sédimentaires mais aussi dans une perspective de prévision d'évolution morphologique de nos plages sableuses et d'évolution de la dynamique des courants de baïnes en temps réel. Les récents progrès dans le domaine de l'imagerie vidéo littorale ont permis d'envisager un moyen de suivi morphologique quasi-quotidien et bien moins coûteux que les traditionnelles campagnes de mesure. En effet, les images dérivées de la vidéo de type timex ou timestack rendent possible l'extraction de proxys bathymétriques qui permettent de caractériser et de reconstruire la morphologie de plage sous-jacente. Cependant, ces méthodes d'inversion bathymétrique directes sont limitées au cas linéaire et nécessitent, selon les conditions hydrodynamiques ambiantes, l'acquisition de données vidéo sur plusieurs heures voire plusieurs jours pour caractériser un état de plage. En réponse à ces différents points bloquants, ces travaux de thèse proposaient l'implémentation puis la validation de méthodes d'inversion bathymétrique basées sur l'assimilation dans notre modèle de différentes sources d'observations vidéo disponibles et complémentaires. A partir d'informations hétérogènes et non redondantes, ces méthodes permettent la reconstruction rapide et précise d'une morphologie de plage dans son intégralité pour ainsi bénéficier de relevés bathymétriques haute fréquence réguliers.
85

Fusion de données inertielles et magnétiques pour l’estimation de l’attitude sous contrainte énergétique d’un corps rigide accéléré / Inertial and magnetic data fusion for attitude estimation under energetic constraint for accelerated rigid body

Makni, Aida 29 March 2016 (has links)
Dans ce travail de thèse on s’intéresse à l’estimation de l’attitude d’un corps rigideen mouvement dans l’espace 3D en utilisant les quaternions comme représentation. Cetteproblématique a été largement étudiée dans la littérature sous divers domaines d’application.L’objectif de la thèse est de proposer de nouvelles méthodes de fusion de données en combinantdes mesures inertielles et magnétiques. Dans un premier temps, nous nous sommesintéressés à l’estimation de l’attitude en cas de mouvement accéléré où l’accélération linéairedu corps n’est plus négligeable devant la gravité. Deux approches ont été proposées dans cecadre. La première utilise un filtre de Kalman adaptatif pour la compensation des accélérationslinéaires. Précisément, des lois de détection ont été développées pour distinguer d’unefaçon automatique les différentes phases de mouvement (statiques et dynamiques). Ainsi, lamatrice de covariance associée à l’accélération linéaire est estimée afin d’ajuster le gain dufiltre. La deuxième approche consiste à intégrer un filtre singulier élaboré sur la base d’unnouveau modèle, dans lequel le modèle du processus est défini en se basant sur les mesuresissues de l’accéléromètre tandis que le modèle d’observation est défini par les mesures issuesdu gyromètres et du magnétomètres. Cette formulation permet de prendre en compte l’effetdes accélérations linéaires d’une manière efficace. Dans un deuxième temps, on s’est focalisésur l’estimation de l’attitude avec utilisation intermittente de gyromètres, considérés commecapteurs énergivores. Nous avons étudié dans ce cas la façon la plus adéquate afin de réduirel’acquisition des mesures de vitesse angulaire tout en gardant une qualité acceptable de l’estimationde l’attitude. Toutes les approches développées ont été validées par des simulationsnumériques ainsi que des expérimentations utilisant des données réelles. / In this PhD. thesis we deal with attitude estimation of accelerated rigid body moving in the 3D space using quaternion parameterization. This problem has been widely studied in the literature in various application areas. The main objective of the thesis is to propose new methods for data fusion to combine inertial gyros) and magnetic measurements. The first challenge concerns the attitude estimation during dynamic cases, in which external acceleration of the body is not negligible compared to the Gravity. Two main approaches are proposed in this context. Firstly, a quatenion-based adaptive Kalman filter (q-AKF) was designed in order to compensate for such external acceleration. Precisely, a smart detector is designed to decide whether the body is in static or dynamic case. Then, the covariance matrix of the external acceleration is estimated to tune the filter gain. Second, we developed descriptor filter based on a new formulation of the dynamic model where the process model is fed by accelerometer measurements while observation model is fed by gyros and magnetometer measurements. Such modeling gives rise to a descriptor system. The resulting model allows taking the external acceleration of the body into account in a very efficient way. The second challenge is related to the energy consumption issue of gyroscope, considered as the most power consuming sensor. We study the way to reduce the gyro measurements acquisition by switching on/off the sensor while maintaining an acceptable attitude estimation. The effciency of the proposed methods is evaluated by means of numerical simulations and experimental tests.
86

Thermographie infrarouge et méthodes d'inférence statistique pour la détermination locale et transitoire de termes-sources et diffusivité thermique / Thermographic measurements and inverse problems for the source-term estimation

Massard da Fonseca, Henrique 11 January 2012 (has links)
Ce travail a pour objectif de développer des techniques théoriques et expérimentales pour la détermination des propriétés thermophysiques et terme source. Deux formes de comportement temporel pour le terme source ont été étudiées : un constant et un qui varie dans le temps. La variation dans le temps a été considérée comme une pulse carrée ou une variation sinusoïdale. Deux formes d’échauffement ont été utilisées : une résistance électrique et un laser diode. Pour l’acquisition des données une caméra de thermographie par infrarouge a été utilisée. La stratégie nodale a été utilisée pour contourner le problème des grosses quantités de données générées par la caméra. Le problème direct a été résolu par différences finies, et deux approches pour la solution du problème inverse ont été utilisées, en fonction du comportement temporel du terme source. Les deux approches sont basées sur des méthodes d’inférence statistiques dans une approche Bayésienne, avec la méthode de Monte Carlo via les Chaînes de Markov pour le terme source constant, et le filtre de Kalman pour le problème dont le terme source varie dans le temps. Des manipulations contrôlées ont été faites dans un échantillon avec des propriétés thermophysiques déterminées par des méthodes classiques dans la littérature. / This work deals with the development of new theoretical and experimental techniques for the efficient estimation of thermophysical properties and source-term in micro and macro-scale. Two kinds of source term were studied: a constant and a time varying source term. The time wise variation of the source term had a sinusoidal and a pulse form. Two devices were used for the sample heating: An electrical resistance and a laser diode. For the data acquisition, an infrared camera was used, providing a full cartography of properties of the medium and also non-contact temperature measurements. The direct problem was solved by the finite differences method, and two approaches were used for the solution of the inverse problem, depending on the time varying behavior of the source term. Both approaches deal with the parameters estimation within the Bayesian framework, using the Markov Chain Monte Carlo (MCMC) method via the Metropolis Hastings (MH) algorithm for the constant source term, and the Kalman filter for the time-varying source term. The nodal strategy is presented as a method to deal with the large number of experimental data problems. Experiments were carried out in a sample with well-known thermophysical properties, determined by classical methods.
87

Assimilation de données pour l'initialisation et l'estimation de paramètres d'un modèle d'évolution de calotte polaire / Data assimilation for initialisation and parameter estimation of an ice sheet evolution model

Bonan, Bertrand 15 November 2013 (has links)
L'évolution des calottes polaires est régie à la fois par une dynamique d'écoulement complexe et par des mécanismes tel le glissement à la base, la température de la glace ou le bilan de masse en surface. De plus, de nombreuses boucles de rétroactions sont constatées entre les différents phénomènes impliquées. Tout ceci rend la modélisation de cette évolution complexe. Malgré tout, un certain nombre de modèles ont été développés dans cette optique. Ceux-ci font tous intervenir des paramètres influents qui dans certains cas sont peu ou pas connus. Ils nécessitent donc d'être correctement spécifiés. L'assimilation de données peut permettre une meilleure estimation de ces paramètres grâce à l'utilisation d'observations qui sont peu nombreuses en glaciologie. Dans cette thèse, nous nous intéressons à la mise en place de systèmes d'assimilation performants pour deux problèmes inverses concernant l'évolution des calottes polaires. Pour mieux nous concentrer sur ce point, nous avons travaillé avec un modèle d'évolution de calotte simplifié (appelé Winnie) qui, cependant, représente bien la plupart des processus complexes de la dynamique de la glace, et permet de travailler à différentes échelles de temps. Dans un premier temps, nous mettons en place une approche 4D-Var pour la reconstruction de l'évolution d'un paramètre climatique influant sur l'évolution d'une calotte sur une échelle de temps typique de 20 000 ans. Elle nécessite notamment l'écriture du code adjoint du modèle. Dans un second temps, nous nous intéressons au problème du spin-up. Ce problème de calibration du modèle pour des simulations à échelle de temps courtes (pas plus de 100 ans) consiste plus particulièrement en la reconstruction conjointe de l'état initial, de la topographie du socle rocheux et des paramètres de glissement basal. Nous développons ici une approche filtre de Kalman d'ensemble pour résoudre ce problème. / Ice sheet evolution is both driven by a complex flow dynamics and by physical mechanisms such as basal sliding, ice temperature or surface mass balance. In addition to those, many feedback loops are observed between the different implicated phenomena. That explains how complex is to model this evolution. However several models have been developed in that purpose. These models depend on influential parameters, which often are unfortunately poorly known. So they need to be correctly specified. Data assimilation can give a better estimation of these parameters thanks to observations which are quite rare in glaciology. In this thesis, we work on the setup of efficient data assimilation systems for two inverses problems involving ice sheet evolution. We work with a simplified ice sheet evolution model called Winnie in order to focus on the setup. Nevertheless Winnie takes into account the major complex processes of ice dynamics and can be used for studies with different time scales. The first part of the thesis focuses on developing a 4D-Var approach in order to retrieve the evolution of a climatic parameter for a typical time scale of 20 000 years. This approach require the implementation the adjoint code of the evolution model. In a second part, we focus on the spin-up problem. This calibration problem for short term (maximum 100 years) simulations involve retrieving jointly the initial state, the bedrock topography and basal sliding parameters. In order to solve this problem we develop an Ensemble Kalman Filter approach.
88

Modèle espace-état : estimation bayésienne du NAIRU américain

Djolaud, Guy Arnold 08 1900 (has links)
No description available.
89

Assimilation de données pour les problèmes non-Gaussiens : méthodologie et applications à la biogéochimie marine / Data assimilation for non Gaussian problems : methodology and applications to biogeochemistry

Metref, Sammy 27 November 2015 (has links)
L'assimilation de données pour les géosciences est une discipline cherchant à améliorer notre connaissance d'un système physique en se basant sur l'information issue de modèles numériques simulant ce système et sur l'information issue des mesures observant ce système. Les méthodes d'assimilation de données traditionnellement utilisées (e.g. le 4DVar ou les filtres de Kalman d'ensemble) reposent sur des hypothèses de Gaussianité des probabilités en jeu et de linéarité des modèles. Avec la complexification des modèles et des réseaux d'observations, ces hypothèses sont de plus en plus injustifiées et donc pénalisantes. Cette complexification est particulièrement forte en océanographie couplée à la biogéochimie marine.Les objectifs de cette thèse sont de mieux comprendre l'apparition des non-Gaussianités dans un problème d'estimation, d'envisager une méthode d'assimilation de données adaptée aux problèmes fortement non-Gaussiens et, dans le cadre du couplage de la dynamique océanique et de la biogéochimie marine, d'explorer la pertinence de l'utilisation de méthodes non-Gaussiennes.Dans un premier temps, une étude méthodologique est conduite. Cette étude, appuyé par des illustrations avec le modèle de Lorenz à trois variables, permet de mettre en évidence les limitations des méthodes traditionnellement utilisées, face à des problèmes non-Gaussiens. Cette étude aboutit sur le développement d'un filtre d'assimilation de données d'ensemble entièrement non-Gaussien : le Multivariate Rank Histogram Filter (MRHF).Il est montré que le MRHF est performant dans des régimes fortement non-Gaussiens (notamment dans un régime bimodal) pour un nombre de membres relativement faible.Dans un second temps, une étude numérique est conduite. Cette étude est réalisée aux travers d'expériences jumelles basées sur un modèle vertical 1D, ModECOGeL, couplant la dynamique et la biogéochimie en mer Ligure. Nous simulons différents réseaux d'observations combinant des profils in situ et des données satellites. Plusieurs méthodes d'assimilation sont alors comparées à l'aide de diagnostics d'évaluation d'ensemble avancés.Nos expériences montrent l'impact du réseau d'observations et des variables de contrôle, sur le degré de non-Gaussianité d'un problème d'estimation. Le contrôle de la partie dynamique du modèle par des observations de la dynamique à différentes fréquences est un problème quasi-Gaussien, qu'un filtre aux moindres carrés, tel l'Ensemble Transform Kalman Filter, résout bien. En revanche pour ces mêmes observations, le contrôle de la biogéochimie s'avère être un problème non-Gaussien et nécessite l'utilisation d'un filtre non-Gaussien.Enfin, il est montré que l'assimilation de la couleur de l'eau, pour le contrôle mixte de la dynamique et de la biogéochimie, est améliorée par des méthodes adaptées aux non-Gaussianités, tel l'Ensemble Kalman Filter anamorphosé. De plus, l'augmentation de la fréquence d'observation de la couleur de l'eau rend incontournable l'utilisation de filtres fondamentalement non-Gaussiens comme le MRHF. / Data assimilation for Geosciences is a discipline seeking to improve our knowledge of a physical system based on the information from numerical models simulating this system and the information from the measures observing this system. The data assimilation methods traditionally used (eg the 4DVAR or the ensemble Kalman filters) are based on assumptions of Gaussianity of the probabilities involved and linearity of the models. With the increasing complexity of models and observation networks, these assumptions are increasingly unjustified and therefore penalizing. This complexity is particularly strong in oceanography coupled with marine biogeochemistry.The objectives of this thesis are to understand the appearance of non Gaussianity in an estimation problem, to think out a data assimilation method adapted to highly non Gaussian problems and, in the coupling of ocean dynamics and marine biogeochemistry, to explore the relevance of the use of non Gaussian methods.At first, a methodological study is conducted. This study, supported by illustrations with the three variable Lorenz model, allows to highlight the limitations of traditional methods when facing non Gaussian problems. This study led to the development of a fully non Gaussian data assimilation filter : the Multivariate Rank Histogram Filter (MRHF).It is shown that the MRHF is efficient in highly non Gaussian regimes (including in a bimodal regime) for a relatively small number of members.Secondly, a numerical study is conducted. This study is conducted with twin experiments based on a 1D vertical model, ModECOGeL, coupling dynamics and biogeochemistry in the Ligurian Sea. We simulate different observation networks combining in situ profiles and satellite data. Several data assimilation methods are then compared using advanced ensemble evaluation diagnoses.Our experiments show the impact of observation networks and controled variables on the degree of non Gaussianity in an estimation problem. The control of the dynamic part of the model by observations of the dynamics at different frequencies is a quasi Gaussian problem, which a least squared filter such as the Ensemble Transform Kalman Filter solves well. In contrast, for the same observations, the control of biogeochemistry proves to be a non Gaussian problem and requires the use of a non Gaussian filter. Finally, it is shown that assimilation of ocean color data, for the joint control of the dynamic and the biogeochemistry, is improved by methods adapted for non Gaussianities such as the Anamorphosed Ensemble Kalman Filter. In addition, increasing the ocean color observation frequency makes unavoidable the use of fundamentally non Gaussian filters such as the MRHF.
90

Reconstitution de la convection du manteau terrestre par assimilation de données séquentielle / Reconstruction of Mantle Circulation Using Sequential Data Assimilation

Bocher, Marie 25 November 2016 (has links)
Cette thèse vise à proposer de nouvelles méthodes permettant de reconstruire la circulation dans le manteau terrestre et l'évolution de la tectonique de surface pour les deux cents derniers millions d'années. Nous utilisons des modèles numériques de convection mantellique dans lesquels la dynamique de surface est comparable à la tectonique terrestre. En combinant ces modèles avec des reconstructions de la tectonique des plaques il est possible d'estimerla structure et l'évolution du champ de température dans le manteau. Jusqu'à présent, l'inclusion des reconstructions de la tectonique des plaques se faisait en imposant des conditions aux limites du modèle (équilibre des forces, vitesses imposées...). Ces techniques, bien que permettant de tester la validité de différents scénarios tectoniques alternatifs, n'autorisent pas de rétroaction dynamique de la convection mantellique sur la tectonique de surface.Dans ce travail, nous avons développé des techniques d'assimilation de données permettant d'intégrer les reconstructions de la tectonique des plaques dans un modèle numérique tout en laissant se développer de manière auto-cohérente cette rétroaction. Les techniques développées permettent également de prendre en compte les incertitudes associées aux reconstructions de la tectonique des plaques et de calculer les erreurs sur l'estimation finale de la circulationmantellique.Dans un premier temps, nous avons développé un filtre de Kalman suboptimal qui permet d'estimer la structure et l'évolution de la circulation mantellique la plus probable à partir d'un modèle numérique de convection et d'une sérietemporelle d'observations de surface, ainsi que de leurs incertitudes respectives.Ce filtre a été testé sur des expériences synthétiques. Celles-ci consistent à tenter de retrouver une évolution témoin à partir d'une série temporelle de données issues de cette évolution. Ces expériences ont montré qu'il était possible, enprincipe, de reconstruire la structure et l'évolution de l'ensemble du manteau à partir d'observations de vitesses et de flux de chaleur à la surface.Dans un second temps, nous avons développé un filtre de Kalman d'ensemble. Ce filtre permet non seulement d'estimer de manière plus précise la géométrie des structures mantelliques, mais aussi les incertitudes sur cette estimation. / This dissertation focuses on the developpement of data assimilation methods to reconstruct the circulation of the Earth's mantle and the evolution of its surface tectonics for the last 200~Myrs. We use numerical models of mantle convection in which the surface dynamics is similar to the Earth's. By combining these models with plate tectonics reconstructions, it is possible to estimate the structure and evolution of the temperature field of the mantle. So far, the assimilation of plate tectonics reconstructions was done by imposing specific boundary conditions in the model (force balance, imposed velocities...). These techniques, although insightful to test the likeliness of alternative tectonic scenarios, do not allow the full expression of the dynamical feedback between mantle convection and surface tectonics. We develop sequential data assimilation techniques able to assimilate plate tectonics reconstructions in a numerical model while simultaneously letting this dynamicalfeedback develop self-consistently. Moreover, these techniques take into account errors in plate tectonics reconstructions, and compute the error on the final estimation of mantle circulation.First, we develop a suboptimal Kalman filter. This filter estimates the most likely structure and evolution of mantle circulation from a numerical model of mantle convection, a time series of surface observations and the uncertainty on both. This filter was tested on synthetic experiments. The principle of a synthetic experiment is to apply the data assimilation algorithm to a set of synthetic observations obtained from a reference run, and to then compare the obtained estimation of the evolution with the reference evolution. The synthetic experiments we conducted showed that it was possible, in principle, to reconstruct the structure and evolution of the whole mantle from surface velocities and heat flux observations.Second, we develop an Ensemble Kalman Filter. Instead of estimating the most likely evolution, an ensemble of possible evolutions are computed. This technique leads to a better estimation of the geometry of mantle structures and a more complete estimation of the uncertainties associated.

Page generated in 0.0811 seconds