• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 100
  • 75
  • 13
  • 1
  • Tagged with
  • 183
  • 183
  • 91
  • 76
  • 47
  • 40
  • 39
  • 36
  • 33
  • 32
  • 29
  • 29
  • 25
  • 23
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

hp-Adaptive Simulation and Inversion of Magnetotelluric Measurements / Simulation et inversion des mesures magnétotelluriques par hp adaptabilité

Alvarez Aramberri, Julen 18 December 2015 (has links)
La magnéto-tellurique (MT) (Cagniard 1953, Tikhonov 1950) est une technique d'exploration de la Terre basée sur des mesures de champs électromagnétiques (EM). Une source naturelle (non artificielle) harmonique en temps et située dans l'ionosphère (Weaver 1994) produit un champ EM régi par les équations de Maxwell. Les champs électromagnétiques sont enregistrés par plusieurs récepteurs placés sur la surface de la Terre. Ces mesures sont utilisées pour produire une image du sous-sol à partir d'un procédé d'inversion utilisant des méthodes numériques. Nous utilisons la méthode hp-FEM résultant d'une extension du travail de Demkowicz 2005. Nous avons développé un logiciel qui résout, pour la première fois, le problème MT avec des éléments finis auto-adaptatifs. La méthode hp-FEM permet des raffinements locaux, à la fois en taille h et en ordre p sur les éléments, ce qui est un avantage notoire puisque la combinaison de ces deux types de critères permet de mieux capter la présence de singularités, fournissant ainsi des erreurs de discrétisation faible. C'est donc une méthode très précise dont la convergence est exponentielle (Gui and Babuska 1986, Babuska and Guo 1996). En raison des défis d'implémentation encore non résolus (Demkowicz et al. 2002) et de la complexité technique des calculs hp-FEM en 3D, nous nous limitons, dans ce travail, à des calculs en 1D et 2D.Le domaine de calcul est tronqué par un matériau absorbant (Perfectly Matched Layer PML, Berenger 1994), qui est conçu pour s'adapter automatiquement aux propriétés physiques des matériaux. En particulier, il s'ajuste efficacement à l'interface air-sol, où le contraste entre la conductivité des matériaux atteint jusqu'à seize ordres de grandeur. Dans cette thèse, nous présentons également des résultats préliminaires pour la mise en place d'une technique dimensionnelle adaptative plus connue sous le nom de DAM (Dimensionally Adaptive Method (DAM)). Lorsque la distribution de la résistivité du sous-sol dépend de multiples variables spatiales, une analyse correcte de la dimensionnalité (Ledo 2005, Martí et al. 2009, Weaver and Agarwal 2000) rend parfois possible de considérer les différentes régions avec des dimensions spatiales différentes. Par exemple, il est parfois possible d’interpréter la distribution comme une formation unidimensionnelle plus quelques hétérogénéités en 2D (ou 3D). Basée sur cette interprétation, la DAM tire profit d’une telle situation. Ainsi, l'idée principale de cette méthode est d'effectuer l'adaptativité sur la dimension spatiale en commençant par un problème de faible dimension et en utilisant les résultats obtenus pour minimiser le coût des problèmes de dimension supérieure. Nous commençons l'inversion avec un modèle 1D. Les résultats de ce problème d'inversion 1D sont utilisés comme information a priori sur les modèles de dimension supérieure. Un avantage fondamental de cette approche est que nous pouvons utiliser les solutions des problèmes de dimension inférieure précédemment calculées comme composantes du terme de régularisation associé à un problème de dimension supérieure afin d'augmenter la robustesse de l'inversion. Cette thèse propose également une analyse numérique rigoureuse de divers aspects des problèmes MT. En particulier, nous avons: (a) étudié l'effet de la source, (b) effectué une analyse fréquentielle de sensibilité, (c) illustré l'augmentation du taux de convergence lorsque l'adaptativité hp est employée, (d) séparé les effets 1D et 2D dans la solution numérique et (e) exploré l'intérêt de considérer différentes variables pour effectuer l'inversion. / The magnetotelluric (MT) method is a passive exploration technique that aims at estimating the resistivity distribution of the Earth's subsurface, and therefore at providing an image of it. This process is divided into two different steps. The first one consists in recording the data. In a second step, recorded measurements are analyzed by employing numerical methods. This dissertation focuses in this second task. We provide a rigorous mathematical setting in the context of the Finite Element Method (FEM) that helps to understand the MT problem and its inversion process. In order to recover a map of the subsurface based on 2D MT measurements, we employ for the first time in Mts a multi-goal oriented self adaptive hp-Finite Element Method (FEM). We accurately solve both the full formulation as well as a secondary field formulation where the primary field is given by the solution of a 1D layered media. To truncate the computational domain, we design a Perfectly Matched Layer (PML) that automatically adapts to high-contrast material properties that appear within the subsurface and on the air-ground interface. For the inversion process, we develop a first step of a Dimensionally Adaptive Method (DAM) by considering the dimension of the problem as a variable in the inversion. Additionally, this dissertation supplies a rigorous numerical analysis for the forward and inverse problems. Regarding the forward modelization, we perform a frequency sensitivity analysis, we study the effect of the source, the convergence of the hp-adaptivity, or the effect of the PML in the computation of the electromagnetic fields and impedance. As far as the inversion is concerned, we study the impact of the selected variable for the inversion process, the different information that each mode provides,and the gains of the DAM approach.
92

Vers la résolution "optimale" de problèmes inverses non linéaires parcimonieux grâce à l'exploitation de variables binaires sur dictionnaires continus : applications en astrophysique / Towards an "optimal" solution for nonlinear sparse inverse problems using binary variables on continuous dictionaries : applications in Astrophysics

Boudineau, Mégane 01 February 2019 (has links)
Cette thèse s'intéresse à la résolution de problèmes inverses non linéaires exploitant un a priori de parcimonie ; plus particulièrement, des problèmes où les données se modélisent comme la combinaison linéaire d'un faible nombre de fonctions non linéaires en un paramètre dit de " localisation " (par exemple la fréquence en analyse spectrale ou le décalage temporel en déconvolution impulsionnelle). Ces problèmes se reformulent classiquement en un problème d'approximation parcimonieuse linéaire (APL) en évaluant les fonctions non linéaires sur une grille de discrétisation arbitrairement fine du paramètre de localisation, formant ainsi un " dictionnaire discret ". Cependant, une telle approche se heurte à deux difficultés majeures. D'une part, le dictionnaire provenant d'une telle discrétisation est fortement corrélé et met en échec les méthodes de résolution sous-optimales classiques comme la pénalisation L1 ou les algorithmes gloutons. D'autre part, l'estimation du paramètre de localisation, appartenant nécessairement à la grille de discrétisation, se fait de manière discrète, ce qui entraîne une erreur de modélisation. Dans ce travail nous proposons des solutions pour faire face à ces deux enjeux, d'une part via la prise en compte de la parcimonie de façon exacte en introduisant un ensemble de variables binaires, et d'autre part via la résolution " optimale " de tels problèmes sur " dictionnaire continu " permettant l'estimation continue du paramètre de localisation. Deux axes de recherches ont été suivis, et l'utilisation des algorithmes proposés est illustrée sur des problèmes de type déconvolution impulsionnelle et analyse spectrale de signaux irrégulièrement échantillonnés. Le premier axe de ce travail exploite le principe " d'interpolation de dictionnaire ", consistant en une linéarisation du dictionnaire continu pour obtenir un problème d'APL sous contraintes. L'introduction des variables binaires nous permet de reformuler ce problème sous forme de " programmation mixte en nombres entiers " (Mixed Integer Programming - MIP) et ainsi de modéliser de façon exacte la parcimonie sous la forme de la " pseudo-norme L0 ". Différents types d'interpolation de dictionnaires et de relaxation des contraintes sont étudiés afin de résoudre de façon optimale le problème grâce à des algorithmes classiques de type MIP. Le second axe se place dans le cadre probabiliste Bayésien, où les variables binaires nous permettent de modéliser la parcimonie en exploitant un modèle de type Bernoulli-Gaussien. Ce modèle est étendu (modèle BGE) pour la prise en compte de la variable de localisation continue. L'estimation des paramètres est alors effectuée à partir d'échantillons tirés avec des algorithmes de type Monte Carlo par Chaîne de Markov. Plus précisément, nous montrons que la marginalisation des amplitudes permet une accélération de l'algorithme de Gibbs dans le cas supervisé (hyperparamètres du modèle connu). De plus, nous proposons de bénéficier d'une telle marginalisation dans le cas non supervisé via une approche de type " Partially Collapsed Gibbs Sampler. " Enfin, nous avons adapté le modèle BGE et les algorithmes associés à un problème d'actualité en astrophysique : la détection d'exoplanètes par la méthode des vitesses radiales. Son efficacité sera illustrée sur des données simulées ainsi que sur des données réelles. / This thesis deals with solutions of nonlinear inverse problems using a sparsity prior; more specifically when the data can be modelled as a linear combination of a few functions, which depend non-linearly on a "location" parameter, i.e. frequencies for spectral analysis or time-delay for spike train deconvolution. These problems are generally reformulated as linear sparse approximation problems, thanks to an evaluation of the nonlinear functions at location parameters discretised on a thin grid, building a "discrete dictionary". However, such an approach has two major drawbacks. On the one hand, the discrete dictionary is highly correlated; classical sub-optimal methods such as L1- penalisation or greedy algorithms can then fail. On the other hand, the estimated location parameter, which belongs to the discretisation grid, is necessarily discrete and that leads to model errors. To deal with these issues, we propose in this work an exact sparsity model, thanks to the introduction of binary variables, and an optimal solution of the problem with a "continuous dictionary" allowing a continuous estimation of the location parameter. We focus on two research axes, which we illustrate with problems such as spike train deconvolution and spectral analysis of unevenly sampled data. The first axis focusses on the "dictionary interpolation" principle, which consists in a linearisation of the continuous dictionary in order to get a constrained linear sparse approximation problem. The introduction of binary variables allows us to reformulate this problem as a "Mixed Integer Program" (MIP) and to exactly model the sparsity thanks to the "pseudo-norm L0". We study different kinds of dictionary interpolation and constraints relaxation, in order to solve the problem optimally thanks to MIP classical algorithms. For the second axis, in a Bayesian framework, the binary variables are supposed random with a Bernoulli distribution and we model the sparsity through a Bernoulli-Gaussian prior. This model is extended to take into account continuous location parameters (BGE model). We then estimate the parameters from samples drawn using Markov chain Monte Carlo algorithms. In particular, we show that marginalising the amplitudes allows us to improve the sampling of a Gibbs algorithm in a supervised case (when the model's hyperparameters are known). In an unsupervised case, we propose to take advantage of such a marginalisation through a "Partially Collapsed Gibbs Sampler." Finally, we adapt the BGE model and associated samplers to a topical science case in Astrophysics: the detection of exoplanets from radial velocity measurements. The efficiency of our method will be illustrated with simulated data, as well as actual astrophysical data.
93

Towards Reducing Structural Interpretation Uncertainties Using Seismic Data / Vers la réduction des incertitudes d'interprétation structurale à l'aide de données sismiques

Irakarama, Modeste 25 April 2019 (has links)
Les modèles géologiques sont couramment utilisés pour estimer les ressources souterraines, pour faire des simulations numériques, et pour évaluer les risques naturels ; il est donc important que les modèles géologiques représentent la géométrie des objets géologiques de façon précise. La première étape pour construire un modèle géologique consiste souvent à interpréter des surfaces structurales, telles que les failles et horizons, à partir d'une image sismique ; les objets géologiques identifiés sont ensuite utilisés pour construire le modèle géologique par des méthodes d'interpolation. Les modèles géologiques construits de cette façon héritent donc les incertitudes d'interprétation car une image sismique peut souvent supporter plusieurs interprétations structurales. Dans ce manuscrit, j'étudie le problème de réduire les incertitudes d'interprétation à l'aide des données sismiques. Particulièrement, j'étudie le problème de déterminer, à l'aide des données sismiques, quels modèles sont plus probables que d'autres dans un ensemble des modèles géologiques cohérents. Ce problème sera connu par la suite comme "le problème d'évaluation des modèles géologiques par données sismiques". J'introduis et formalise ce problème. Je propose de le résoudre par génération des données sismiques synthétiques pour chaque interprétation structurale dans un premier temps, ensuite d'utiliser ces données synthétiques pour calculer la fonction-objectif pour chaque interprétation ; cela permet de classer les différentes interprétations structurales. La difficulté majeure d'évaluer les modèles structuraux à l'aide des données sismiques consiste à proposer des fonctions-objectifs adéquates. Je propose un ensemble de conditions qui doivent être satisfaites par la fonction-objectif pour une évaluation réussie des modèles structuraux à l'aide des données sismiques. Ces conditions imposées à la fonction-objectif peuvent, en principe, être satisfaites en utilisant les données sismiques de surface (« surface seismic data »). Cependant, en pratique il reste tout de même difficile de proposer et de calculer des fonctions-objectifs qui satisfassent ces conditions. Je termine le manuscrit en illustrant les difficultés rencontrées en pratique lorsque nous cherchons à évaluer les interprétations structurales à l'aide des données sismiques de surface. Je propose une fonction-objectif générale faite de deux composants principaux : (1) un opérateur de résidus qui calcule les résidus des données, et (2) un opérateur de projection qui projette les résidus de données depuis l'espace de données vers l'espace physique (le sous-sol). Cette fonction-objectif est donc localisée dans l'espace car elle génère des valeurs en fonction de l'espace. Cependant, je ne suis toujours pas en mesure de proposer une implémentation pratique de cette fonction-objectif qui satisfasse les conditions imposées pour une évaluation réussie des interprétations structurales ; cela reste un sujet de recherche. / Subsurface structural models are routinely used for resource estimation, numerical simulations, and risk management; it is therefore important that subsurface models represent the geometry of geological objects accurately. The first step in building a subsurface model is usually to interpret structural features, such as faults and horizons, from a seismic image; the identified structural features are then used to build a subsurface model using interpolation methods. Subsurface models built this way therefore inherit interpretation uncertainties since a single seismic image often supports multiple structural interpretations. In this manuscript, I study the problem of reducing interpretation uncertainties using seismic data. In particular, I study the problem of using seismic data to determine which structural models are more likely than others in an ensemble of geologically plausible structural models. I refer to this problem as "appraising structural models using seismic data". I introduce and formalize the problem of appraising structural interpretations using seismic data. I propose to solve the problem by generating synthetic data for each structural interpretation and then to compute misfit values for each interpretation; this allows us to rank the different structural interpretations. The main challenge of appraising structural models using seismic data is to propose appropriate data misfit functions. I derive a set of conditions that have to be satisfied by the data misfit function for a successful appraisal of structural models. I argue that since it is not possible to satisfy these conditions using vertical seismic profile (VSP) data, it is not possible to appraise structural interpretations using VSP data in the most general case. The conditions imposed on the data misfit function can in principle be satisfied for surface seismic data. In practice, however, it remains a challenge to propose and compute data misfit functions that satisfy those conditions. I conclude the manuscript by highlighting practical issues of appraising structural interpretations using surface seismic data. I propose a general data misfit function that is made of two main components: (1) a residual operator that computes data residuals, and (2) a projection operator that projects the data residuals from the data-space into the image-domain. This misfit function is therefore localized in space, as it outputs data misfit values in the image-domain. However, I am still unable to propose a practical implementation of this misfit function that satisfies the conditions imposed for a successful appraisal of structural interpretations; this is a subject for further research.
94

Restauration d'images de la rétine corrigées par optique adaptative

Chenegros, Guillaume 06 November 2008 (has links) (PDF)
L'imagerie de la rétine, in vivo et à haute résolution, est rendue difficile à cause des aberrations de l'œil, qui limitent la résolution. La mesure et la correction de ces aberrations sont possibles grâce à l'utilisation de l'optique adaptative (OA). Un banc d'imagerie rétinienne avec OA a été développé par l'Observatoire de Paris et est actuellement utilisé sur un panel de patients à l'Hôpital des XV-XX à Paris. <br />En imagerie plein champ, le caractère tridimensionnel de l'objet d'intérêt (la rétine) rend l'interprétation des images difficile puisque tous les plans qui constituent l'objet contribuent à la formation de chaque plan image. De plus, la correction par OA est toujours partielle. Il est donc nécessaire de déconvoluer les images enregistrées afin d'une part de séparer numériquement les plans de l'objet et d'autre part, d'améliorer la résolution latérale. Une méthode de déconvolution nécessite généralement, pour donner des résultats satisfaisants, d'une part une bonne connaissance de la réponse impulsionnelle (RI) du système complet, et d'autre part un ajustement de paramètres de réglage appelés hyper-paramètres. <br />Nous avons développé deux méthodes de déconvolution 3D. La première méthode suppose la RI du système connu. La deuxième est une extension tridimensionnelle de la méthode de diversité de phase et permet d'estimer la RI du système conjointement à l'objet d'intérêt. <br />Par ailleurs, nous avons développé une technique d'estimation non supervisée (« automatique ») des <br />hyper-paramètres, qui permet d'envisager une utilisation efficace de la déconvolution 3D même par des <br />utilisateurs peu familiers du traitement des images tels que médecins ou biologistes. <br />Ces méthodes ont été validées d'abord sur des données simulées réalistes. Ensuite nous avons déve- <br />loppé à l'ONERA un banc d'imagerie 3D pour effectuer une validation expérimentale. Nous présenterons <br />les résultats préliminaires obtenus sur des images acquises sur ce banc.
95

Exploitation de corrélations spatiales et temporelles en tomographie par émission de positrons

Sureau, Florent 26 June 2008 (has links) (PDF)
Nous proposons, implémentons et évaluons dans cette thèse des algorithmes permettant d'améliorer la résolution spatiale dans les images et débruiter les données en tomographie par émission de positrons. Ces algorithmes ont été employés pour des reconstructions sur une caméra à haute résolution (HRRT) et utilisés dans le cadre d'études cérébrales, mais la méthodologie développée peut être appliquée à d'autres caméras et dans d'autres situations. Dans un premier temps, nous avons développé une méthode de reconstruction itérative intégrant un modèle de résolution spatiale isotropique et stationnaire dans l'espace image, mesuré expérimentalement. Nous avons évalué les apports de cette méthode sur simulation Monte-Carlo, examens physiques et protocoles cliniques en la comparant à un algorithme de reconstruction de référence. Cette étude suggère une réduction des biais de quantification, en particulier dans l'étude clinique, et de meilleures corrélations spatialles et temporelles au niveau des voxels. Cependant, d'autres méthodes doivent être employées pour réduire le niveau de bruit dans les données. Dans un second temps, une approche de débruitage maximum a posteriori adaptée aux données dynamiques et permettant de débruiter temporellement les données d'acquisition (sinogrammes) ou images reconstruites a été proposé. L'a priori a été introduit en modélisant les coefficients dans une base d'ondelettes de l'ensemble des signaux recherchés (images ou sinogrammes). Nous avons comparé cette méthode à une méthode de débruitage de référence sur des simulations répliquées, ce qui illustre l'intérêt de l'approche de débruitage des sinogrammes.
96

TRAITEMENT STATISTIQUE DU SIGNAL SPECTROMETRIQUE :<br />Etude du désempilement de spectre en énergie pour la spectrométrie gamma

Trigano, Thomas 15 December 2005 (has links) (PDF)
Dans le cadre de la spectrométrie Gamma, on s'intéresse à la caractérisation des éléments radioactifs d'une source à partir des photons gamma émis par cette dernière. A des taux de comptage élevés, des perturbations liées à l'aspect stochastique du signal étudié sont susceptibles de gêner l'identification des éléments radioactifs. En particulier, les arrivées aléatoires des photons sont susceptibles de produire des empilements. Ce phénomène introduit une distortion du spectre en énergie, notamment l'apparition de faux pics multiples et une distortion du continuum Compton qui peut masquer des pics de faible intensité.<br /><br />L'objectif de cette étude est de corriger les distortions des spectres en énergie causées par les empilements d'impulsions photoniques. Nous nous plaçons pour cela dans un cadre non-paramétrique ; nous établissons une relation non-linéaire entre la loi des observations et la densité de probabilité que l'on cherche à estimer. Elle permet de considérer ce problème dans le cadre de la déconvolution non-linéaire de densités et de l'estimation non-paramétrique à partir de mesures indirectes.<br /><br />A partir de cette relation, nous proposons un estimateur obtenu par inversion directe. Nous montrons que cet estimateur est consistant et que sa vitesse de convergence au sens de la norme L2 est proche des vitesses non-paramétriques usuelles.<br /><br />Nous illustrons ces aspects par des résultats numériques obtenus sur des simulations et des spectres en énergie obtenus à partir du système ADONIS développé par le CEA Saclay. Nous montrons que les distortions dues aux empilements d'impulsions photoniques sont bien corrigées par les algorithmes dérivant de nos estimateurs.
97

Méthodes de Monte Carlo en Vision Stéréoscopique

Senegas, Julien 13 September 2002 (has links) (PDF)
Cette thèse a pour objet l'étude de l'incertitude attachée à l'estimation de la géometrie d'une scène à partir d'un couple stéréoscopique d'images. La mise en correspondance des points homologues d'un couple suppose la similarité locale des deux images et nécessite une information radiométrique discriminante. Dans de nombreuses situations cependant (déformations géométriques, bruit d'acquisition, manque de contraste, ....), ces hypothèses sont mises en défaut et les erreurs d'appariemment qui en résultent dépendent fortement de l'information contenue dans le couple et non du sytème stéréoscopique lui-meme. <br />Afin d'aborder ce problème, nous proposons un cadre bayésien et l'application de méthodes de Monte Carlo par chaînes de Markov. Celles-ci consistent à simuler la distribution conditionnelle du champ de disparité connaissant le couple stéréoscopique et permettent de déterminer les zones où des erreurs importantes peuvent apparaitre avec une probabilité éventuellement faible. Différents modèles stochastiques sont comparés et testés a partir de scènes stéréoscopiques SPOT, et nous donnons quelques pistes pour étendre ces modèles à d'autres types d'images. Nous nous intéressons également au probleme de l'estimation des paramètres de ces modèles et proposons un certain nombre d'algorithmes permettant une estimation automatique. Enfin, une part importante du travail est consacrée à l'étude d'algorithmes de simulation reposant sur la théorie des chaînes de Markov. L'apport essentiel réside dans l'extension de l'algorithme de Metropolis-Hastings dans une perspective multi-dimensionnelle. Une application performante reposant sur l'utilisation de la loi gaussienne est donnée. De plus, nous montrons comment le recours à des techniques d'échantillonnage d'importance permet de diminuer efficacement le temps de calcul.
98

Modélisation mathématique et assimilation de données lagrangiennes pour l'océanographie

Nodet, Maëlle 18 November 2005 (has links) (PDF)
Dans ce travail nous nous sommes intéressés à des problèmes de modélisation et d'assimilation de données en océanographie, tant d'un point de vue théorique que numérique. L'étude de l'océan est cruciale pour de nombreuses raisons (changement climatique, météorologie, navigation commerciale et militaire, etc.). Dans une première partie nous étudions les équations primitives linéaires tridimensionnelles de l'océan, et nous donnons des résultats nouveaux de régularité en calculant explicitement le terme de pression. Dans une deuxième partie nous étudions l'assimilation variationnelle de données lagrangiennes dans un modèle d'océan. L'assimilation de données est l'ensemble des méthodes qui permettent de combiner de façon optimale, en vue d'effectuer des prévisions, deux sortes d'informations disponibles sur un système physique : les observations d'une part et les équations du modèle d'autre part. Nous utilisons une méthode variationnelle pour assimiler des données lagrangiennes, à savoir les positions de flotteurs dérivant dans l'océan. Nous commençons par établir de nouvelles estimations a priori pour les équations primitives afin d'étudier le problème théorique de contrôle optimal associé. Puis nous décrivons l'implémentation de la méthode variationnelle dans un modèle réaliste d'océan aux équations primitives. Enfin nous effectuons de nombreuses expériences numériques et notamment plusieurs études de sensibilité, qui montrent que l'assimilation de données lagrangiennes est techniquement réalisable et pertinente d'un point de vue océanographique.
99

Contribution à l'analyse et à l'approximation des problèmes d'identification, de reconstruction et des systèmes d'équations elliptiques non linéaires

Nachaoui, Abdeljalil 12 June 2002 (has links) (PDF)
Ce travail est divisé en deux axes de recherches. Le premier axe concerne l'étude de quelques systèmes d'équations aux dérivées partielles non linéaires issus de la modélisation macroscopique des composants semi-conducteurs. Le deuxième axe de recherche est consacré à l'étude de quelques problèmes d'identification. Nous nous intéressons en particulier à deux types de problèmes d'identification. Le premier concerne la reconstruction des données sur le bord pour des problèmes elliptiques. Le deuxième type de problèmes auquel nous nous sommes intéressés est celui de l'identification des frontières dans des problèmes gouvernés par des équations elliptiques.
100

Trois problèmes inverses en glaciologie

Rommelaere, Vincent 23 September 1997 (has links) (PDF)
Les questions que se pose le glaciologue peuvent souvent être identifiées à des problèmes inverses. C'est ce qui est illustré dans ce travail à travers trois exemples: * Reconstruction des températures du passé : nous essayons de combiner l'information donnée par la composition isotopique de la glace et le profil de température mesuré à Vostok (Antarctique). Cette approche suggère que le profil de température ne permet pas de donner de meilleure estimation de la température du dernier stade glaciaire à Vostok que le thermomètre isotopique classique. * Reconstruction de la composition de l'atmosphère du passé: lors de la transformation de la neige en glace, des bulles d'air de composition voisine de celle de l'atmosphère sont emprisonnées dans la porosité de la glace. Différents processus naturels peuvent altérer la composition de la bulle et l'interprétation des mesures n'est pas immédiate. Nous proposons ici une méthode de déconvolution du signal atmosphérique prenant en compte les phénomènes de diffusion et de gravitation dans le névé polaire. Nous appliquons ensuite cette méthode à l'interprétation des mesures de méthane, CFCs et rapport isotopique du méthane dans le névé et la glace. * Reconstruction des propriétés rhéologiques de la glace à grande échelle : les iceshelves (plates-formes de glace flottantes) constituent avec les ice-streams (fleuves de glace) les éléments dynamiques de la calotte Antarctique. Leur rhéologie est un paramètre important à prendre en compte pour prédire l'évolution de la géométrie de la calotte Antarctique. Nous montrons comment retrouver ce paramètre critique à partir d'un modèle d'écoulement et de mesures de terrain, puis nous fournissons une carte de viscosité apparente du Ross Ice Shelf (Antarctique de l'Ouest). Les techniques d'inversion décrites dans ce travail sont classiques dans de nombreux domaines de la géophysique, mais elles sont peu connues en glaciologie. En les appliquant sous une forme simplifiée, nous nous sommes efforcés de montrer ce qu'elles peuvent apporter à la glaciologie et quelles sont leurs limites.

Page generated in 0.0752 seconds