• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 172
  • 158
  • 26
  • 17
  • 6
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 375
  • 190
  • 142
  • 90
  • 87
  • 71
  • 60
  • 57
  • 50
  • 48
  • 45
  • 41
  • 40
  • 38
  • 37
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Analyse des modèles particulaires de Feynman-Kac et application à la résolution de problèmes inverses en électromagnétisme

Giraud, François 29 May 2013 (has links)
Dans une première partie théorique, nous nous penchons sur une analyse rigoureuse des performances de l'algorithme Sequential Monte Carlo (SMC) conduisant à des résultats de type bornes L^p et inégalités de concentration. Nous abordons notamment le cas particulier des SMC associés à des schémas de température, et analysons sur ce sujet un processus à schéma adaptatif.Dans une seconde partie appliquée, nous illustrons son utilisation par la résolution de problèmes inverses concrets en électromagnétisme. Le plus important d'entre eux consiste à estimer les propriétés radioélectriques de matériaux recouvrant un objet de géométrie connue, et cela à partir de mesures de champs rétrodiffusés. Nous montrons comment l'algorithme SMC, couplé à des calculs analytiques, permet une inversion bayésienne, et fournit des estimées robustes enrichies d'estimations des incertitudes. / Sequential and Quantum Monte Carlo methods, as well as genetic type search algorithms, can be interpreted as a mean field and interacting particle approximation of Feynman-Kac models in distribution spaces. The performance of these population Monte Carlo algorithms is strongly related to the stability properties of nonlinear Feynman-Kac semigroups. In a first theoretical part, we analyze these models in terms of Dobrushin ergodic coefficients of the reference Markov transitions and the oscillations of the potential functions. Sufficient conditions for uniform concentration inequalities w.r.t. time are expressed explicitly in terms of these two quantities. We provide an original perturbation analysis that applies to annealed and adaptive FK models, yielding what seems to be the first results of this kind for these type of models. Special attention is devoted to the particular case of Boltzmann-Gibbs measures' sampling. In this context, we design an explicit way of tuning the number of Markov Chain Monte Carlo iterations with temperature schedule. We also propose and analyze an alternative interacting particle method based on an adaptive strategy to define the temperature increments. In a second, applied part, we illustrate the use of these SMC algorithms in the field of inverse problems. Mainly, the following electromagnetism (EM) inverse problem is addressed. It consists in estimating local radioelectric properties of materials recovering an object from global EM scattering measurements, at various incidences and wave frequencies. This large scale ill-posed inverse problem is explored by an intensive exploitation of an efficient 2D Maxwell solver, distributed on high performance computing machines. Applied to a large training data set, a statistical analysis reduces the problem to a simpler probabilistic metamodel, on which Bayesian inference can be performed. Considering the radioelectric properties as a hidden dynamic stochastic process, that evolves in function of the frequency, it is shown how the Sequential Monte Carlo methods can take benefit of the structure and provide local EM property estimates.
72

Quantification des processus responsables de l’accélération des glaciers émissaires par méthodes inverses / Quantifying the processes at the root of the observed acceleration of icestreams from inverse methods

Mosbeux, Cyrille 05 December 2016 (has links)
Le réchauffement climatique actuel a une conséquence directe sur la perte de masse des calottes polaires. Reproduire les mécanismes responsables de cette perte de masse et prévoir la contribution des calottes à l’élévation du niveau des océans d’ici la fin du siècle est dès lors l’un des défis majeurs de la modélisation de l’écoulement des calottes polaires. Les modèles d’écoulement permettent de réaliser de telles prévisions mais ces simulations, à court terme, sont très sensibles à leur état initial habituellement construit à partir d’observations de terrain. Malheureusement, certains paramètres comme le frottement entre la glace et le socle rocheux ainsi que la topographie basale sont souvent méconnus à cause du manque d’observations directes ou des larges incertitudes liées à ces observations. Améliorer la connaissance de ces deux paramètres à la fois pour le Groenland et l’Antarctique est donc un pré-requis pour réaliser des projections fiables. Les méthodes d’assimilation de données et les méthodes inverses permettent alors de surmonter ce problème.Cette thèse présente deux algorithmes d’assimilation de données permettant de mieux contraindre simultanément le frottement basal et la topographie basale à partir d’observations de surface. L’un des algorithmes est entièrement basé sur la méthode adjointe tandis que le second se base sur une méthode cyclique couplant l’inversion du frottement basal avec la méthode adjointe et l’inversion de la géométrie basale à l’aide de la relaxation newtonienne. Les deux algorithmes ont été implémentés dans le modèle d’écoulement de glace éléments finis Elmer/Ice et testés dans une expérience jumelle qui montre une nette amélioration de la connaissance des deux paramètres recherchés. L’application des deux algorithmes à la région de la Terre de Wilkes réduit l’incertitude liée aux conditions basales en permettant, par exemple, d’obtenir plus de détails sur la géométrie basale en comparaison avec les modèles numériques de terrain habituels. De plus la reconstruction simultanée du frottement et de la géométrie basale permet de réduire significativement les anomalies de divergence de flux habituellement obtenues lors de l’inversion du frottement seul. Nous étudions finalement l’impact des conditions basales ainsi inversées sur des simulations pronostiques afin de comparer la capacité des deux algorithmes à mieux contraindre la contribution future des calottes polaires à l’augmentation du niveau des océans. / The current global warming has direct consequences on ice-sheet mass loss. Reproducing the responsible mechanisms and forecasting the potential ice-sheets contribution to 21st century sea level rise is one of the major challenges in ice-sheet and ice flow modelling. Ice flow models are now routinely used to forecast the potential ice-sheets contribution to sea level rise. Such short term simulations are very sensitive to model initial state, usually build from field observations. However, some parameters, such as the basal friction between icesheet and bedrock as well as the basal topography, are still badly known because of a lake of direct observations or large uncertainty on measurements. Improving the knowledge of these two parameters for Greenland and Antarctica is therefore a prerequisite for making reliable projections. Data assimilation and inverse methods have been developed in order to overcome this problem. This thesis presents two different assimilation algorithms to better constrain simulaneouslybasal friction and bedrock elevation parameters using surface observations. The first algorithm is entierly based on adjoint method while the second algorithm uses a cycling method coupling inversion of basal friction with adjoint method and inversion of bedrock topography with nudging method. Both algorithms have been implemented in the finite element ice sheet and ice flow model Elmer/Ice and tested in a twin experiment showing a clear improvement of both parameters knowledge. The application of both algorithms to regions such as the Wilkes Land in Antartica reduces the uncertainty on basal conditions, for instance providing more details to the bedrock geometry when compared to usual DEM. Moreover,the reconstruction of both bedrock elevation and basal friction significantly decreases ice flux divergence anomalies when compared to classical methods where only friction is inversed. We finaly sudy the impact of such inversion on pronostic simulation in order to compare the efficiency of the two algorithms to better constrain future ice-sheet contribution to sea level rise.
73

Primena uopštenih inverza u rešavanju fazi linearnih sistema / Application of generalized inversis on solving fuzzy linear szstems

Miler Jerković Vera 14 May 2018 (has links)
<p>Predmet izučavanja doktorske disertacije jeste postavljanje univerzalne metode za rešavanje fazi linearnih sistema primenom blokovske reprezentacije uopštenih inverza matrice. Pre svega, postavljen je potreban i dovoljan uslov za ekzistenciju rešanja fazi linearnog sistema. Zatim je data tačna algebarska forma rešenja i na kraju je predstavljen efikasan algoritam.</p> / <p>Thе subject of research of thesis is setting universal method for solving fuzzy linear systems using a block representation of generalized inversis of a matrix. A necessary and sufficienf condition for the existence solutions of fuzzy linear systems is given. The exact algebraic form of any solutiof fuzzy linear system is established.</p>
74

Caractérisation large bande du comportement dynamique linéaire des structures hétérogènes viscoélastiques anisotropes : application à la table d'harmonie du piano / Wide-band characterization of the heterogeneous viscoelastic and anisotropic dynamical behavior of structures : application to the piano soundboard

Margerit, Pierre 17 December 2018 (has links)
Le présent travail, réalisé dans le cadre du projet ANR MAESSTRO, concerne le remplacement des tables d’harmonie de piano traditionnellement constituées d’épicéa par des structures composites stratifiées. Cette démarche suppose une connaissance fine des matériaux à remplacer et des matériaux de remplacement. La contribution de la thèse consiste donc en le développement d’outils de caractérisation du comportement dynamique de structures viscoélastiques anisotropes hétérogènes sur une large bande de fréquence. Dans une première partie, l’étude théorique de la propagation des ondes planes dans ces structures est étudiée. Contrairement à une approche modale classique, les conditions aux limites et chargements sont écartés du problème. Les surfaces de dispersion obtenues contiennent la signature de l’anisotropie, de l’hétérogénéité des propriétés mécaniques ou encore du comportement dissipatif de la structure. La deuxième partie est dédiée au développement d’un moyen de mesure plein-champ robotisé. Celui-ci permet la mesure du champ de vitesse tridimensionnel instantané d’une structure soumise à un chargement dynamique répétable. La définition de l’expérience est intégrée dans un environnement CAO, permettant la prise en compte des problématiques liées à l’utilisation d’un bras robot, ainsi que l’automatisation complète de la mesure. La troisième partie est consacrée à la formulation de procédures d’identification basées sur les mesures obtenues. Les paramètres d’un modèle réduit de la mesure sont identifiés par le biais d’une méthode ESPRIT originale, intégrant des développements spécifiques aux mesures plein-champ. Ces paramètres sont ensuite utilisés pour exprimer un problème aux valeurs propres inverse permettant l’identification des propriétés de la structure mesurée. La démarche est mise en œuvre dans le cadre de l’analyse modale (régime transitoire) et l’analyse en vecteurs d’onde proposée (régime permanent). Des validations expérimentales sur des poutres homogènes et plaques anisotropes sont présentées. Le manuscrit conclut par l’application des méthodes proposées à l’identification des propriétés matériau d’une table d’harmonie de piano à queue Stephen Paulello Technologies SP190// / The present work, as part of the MAESSTRO ANR project, is motivated by the replacement of wood by composite material in the design of the piano soundboard. The main focus is on the characterization of the mechanical properties of both replaced and replacement materials in a wide frequency range, taking into account anisotropy, heterogeneous and viscoelastic behavior. First, the wave propagation in such structures is investigated; boundary conditions and loads are discarded to focus on the mechanisms responsible for the energy transmission in the media. The footprint of the complex behavior of the studied structures is represented and interpreted via the dispersion surfaces. Second, a robotized setup is proposed, allowing for the measurement of the full-field instantaneous 3D velocity along the surface of structures submitted to a repeated dynamic load. Third, identification methods using this experimental data are proposed. Based on the parameters of a reduced signal model of the measurement identified with an original ESPRIT method, inverse eigenvalue problems are formulated. Both transient and steady regime are investigated, respectively through modal analysis and the proposed wavevector analysis. The proposed methods are validated through applications on homogeneous beams and anisotropic plates. Finally, the overall proposed procedure is applied for the identification of the material properties of the soundboard of the Stephen Paulello technologies SP190// grand piano
75

Restoration super-resolution of image sequences : application to TV archive documents / Restauration super-résolution de séquences d'images : applications aux documents d'archives TV

Abboud, Feriel 15 December 2017 (has links)
Au cours du dernier siècle, le volume de vidéos stockées chez des organismes tel que l'Institut National de l'Audiovisuel a connu un grand accroissement. Ces organismes ont pour mission de préserver et de promouvoir ces contenus, car, au-delà de leur importance culturelle, ces derniers ont une vraie valeur commerciale grâce à leur exploitation par divers médias. Cependant, la qualité visuelle des vidéos est souvent moindre comparée à celles acquises par les récents modèles de caméras. Ainsi, le but de cette thèse est de développer de nouvelles méthodes de restauration de séquences vidéo provenant des archives de télévision française, grâce à de récentes techniques d'optimisation. La plupart des problèmes de restauration peuvent être résolus en les formulant comme des problèmes d'optimisation, qui font intervenir plusieurs fonctions convexes mais non-nécessairement différentiables. Pour ce type de problèmes, on a souvent recourt à un outil efficace appelé opérateur proximal. Le calcul de l'opérateur proximal d'une fonction se fait de façon explicite quand cette dernière est simple. Par contre, quand elle est plus complexe ou fait intervenir des opérateurs linéaires, le calcul de l'opérateur proximal devient plus compliqué et se fait généralement à l'aide d'algorithmes itératifs. Une première contribution de cette thèse consiste à calculer l'opérateur proximal d'une somme de plusieurs fonctions convexes composées avec des opérateurs linéaires. Nous proposons un nouvel algorithme d'optimisation de type primal-dual, que nous avons nommé Algorithme Explicite-Implicite Dual par Blocs. L'algorithme proposé permet de ne mettre à jour qu'un sous-ensemble de blocs choisi selon une règle déterministe acyclique. Des résultats de convergence ont été établis pour les deux suites primales et duales de notre algorithme. Nous avons appliqué notre algorithme au problème de déconvolution et désentrelacement de séquences vidéo. Pour cela, nous avons modélisé notre problème sous la forme d'un problème d'optimisation dont la solution est obtenue à l'aide de l'algorithme explicite-implicite dual par blocs. Dans la deuxième partie de cette thèse, nous nous sommes intéressés au développement d'une version asynchrone de notre l'algorithme explicite-implicite dual par blocs. Dans cette nouvelle extension, chaque fonction est considérée comme locale et rattachée à une unité de calcul. Ces unités de calcul traitent les fonctions de façon indépendante les unes des autres. Afin d'obtenir une solution de consensus, il est nécessaire d'établir une stratégie de communication efficace. Un point crucial dans le développement d'un tel algorithme est le choix de la fréquence et du volume de données à échanger entre les unités de calcul, dans le but de préserver de bonnes performances d'accélération. Nous avons évalué numériquement notre algorithme distribué sur un problème de débruitage de séquences vidéo. Les images composant la vidéo sont partitionnées de façon équitable, puis chaque processeur exécute une instance de l'algorithme de façon asynchrone et communique avec les processeurs voisins. Finalement, nous nous sommes intéressés au problème de déconvolution aveugle, qui vise à estimer le noyau de convolution et la séquence originale à partir de la séquence dégradée observée. Nous avons proposé une nouvelle méthode basée sur la formulation d'un problème non-convexe, résolu par un algorithme itératif qui alterne entre l'estimation de la séquence originale et l'identification du noyau. Notre méthode a la particularité de pouvoir intégrer divers types de fonctions de régularisations avec des propriétés mathématiques différentes. Nous avons réalisé des simulations sur des séquences synthétiques et réelles, avec différents noyaux de convolution. La flexibilité de notre approche nous a permis de réaliser des comparaisons entre plusieurs fonctions de régularisation convexes et non-convexes, en terme de qualité d'estimation / The last century has witnessed an explosion in the amount of video data stored with holders such as the National Audiovisual Institute whose mission is to preserve and promote the content of French broadcast programs. The cultural impact of these records, their value is increased due to commercial reexploitation through recent visual media. However, the perceived quality of the old data fails to satisfy the current public demand. The purpose of this thesis is to propose new methods for restoring video sequences supplied from television archive documents, using modern optimization techniques with proven convergence properties. In a large number of restoration issues, the underlying optimization problem is made up with several functions which might be convex and non-necessarily smooth. In such instance, the proximity operator, a fundamental concept in convex analysis, appears as the most appropriate tool. These functions may also involve arbitrary linear operators that need to be inverted in a number of optimization algorithms. In this spirit, we developed a new primal-dual algorithm for computing non-explicit proximity operators based on forward-backward iterations. The proposed algorithm is accelerated thanks to the introduction of a preconditioning strategy and a block-coordinate approach in which at each iteration, only a "block" of data is selected and processed according to a quasi-cyclic rule. This approach is well suited to large-scale problems since it reduces the memory requirements and accelerates the convergence speed, as illustrated by some experiments in deconvolution and deinterlacing of video sequences. Afterwards, a close attention is paid to the study of distributed algorithms on both theoretical and practical viewpoints. We proposed an asynchronous extension of the dual forward-backward algorithm, that can be efficiently implemented on a multi-cores architecture. In our distributed scheme, the primal and dual variables are considered as private and spread over multiple computing units, that operate independently one from another. Nevertheless, communication between these units following a predefined strategy is required in order to ensure the convergence toward a consensus solution. We also address in this thesis the problem of blind video deconvolution that consists in inferring from an input degraded video sequence, both the blur filter and a sharp video sequence. Hence, a solution can be reached by resorting to nonconvex optimization methods that estimate alternatively the unknown video and the unknown kernel. In this context, we proposed a new blind deconvolution method that allows us to implement numerous convex and nonconvex regularization strategies, which are widely employed in signal and image processing
76

Détection numérique de petites imperfections de conductivité en 2D et 3D par une méthode dynamique basée sur l'équation des ondes et le contrôle géométrique

Duval, Jean-Baptiste 19 October 2009 (has links) (PDF)
Dans cette thèse, nous considérons la solution numérique, dans des domaines bornés bidimensionnels et tridimensionnels, d'un problème inverse pour la localisation d'imperfections de petits volumes contenues dans un domaine sain de conductivité différente que celle des inhomogénéités. L'identification de ces inhomogénéités repose sur une approche dynamique basée sur l'équation des ondes. Notre algorithme numérique s'appuie sur le couplage d'une solution élément fini de l'équation des ondes, d'une méthode de contrôlabilité exacte et d'une inversion de Fourier pour localiser les centres des imperfections. Une application pratique de cette technique pourrait être la localisation de mines anti-personnel ou de tumeurs. Des résultats numériques, en deux et trois dimensions, montrent la robustesse et la précision de l'approche pour retrouver des imperfections, placées aléatoirement, à partir de mesures sur la frontière complète ou sur une partie de la frontière.
77

DÉVELOPPEMENT D'ALGORITHMES D'INVERSION RAPIDES ET PROPOSITIONS RELATIVES À LA CONFIGURATION DU MONTAGE DE MESURES DANS UN CONTEXTE DE TOMOGRAPHIE MICRO-ONDES APPLIQUÉE À LA DÉTECTION DU CANCER DU SEIN

Barrière, Paul-André 15 December 2008 (has links) (PDF)
Cette thèse porte sur la tomographie micro-ondes appliquée à la détection du cancer du sein. Les aspects algorithmiques ainsi que ceux reliés à la configuration du montage de mesure y sont traités.<br /><br />Le temps nécessaire à la reconstruction d'une image étant critique pour d'éventuelles applications cliniques de la tomographie micro-ondes, nous proposons, en première partie, une série d'algorithmes qui offrent un coût de calcul diminué par rapport aux méthodes concurrentes. La méthode « current source inversion » (CSI) est utilisée comme point de départ de la réflexion. On identifie certaines faiblesses de cet algorithme et on en propose deux généralisations, plus rapides et plus robustes. Deux nouvelles familles de méthodes, s'attaquant à différents goulots d'étranglement des méthodes CSI généralisées, sont aussi proposées. Elles sont basées sur deux nouvelles formulations du problème direct. La première est mathématiquement équivalente à celle d'origine alors que la seconde est basée sur des approximations.<br /><br />En ce qui a trait à la configuration du montage de mesures, on montre que la résolution des images reconstruites peut être significativement améliorée en ayant recours à la compression du sein. On propose aussi un montage qui exploite les propriétés des guides d'ondes diélectriques. Celui-ci permet de mesurer le champ dans l'air plutôt que dans un liquide d'adaptation, ce qui ouvre la porte au développement de montages plus compacts.
78

Corrélation, indépendence et modèles inverses<br />Applications au traitement des biosignaux.

Vigneron, Vincent 17 December 2007 (has links) (PDF)
Les activités que j'ai menées depuis une dizaine d'années relèvent essentiellement du domaine du traitement du signal, mais aussi de l'analyse de données et de l'analyse numérique. Ce document ne décrit pas de façon exhaustive tous mes travaux. Il a été rédigé autour d'une idée directrice : les relations de corrélation et de dépendance qui peuvent exister entre des signaux. J'ai choisi de faire une présentation détaillée de mes travaux qui se justifie par la fait que certains d'entre eux ne sont qu'en cours de publication et que d'autres ont été publiés avec un nombre de pages volontairement réduit par l'éditeur. Il m'est ainsi plus facile de parvenir à une présentation homogène et d'inclure en certains endroits des développements complémentaires. Le point de départ est mon intérêt certain pour la résolution de problèmes inverses. Ce paradigme apparait dans divers domaines des sciences : théorie de l'information, physique statistique, thermodynamique, traitement d'images [46], etc. Nous ne nous attacherons pas ici à faire une synthèse ou des rapprochements des diverses approches inverses. On peut trouver dans les travaux de Jaynes (professeur à l'Université de Cambridge) de nombreuses réflexions sur le sujet [104]. Nous nous intéressons par contre aux outils mathématiques qui permettent de résoudre de tels problèmes.
79

Reconstruction d'images astronomiques en interférométrie optique

Meimon, Serge 21 November 2005 (has links) (PDF)
* La résolution d'un télescope est inversement proportionnelle à son diamètre,<br /> limité par la technologie actuelle à une dizaine de mètres pour des télescopes au sol, et par des contraintes d'encombrement et de poids pour des télescopes embarqués sur satellite. L'interférométrie Optique (IO) est une technique permettant de dépasser cette limite ; elle consiste à faire interférer un réseau de télescopes dits élémentaires et à enregistrer des données dont la résolution peut atteindre celle d'un « grand » télescope contenant tous ces télescopes élémentaires.<br /><br /> Cette technique observationnelle ne conduit pas directement à des images, mais à des observables interférométriques qui doivent faire l'objet d'un traitement numérique pour fournir des informations sur la source observée. Lorsque les données sont en nombre et en qualité suffisante, on peut faire réellement de l'imagerie interférométrique, c'est-a-dire produire une image de l'objet. L'imagerie interférométrique s'est considérablement développée dans le domaine des ondes radio, dans lequel de nombreuses données sont disponibles depuis les années 70, et des méthodes de traitement efficaces ont été mises au point. L'interférométrie optique conduit à des difficultés expérimentales supplémentaires et les données nécessaires a l'imagerie ne sont disponibles que depuis quelques années.Cependant, les méthodes de traitement de la radio ne peuvent être réemployées sans une évolution importante. En optique, dans le cadre de l'observation de l'espace depuis la Terre, les interférogrammes produits sont affectés par la turbulence, qui rend inexploitable les mesures de phase. Les seules informations en phase sur l'objet d'intérêt disponibles sont les clôtures de phase, qui sont indépendantes de la turbulence. Aux longueurs d'onde radio, par contre, les observables sont directement les visibilités complexes. Enfin, le nombre de données (quelques centaines de milliers) que l'on peut mesurer sur une source est en général bien plus important qu'en optique (quelques centaines de mesures).Ces travaux de thèse ont eu pour objectif de concevoir une méthode de reconstruction d'image adaptée au contexte optique, et de la valider sur des données expérimentales. Ils ont abouti à l'algorithmeWISARD (Weak-phase Interferometric Sample Alternating Reconstruction Device), qui s'appuie notamment sur :<br /> - une modélisationmyope des effets turbulents : de façon à prendre en compte le manque d'information en phase, nous introduisons des paramètres de calibration en phase qui seront estimés conjointement avec l'objet dans un cadre bayésien <br /> - une structure d'estimation alternée (inspirée des algorithmes d'autocalibration en radio-astronomie) <br /> - une modélisation fine du bruit constaté sur les observables interférométriques optiques<br /> - un choix judicieux d'a priori, permettant notamment de préserver les pics ou les bords francs de l'image.<br /><br /> Après validation sur simulations, et confrontation aux méthodes concurrentes lors d'un concours international de reconstruction d'image en aveugle, WISARD a permis de reconstruire une image de l'étoile Chi du Cygne à partir de données recueillies sur l'interféromètre IOTA.
80

Télédétection de la surface terrestre par un radiomètre imageur à synthèse d'ouverture : principes de mesure, traitement des données interférométriques et méthodes de reconstruction régularisées

Picard, Bruno 19 November 2004 (has links) (PDF)
Dans le but d'obtenir les premières mesures globales d'humidité des sols et de salinité des océans, <br />l'Agence Spatiale Européenne, à travers son programme «Exploration de la Terre» finance <br />la mission spatiale SMOS (Soil Moisture and Ocean Salinity). <br />Elle repose, pour la première fois dans le cadre de l'observation de la Terre, <br />sur l'utilisation d'un radiomètre imageur à synthèse d'ouverture, technologie initialement développée <br />en radioastronomie.<br />Cette thèse est axée sur l'étude des méthodes de reconstruction régularisée permettant, à partir des données <br />interférométriques fournies par l'instrument, d'obtenir des cartes de températures de brillance. <br /> <br />Le principe de mesure diffère de celui des instruments habituellement utilisés pour l'observation <br />de la surface terrestre. Une première partie est donc consacrée à une introduction des mécanismes <br />fondamentaux de l'interférométrie passive, à travers une étude de la chaîne de mesure, d'un rappel <br />de l'expérience des trous d'Young et des propriétés de la transformée de Fourier à deux dimensions. <br /> <br />Le traitement des données interférométriques demande un cadre géométrique et algébrique rigoureux, <br />décrit dans une seconde partie. De plus, les radiomètres à synthèse d'ouverture étant des instruments <br />à bande passante limitée, il est nécessaire de faire appel à l'apodisation pour réduire les oscillations <br />apparaissant dans les cartes reconstruites. Les fenêtres d'apodisation sont donc caractérisées pour deux <br />configurations possibles du réseau d'antennes. L'estimation des paramètres géophysiques demandant <br />le traitement de cartes de températures de brillance définies sur des grilles régulières et <br />à résolution spatiale constante, nous avons introduit dans ce but des techniques de rééchantillonnage <br />et la possibilité d'utiliser le multi-fenêtrage.<br /> <br />Le problème inverse à résoudre étant mal posé, il est important de s'assurer de l'existence <br />d'une solution unique. C'est là l'objet de l'utilisation de méthodes de reconstruction régularisées. <br />Elles sont définies et comparées dans une troisième partie. Elles sont ensuite utilisées pour caractériser <br />plusieurs problèmes intervenant dans la reconstruction d'image pour les radiomètres imageurs à synthèse d'ouverture. <br />Ainsi, l'erreur systématique, qui intervient alors même qu'aucune erreur sur les données ou sur <br />la modélisation de l'instrument n'est introduite, est expliquée et quantifiée pour deux méthodes <br />de reconstruction régularisées et pour différentes scènes observées. La propagation du bruit radiométrique <br />sur les données fait l'objet d'un travail spécifique, ainsi que l'impact des erreurs de modélisation <br />subsistant suite à une auto-caractérisation, méthode présentée ici et permettant une calibration en vol <br />des paramètres instrumentaux. L'impact de la pollution des données interférométriques par le <br />rayonnement solaire sur la télédétection des océans est ensuite étudié. Enfin, la faisabilité et <br />la robustesse de la reconstruction en mode de polarisation totale à l'aide des méthodes de <br />reconstruction régularisées sont démontrées.

Page generated in 0.0452 seconds