Spelling suggestions: "subject:"inverse""
251 |
Sur la résolution des problèmes inverses pour les systèmes dynamiques non linéaires. Application à l'électrolocation, à l'estimation d'état et au diagnostic des éoliennesOmar, Oumayma 07 December 2012 (has links) (PDF)
Cette thèse concerne principalement la résolution des problèmes d'inversion dynamiquedans le cadre des systèmes dynamiques non linéaires. Ainsi, un ensemble de techniquesbasées sur l'utilisation des trains de mesures passées et sauvegardées sur une fenêtreglissante, a été développé. En premier lieu, les mesures sont utilisées pour générerune famille de signatures graphiques, qui constituent un outil de classification permettantde discriminer les diverses valeurs des variables à estimer pour un système non linéairedonné. Cette première technique a été appliquée à la résolution de deux problèmes : leproblème d'électolocation d'un robot doté du sens électrique et le problème d'estimationd'état dans les systèmes à dynamiques non linéaires. Outre ces deux applications, destechniques d'inversion à horizon glissant spécifiques au problème de diagnostic des défautsd'éoliennes dans le cadre d'un benchmark international ont été développées. Cestechniques sont basées sur la minimisation de critères quadratiques basés sur des modèlesde connaissance.
|
252 |
Modélisation de l'imagerie biomédicale hybride par perturbations mécaniquesSeppecher, Laurent 20 June 2014 (has links) (PDF)
Dans cette thèse, nous introduisons et développons une approche mathématiques originale des techniques d'imagerie biomédicales dites "hybrides". L'idée et d'appliquer une méthode d'imagerie mal posée, tout en perturbant le milieu à imager par des déplacements mécaniques. Ces déplacements provenant d'une équation de type onde élastique perturbent les mesures effectuées. En utilisant ces mesures perturbées, et profitant du caractère local des perturbations mécaniques, il est possible d'augmenter considérablement la résolution de la méthode de base. Le problème direct est donc un couplage d'une EDP décrivant la propagation utilisée pour la méthode de base et d'une seconde décrivant les champs de déplacement mécaniques. Dans toutes cette thèse, on fait l'hypothèse d'un milieu mécaniquement homogène afin d'assurer le contrôle et la géométrie des ondes perturbatrices utilisées. A partir des mesures perturbées, une étape d'interprétation permet de construire une donnée interne au domaine considéré. Cette étape nécessite en général l'inversion d'opérateurs géométriques intégraux de type Radon, afin d'utiliser le caractère localisant des perturbations utilisées. A partir de cette donnée interne, il est possible d'initier une procédure de reconstruction du paramètre physique recherché. Dans le chapitre 1, il est question d'un couplage entre micro-ondes et perturbations sphériques. Dans les chapitres 2, 3 et 4, nous étudions l'imagerie optique diffuse toujours couplée avec des perturbations sphériques. Enfin dans le chapitre cinq, nous donnons une méthode originale de reconstruction de la conductivité électrique par un couplage entre champs magnétique et perturbations acoustiques focalisées.
|
253 |
Contrôle non destructif via des sondes courants de Foucault : nouvelles approchesJiang, Zixian 23 January 2014 (has links) (PDF)
L'objectif principal de cette thèse est de proposer et de tester quelques méthodes de l'optimisation de forme afin d'identifier et de reconstruire des dépôts qui couvrent la paroi extérieure d'un tube conducteur dans un générateur de vapeurs en utilisant des signaux courant de Foucault. Ce problème est motivé par des applications industrielles en contrôle non-destructive dans le secteur de l'énergie nucléaire. En fait, des dépôts peuvent obstruer le passage de circuit de refroidissement entre les tubes et les plaques entretoises qui les soutiennent, ce qui entraînerait une baisse de productivité et mettrait la structure en danger. On considère dans un premier temps un cas axisymétrique dans le cadre duquel on construit un modèle 2-D par des équations aux dérivées partielles pour le courant de Foucault, ce qui nous permet ensuite de reproduire des mesures d'impédances qui correspondent en réalité les signaux courants de Foucault. Pour réduire le coût de calculs de la simulation numérique, on tronque le domaine du problème en posant des conditions aux bords artificielles basées sur des études sur le comportement de la solution, notamment sur un calcul semi-analytique de l'opérateur Dirichlet-to-Neumann dans la direction axiale. Pour la partie identification et reconstruction, on distingue deux sortes de dépôts et établit pour chacun une méthode d'inversion spécifique. Le premier cas concernent des dépôts dont la conductivité est relativement faible (d'environs 1.e4 S/m). On utilise la méthode d'optimisation de forme qui consiste à exprimer explicitement la dérivée des mesures d'impédance par rapport au domaine du dépôt en fonction d'une déformation et à représenter le gradient d'un fonctionnel de coût à minimiser par l'intermédiaire d'un état adjoint proprement défini. Motivée par la présence des dépôts et des plaques de maintient non-axisymétriques, on fait aussi une extension en 3-D des méthodes précédentes. Pour le deuxième cas, des dépôts sont fortement conducteurs et sous forme de couche mince d'une épaisseur de l'ordre de micron. La méthode adaptée à la première sorte de dépôts devient ici trop coûteuse à cause du degré de liberté très élevé des éléments finis sur un maillage extrêmement raffiné à l'échelle de la couche mince. Pour relever cette difficulté, les études sont portées sur plusieurs modèles asymptotiques qui remplace la couche mince par des conditions d'interface sur la surface du tube portante du dépôt. Le nom de modèle asymptotique vient du fait que les conditions d'interface effectives sont obtenues par le développement asymptotique de la solution en fonction d'un paramètre caractérisant la conductivité et l'épaisseur de la couche mince. La validation numérique a permis de retenir un modèle asymptotique qui est à la fois suffisamment précis et simple à inverser. L'inversion (recherche de l'épaisseur du dépôt) consiste alors à rechercher des paramètres dans les conditions d'interface (non standard). Pour les deux cas, la validation et des exemples numériques sont proposés pour le modèle direct et l'inversion.
|
254 |
Détection et caractérisation d'exoplanètes dans des images à grand contraste par la résolution de problème inverse / Detection and characterization of exoplanets in high contrast images by the inverse problem approachCantalloube, Faustine 30 September 2016 (has links)
L’imagerie d’exoplanètes permet d’obtenir de nombreuses informations sur la lumière qu’elles émettent, l’interaction avec leur environnement et sur leur nature. Afin d’extraire l’information des images, il est indispensable d’appliquer des méthodes de traitement d’images adaptées aux instruments. En particulier, il faut séparer les signaux planétaires des tavelures présentes dans les images qui sont dues aux aberrations instrumentales quasi-statiques. Dans mon travail de thèse je me suis intéressée à deux méthodes innovantes de traitement d’images qui sont fondés sur la résolution de problèmes inverses.La première méthode, ANDROMEDA, est un algorithme dédié à la détection et à la caractérisation de point sources dans des images haut contraste via une approche maximum de vraisemblance. ANDROMEDA exploite la diversité temporelle apportée par la rotation de champ de l’image (où se trouvent les objets astrophysiques) alors que la pupille (où les aberrations prennent naissance) est gardée fixe. A partir de l’application sur données réelles de l’algorithme dans sa version originale, j’ai proposé et qualifié des améliorations afin de prendre en compte les résidus non modélisés par la méthode tels que les structures bas ordres variant lentement et le niveau résiduel de bruit correlé dans les données. Une fois l’algorithme ANDROMEDA opérationnel, j’ai analysé ses performances et sa sensibilité aux paramètres utilisateurs, montrant la robustesse de la méthode. Une comparaison détaillée avec les algorithmes les plus utilisés dans la communauté a prouvé que cet algorithme est compétitif avec des performances très intéressantes dans le contexte actuel. En particulier, il s’agit de la seule méthode qui permet une détection entièrement non-supervisée. De plus, l’application à de nombreuses données ciel venant d’instruments différents a prouvé la fiabilité de la méthode et l’efficacité à extraire rapidement et systématiquement (avec un seul paramètre utilisateur à ajuster) les informations contenues dans les images. Ces applications ont aussi permis d’ouvrir des perspectives pour adapter cet outil aux grands enjeux actuels de l’imagerie d’exoplanètes.La seconde méthode, MEDUSAE, consiste à estimer conjointement les aberrations et les objets d’intérêt scientifique, en s’appuyant sur un modèle de formation d’images coronographiques. MEDUSAE exploite la redondance d’informations apportée par des images multi-spectrales. Afin de raffiner la stratégie d’inversion de la méthode et d’identifier les paramètres les plus critiques, j’ai appliqué l’algorithme sur des données générées avec le modèle utilisé dans l’inversion. J’ai ensuite appliqué cette méthode à des données simulées plus réalistes afin d’étudier l’impact de la différence entre le modèle utilisé dans l’inversion et les données réelles. Enfin, j’ai appliqué la méthode à des données réelles et les résultats préliminaires que j’ai obtenus ont permis d’identifier les informations importantes dont la méthode a besoin et ainsi de proposer plusieurs pistes de travail qui permettraient de rendre cet algorithme opérationnel sur données réelles. / Direct imaging of exoplanets provides valuable information about the light they emit, their interactions with their host star environment and their nature. In order to image such objects, advanced data processing tools adapted to the instrument are needed. In particular, the presence of quasi-static speckles in the images, due to optical aberrations distorting the light from the observed star, prevents planetary signals from being distinguished. In this thesis, I present two innovative image processing methods, both based on an inverse problem approach, enabling the disentanglement of the quasi-static speckles from the planetary signals. My work consisted of improving these two algorithms in order to be able to process on-sky images.The first one, called ANDROMEDA, is an algorithm dedicated to point source detection and characterization via a maximum likelihood approach. ANDROMEDA makes use of the temporal diversity provided by the image field rotation during the observation, to recognize the deterministic signature of a rotating companion over the stellar halo. From application of the original version on real data, I have proposed and qualified improvements in order to deal with the non-stable large scale structures due to the adaptative optics residuals and with the remaining level of correlated noise in the data. Once ANDROMEDA became operational on real data, I analyzed its performance and its sensitivity to the user-parameters proving the robustness of the algorithm. I also conducted a detailed comparison to the other algorithms widely used by the exoplanet imaging community today showing that ANDROMEDA is a competitive method with practical advantages. In particular, it is the only method that allows a fully unsupervised detection. By the numerous tests performed on different data set, ANDROMEDA proved its reliability and efficiency to extract companions in a rapid and systematic way (with only one user parameter to be tuned). From these applications, I identified several perspectives whose implementation could significantly improve the performance of the pipeline.The second algorithm, called MEDUSAE, consists in jointly estimating the aberrations (responsible for the speckle field) and the circumstellar objects by relying on a coronagraphic image formation model. MEDUSAE exploits the spectral diversity provided by multispectral data. In order to In order to refine the inversion strategy and probe the most critical parameters, I applied MEDUSAE on a simulated data set generated with the model used in the inversion. To investigate further the impact of the discrepancy between the image model used and the real images, I applied the method on realistic simulated images. At last, I applied MEDUSAE on real data and from the preliminary results obtained, I identified the important input required by the method and proposed leads that could be followed to make this algorithm operational to process on-sky data.
|
255 |
Transport optimal pour l'assimilation de données images / Optimal transportation for images data assimilationFeyeux, Nelson 08 December 2016 (has links)
Pour prédire l'évolution d'un système physique, nous avons besoin d'initialiser le modèle mathématique le représentant, donc d'estimer la valeur de l'état du système au temps initial. Cet état n'est généralement pas directement mesurable car souvent trop complexe. En revanche, nous disposons d'informations du système, prises à des temps différents, incomplètes, mais aussi entachées d'erreurs, telles des observations, de précédentes estimations, etc. Combiner ces différentes informations partielles et imparfaites pour estimer la valeur de l'état fait appel à des méthodes d'assimilation de données dont l'idée est de trouver un état initial proche de toutes les informations. Ces méthodes sont très utilisées en météorologie. Nous nous intéressons dans cette thèse à l'assimilation d'images, images qui sont de plus en plus utilisées en tant qu'observations. La spécificité de ces images est leur cohérence spatiale, l'oeil humain peut en effet percevoir des structures dans les images que les méthodes classiques d'assimilation ne considèrent généralement pas. Elles ne tiennent compte que des valeurs de chaque pixel, ce qui résulte dans certains cas à des problèmes d'amplitude dans l'état initial estimé. Pour résoudre ce problème, nous proposons de changer d'espace de représentation des données : nous plaçons les données dans un espace de Wasserstein où la position des différentes structures compte. Cet espace, équipé d'une distance de Wasserstein, est issue de la théorie du transport optimal et trouve beaucoup d'applications en imagerie notamment.Dans ce travail nous proposons une méthode d'assimilation variationnelle de données basée sur cette distance de Wasserstein. Nous la présentons ici, ainsi que les algorithmes numériques liés et des expériences montrant ses spécificités. Nous verrons dans les résultats comment elle permet de corriger ce qu'on appelle erreurs de position. / Forecasting of a physical system is computed by the help of a mathematical model. This model needs to be initialized by the state of the system at initial time. But this state is not directly measurable and data assimilation techniques are generally used to estimate it. They combine all sources of information such as observations (that may be sparse in time and space and potentially include errors), previous forecasts, the model equations and error statistics. The main idea of data assimilation techniques is to find an initial state accounting for the different sources of informations. Such techniques are widely used in meteorology, where data and particularly images are more and more numerous due to the increasing number of satellites and other sources of measurements. This, coupled with developments of meteorological models, have led to an ever-increasing quality of the forecast.Spatial consistency is one specificity of images. For example, human eyes are able to notice structures in an image. However, classical methods of data assimilation do not handle such structures because they take only into account the values of each pixel separately. In some cases it leads to a bad initial condition. To tackle this problem, we proposed to change the representation of an image: images are considered here as elements of the Wasserstein space endowed with the Wasserstein distance coming from the optimal transport theory. In this space, what matters is the positions of the different structures.This thesis presents a data assimilation technique based on this Wasserstein distance. This technique and its numerical procedure are first described, then experiments are carried out and results shown. In particularly, it appears that this technique was able to give an analysis of corrected position.
|
256 |
Contribution à la connaissance des fonds marins à l'aide de méthodes acoustiques / Some acoustical methods for the improvement of ocean bottom characterizationDemoulin, Xavier 30 October 2015 (has links)
Cette thèse est une contribution à la caractérisation des fonds sous-marins par des techniques acoustiques. On s'intéresse aux fonds sédimentaires, principalement sédiments sableux. Les fonds de sables sont en effet fréquemment rencontrés par petits fonds sous nos latitudes. Les procédés existants de caractérisation acoustique des fonds visent le plus souvent à qualifier la géométrie du sol ou du sous-sol: morphologie du fond, typologie des faciès sédimentaires, identification du toit rocheux ... Toutefois, les détails du sous-sol marin (stratification et composition des sables) nous échappent le plus souvent et on a alors recours à des sondages in-situ ponctuels, coûteux et souvent difficiles à réaliser. Afin de résoudre ce problème, nous avons développé SCAMPI (Système de Caractérisation Acoustique Marine Propagation Interface). C'est un dispositif de caractérisation géoacoustique breveté qui vise justement à réduire notre myopie chronique dans les premiers mètres des sous-sols sableux immergés en calculant des profils verticaux des vitesses du son. Le système développé est typique d'un processus d'inversion basé sur des mesures distantes et indirectes (on ne touche pas le sol). Disposer de profils de vitesses pour caractériser le sous-sol est une étape nécessaire, mais insuffisante pour les applications visées. Pour ces dernières, il s’agit notamment de déterminer si le sable est fin ou grossier, s'il est homogène ou hétérogène, s'il contient des coquilles, s'il est compacté ou pas.Pour répondre à de telles questions, il est nécessaire d'utiliser des relations entre les vitesses du son et les propriétés des matériaux granulaires. Ces relations géoacoustiques sont quasi-inexistantes pour les sables marins, surtout pour les sables grossiers. Pour constituer de nouvelles relations géoacoustiques, il est proposé d’établir des bases de données à partir de mesures in-situ des vitesses acoustiques et des analyses des échantillons de sédiments prélevés au même endroit. Pour cela, un prototype de célérimètre a été développé, INSEA (INvestigation of SEdiment by means of Acoustic), qui permet de mesurer les vitesses et l'atténuation du son dans des sédiments, y compris dans des sables grossiers. / This thesis is a contribution to the seabed exploration by means of acoustical methods. We focus on sediment seabeds, especially on sand sediments because there are often encountered off European coasts. Existing acoustic methods for seabed characterization generally aim to qualify the sub-seafloor: sediment thickness or bedrock cap detection.Nevertheless, accurate sediment stratification or details of the involved sediment are generally out of reach. This is why SCAMPI (Sub-seafloor Characterization by Acoustic Measurements & Parameters Inversion) have been have designed. This patented device is a geoacoustical inversion method based on an underwater acoustic instrumentation towed in water column. It aims to identify and characterize sediment layers over a thickness of 5-10 meters below the seabed, quantifying major physical parameters as compressional speed. But vertical sound speed profiles of the sub-seabed is a necessary step but is insufficient to predict refined information about the sediment: is it coarse, homogeneous, does it contain inclusions ..?To give answers to these questions, geoacoustical relations linking acoustic parameters to sedimentological parameters are required. But these relations are sparse, particular for coarse sands.A velocimeter prototype INSEA (INvestigation of SEdiment by means of Acoustic) have been designed, to measure in situ acoustical parameters of the first centimeters of the seafloor, even in coarse sands. This work is the preliminary work leading to a new project which consist in building specific data bases to elaborate these geoacoustical relations and theoretical modeling in granular wet media suited to marine geophysics applications.
|
257 |
Détermination des champs de température et de concentration dans un jet gazeux par mesures couplées LIDAR et spectrométriques / Remote sensing of temperature and concentration profiles of a gas jet by coupling infrared emission spectroscopy and LIDAROffret, Julien-Pierre 02 December 2015 (has links)
La connaissance et la maitrise de la température et de la concentration des produits de combustion sont des paramètres clés pour la compréhension et l’amélioration de l’efficacité des moteurs. La mesure de ces température et concentration permettrait d’améliorer les machines de combustion et de quantifier les rejets polluants dans l’air (tels que le CO, CO2, NO, NO2, SO2, les aérosols, les suies ainsi que les composés organiques volatils) qui sont des enjeux environnementaux importants. Les procédés de combustion sont inhomogènes. Les méthodes actuelles sont essentiellement des méthodes de détection et pas de quantification. Nous proposons une méthode originale de caractérisation des profils de température et concentration couplant les avantages d’une mesure active par rétrodiffusion (LIDAR-Rayleigh, Light Detection And Ranging) d’une impulsion laser fondée sur la diffusion Rayleigh avec une mesure passive par spectroscopie d’émission. La première méthode est sensible aux profils spatiaux de températures et la seconde est particulièrement sensible à la température maximale et concentration des gaz. Cette étude a été soutenue par une REI (Recherche Exploratoire et Innovation) : « Caractérisation par Émission et LIDAR d’Écoulements de Propulseurs » en collaboration avec le laboratoire FEMTO-ST de Belfort, l’ONERA et l’entreprise MBDA. / The knowledge and control of the temperature and concentration of combustion products are key parameters to understand and improve engine efficiency. The measurement of temperature and concentration will improve combustion machines and quantify the pollutant emissions in the air (such as CO, CO2, NO, NO2, SO2, aerosols, soot and volatile organic compounds) which are important environmental issues. Combustion processes are inhomogeneous. Current methods are substantially methods for the detection and not for quantification. We propose an original method based on the characterization of temperature and concentration profiles coupling the benefits of an active backscattering method (Rayleigh LIDAR, Light Detection And Ranging) of a laser pulse with passive spectroscopic measurements. The first method is based on Rayleigh scattering and is sensitive to spatial temperature profiles and the second is particularly sensitive to the maximum temperature and to gas concentration. This study was supported by REI (Exploratory Research and Innovation): " Flows thrusters characterization by emission and LIDAR " in collaboration with the FEMTO-ST laboratory located in Belfort, ONERA and the MBDA company.
|
258 |
Étude expérimentale et numérique d’un procédé de cuisson par contact direct / Experimental and numerical study of a direct contact heating processMarc, Sylvain 21 December 2017 (has links)
La cuisson par contact direct est un mode de préparation des aliments très courant à travers le monde, cependant peu d’études s’intéressent à cette problématique à l’échelle domestique. Ces travaux tentent d’apporter une contribution à l’étude des phénomènes mis en jeu durant cette opération. Ce manuscrit débute par une revue de différents facteurs impliqués lors de la cuisson : les consommations d’énergie, les types d’appareils utilisés, les phénomènes physico-chimiques intervenant dans le produit ou les problématiques de modélisation y sont abordés. Il s’en dégage qu’une donnée essentielle est la connaissance du flux de chaleur transmis au produit. Une méthode d’estimation de ce flux basée sur les techniques inverses est développée. Celle-ci a contribué à concevoir un prototype instrumenté permettant de suivre les cinétiques des températures dans la plaque chauffante et dans un élastomère simulant un produit alimentaire. Les résultats obtenus montrent que la méthode permet d’estimer le flux de chaleur transmis avec une bonne précision. Dans un second temps, une étude expérimentale de la cuisson d’une pâte céréalière d’environ 8mm d’épaisseur est présentée. Après avoir caractérisé les propriétés thermophysiques et hydriques, le prototype est utilisé pour suivre les évolutions de différents paramètres comme les températures, le flux de chaleur, la masse en dynamique, et les teneurs en eau. La répétabilité et la variabilité des résultats suivant la température initiale de la plaque sont menés. Ensuite, un modèle 1D simulant les transferts de matière et d’énergie, est utilisé pour étudier les différents facteurs intervenant lors de la cuisson. Un second modèle 2D est réalisé permettant de tester les consommations d’énergie lors d’une opération de cuisson en cadence suivant différents scénarios de conception du prototype. / Direct contact cooking is a very common way of preparing foods throughout the world, but few studies are interested in this issue at the domestic scale. This work attempts to contribute to the study of the phenomena involved during this operation. This thesis begins with a review of the various factors involved in the cooking process: energy consumption, types of appliances used, physico-chemical phenomena implied in the product or modeling problems are discussed. It emerges from this that an essential fact is the knowledge of the heat flux transmitted to the product. A method for estimating this flux based on inverse techniques is developed. This has contributed to design an instrumented prototype allowing to follow the kinetics of the temperatures in the heating plate and in an elastomer simulating a food product. The results obtained show that the method makes it possible to estimate the heat flux transmitted with a good accuracy. In a second step, an experimental study of cooking of a 8 mm thick cereal batter is presented. After having characterized the thermophysical and hydric properties, the prototype is used to monitor changes in various parameters such as temperatures, heat flux, mass in dynamics, and water contents. The repeatability and the variability of the results according to the initial temperature of the plate are carried out. Then, a 1D model simulating mass and heat transfers is used to study the different factors involved in cooking. A second 2D model is realized to test the energy consumption during a cooking operation in cadence according to different prototype design scenarios.
|
259 |
Caractérisation des propriétés thermiques de liquides semi-transparents à haute température : application aux liquides silicatés / Characterization of the thermal properties of semi-transparent liquids at high temperature : Application to molten silicatesMeulemans, Johann 20 July 2018 (has links)
Le sujet de l'étude concerne la caractérisation des propriétés thermiques de liquides semi-transparents à haute température : les liquides silicatés. La caractérisation de ces matériaux est particulièrement délicate car il faut séparer les contributions des différents modes de transfert thermique (conduction, convection et rayonnement) si l'on veut mesurer des propriétés intrinsèques. Le dispositif expérimental est basé sur une méthode pulsée de type flash. La cellule de mesure, placée au centre d'un four tubulaire, est soumise à une excitation délivrée par un laser continu et l'élévation de température est mesurée à l'aide d'un détecteur infrarouge sur la face opposée à l'excitation. La modélisation du problème direct prend en compte le couplage conducto-radiatif en résolvant l'équation de la chaleur en régime transitoire et l'équation de transfert radiatif (ETR) pour un milieu gris émettant, absorbant et non diffusant à l'aide de la méthode des harmoniques sphériques (approximation P1). La méthode développée permet d'estimer simultanément la diffusivité thermique et un coefficient d'absorption moyen (gris) par méthode inverse. Les résultats expérimentaux obtenus sur des liquides silicatés présentant des propriétés radiatives différentes (i.e., des coefficients d'absorption différents) valident la méthode de caractérisation développée et mise en œuvre dans nos travaux / The study deals with the characterization of the thermal properties of semi-transparent liquids at high temperature: molten silicates. The characterization of such materials is particularly challenging because the contributions of the different heat transfer modes (conduction, convection and radiation) should be accounted for to allow the measurement of intrinsic properties. The experimental setup is based on a transient pulse method derived from the flash method. A heat flux stimulation is generated on the front face of an experimental cell, placed at the center of a tube furnace, with a continuous laser beam and the temperature rise is measured by an infrared detector on the opposite side. The modeling of the direct problem takes into account the conducto-radiative coupling by solving both the heat equation and the radiative transfer equation (RTE) for a gray emitting, absorbing but non-scattering medium with the spherical harmonics method (P1 approximation). The developed method allows to simultaneously estimate the thermal diffusivity and a mean (gray) absorption coefficient by an inverse method. The experimental results obtained on molten silicates with different radiative properties (i.e., different absorption coefficients) validate the characterization method developed and implemented in our work
|
260 |
Efficient high-dimension gaussian sampling based on matrix splitting : application to bayesian Inversion / Échantillonnage gaussien en grande dimension basé sur le principe du matrix splitting. : application à l’inversion bayésienneBӑrbos, Andrei-Cristian 10 January 2018 (has links)
La thèse traite du problème de l’échantillonnage gaussien en grande dimension.Un tel problème se pose par exemple dans les problèmes inverses bayésiens en imagerie où le nombre de variables atteint facilement un ordre de grandeur de 106_109.La complexité du problème d’échantillonnage est intrinsèquement liée à la structure de la matrice de covariance. Pour résoudre ce problème différentes solutions ont déjà été proposées,parmi lesquelles nous soulignons l’algorithme de Hogwild qui exécute des mises à jour de Gibbs locales en parallèle avec une synchronisation globale périodique.Notre algorithme utilise la connexion entre une classe d’échantillonneurs itératifs et les solveurs itératifs pour les systèmes linéaires. Il ne cible pas la distribution gaussienne requise, mais cible une distribution approximative. Cependant, nous sommes en mesure de contrôler la disparité entre la distribution approximative est la distribution requise au moyen d’un seul paramètre de réglage.Nous comparons d’abord notre algorithme avec les algorithmes de Gibbs et Hogwild sur des problèmes de taille modérée pour différentes distributions cibles. Notre algorithme parvient à surpasser les algorithmes de Gibbs et Hogwild dans la plupart des cas. Notons que les performances de notre algorithme dépendent d’un paramètre de réglage.Nous comparons ensuite notre algorithme avec l’algorithme de Hogwild sur une application réelle en grande dimension, à savoir la déconvolution-interpolation d’image.L’algorithme proposé permet d’obtenir de bons résultats, alors que l’algorithme de Hogwild ne converge pas. Notons que pour des petites valeurs du paramètre de réglage, notre algorithme ne converge pas non plus. Néanmoins, une valeur convenablement choisie pour ce paramètre permet à notre échantillonneur de converger et d’obtenir de bons résultats. / The thesis deals with the problem of high-dimensional Gaussian sampling.Such a problem arises for example in Bayesian inverse problems in imaging where the number of variables easily reaches an order of 106_109. The complexity of the sampling problem is inherently linked to the structure of the covariance matrix. Different solutions to tackle this problem have already been proposed among which we emphasizethe Hogwild algorithm which runs local Gibbs sampling updates in parallel with periodic global synchronisation.Our algorithm makes use of the connection between a class of iterative samplers and iterative solvers for systems of linear equations. It does not target the required Gaussian distribution, instead it targets an approximate distribution. However, we are able to control how far off the approximate distribution is with respect to the required one by means of asingle tuning parameter.We first compare the proposed sampling algorithm with the Gibbs and Hogwild algorithms on moderately sized problems for different target distributions. Our algorithm manages to out perform the Gibbs and Hogwild algorithms in most of the cases. Let us note that the performances of our algorithm are dependent on the tuning parameter.We then compare the proposed algorithm with the Hogwild algorithm on a large scalereal application, namely image deconvolution-interpolation. The proposed algorithm enables us to obtain good results, whereas the Hogwild algorithm fails to converge. Let us note that for small values of the tuning parameter our algorithm fails to converge as well.Not with standing, a suitably chosen value for the tuning parameter enables our proposed sampler to converge and to deliver good results.
|
Page generated in 0.0488 seconds