Spelling suggestions: "subject:"problèmes inverses"" "subject:"problèmes converses""
111 |
Reconstruction en tomographie locale : introduction d'information à priori basse résolutionRouault-Pic, Sandrine 23 October 1996 (has links) (PDF)
Un des objectifs actuel en tomographie est de réduire la dose injectée au patient. Les nouveaux systèmes d'imagerie, intégrant des détecteurs haute résolution de petites tailles ou des sources fortement collimatées permettent ainsi de réduire la dose. Ces dispositifs mettent en avant le problème de reconstruction d'image à partir d'informations locales. Un moyen d'aborder le problème de tomographie locale est d'introduire une information à priori, afin de lever la non-unicité de la solution. Nous proposons donc de compléter les projections locales haute résolution (provenant de systèmes décrits précédemment) par des projections complètes basse résolution, provenant par exemple d'un examen scanner standard. Nous supposons que la mise en correspondance des données a été effectuée, cette partie ne faisant pas l'objet de notre travail. Nous avons dans un premier temps, adapté des méthodes de reconstruction classiques (ART, Gradient conjugué régularisé et Rétroprojection filtrée) au problème local, en introduisant dans le processus de reconstruction l'information à priori. Puis, dans un second temps, nous abordons les méthodes de reconstruction par ondelettes et nous proposons également une adaptation à notre problème. Dans tous les cas, la double résolution apparait également dans l'image reconstruite, avec une résolution plus fine dans la région d'intérêt. Enfin, étant donné le coût élevé des méthodes mises en oeuvre, nous proposons une parallélisation des algorithmes implémentés.
|
112 |
Sur la résolution des problèmes inverses pour les systèmes dynamiques non linéaires. Application à l'électrolocation, à l'estimation d'état et au diagnostic des éoliennesOmar, Oumayma 07 December 2012 (has links) (PDF)
Cette thèse concerne principalement la résolution des problèmes d'inversion dynamiquedans le cadre des systèmes dynamiques non linéaires. Ainsi, un ensemble de techniquesbasées sur l'utilisation des trains de mesures passées et sauvegardées sur une fenêtreglissante, a été développé. En premier lieu, les mesures sont utilisées pour générerune famille de signatures graphiques, qui constituent un outil de classification permettantde discriminer les diverses valeurs des variables à estimer pour un système non linéairedonné. Cette première technique a été appliquée à la résolution de deux problèmes : leproblème d'électolocation d'un robot doté du sens électrique et le problème d'estimationd'état dans les systèmes à dynamiques non linéaires. Outre ces deux applications, destechniques d'inversion à horizon glissant spécifiques au problème de diagnostic des défautsd'éoliennes dans le cadre d'un benchmark international ont été développées. Cestechniques sont basées sur la minimisation de critères quadratiques basés sur des modèlesde connaissance.
|
113 |
Modélisation de l'imagerie biomédicale hybride par perturbations mécaniquesSeppecher, Laurent 20 June 2014 (has links) (PDF)
Dans cette thèse, nous introduisons et développons une approche mathématiques originale des techniques d'imagerie biomédicales dites "hybrides". L'idée et d'appliquer une méthode d'imagerie mal posée, tout en perturbant le milieu à imager par des déplacements mécaniques. Ces déplacements provenant d'une équation de type onde élastique perturbent les mesures effectuées. En utilisant ces mesures perturbées, et profitant du caractère local des perturbations mécaniques, il est possible d'augmenter considérablement la résolution de la méthode de base. Le problème direct est donc un couplage d'une EDP décrivant la propagation utilisée pour la méthode de base et d'une seconde décrivant les champs de déplacement mécaniques. Dans toutes cette thèse, on fait l'hypothèse d'un milieu mécaniquement homogène afin d'assurer le contrôle et la géométrie des ondes perturbatrices utilisées. A partir des mesures perturbées, une étape d'interprétation permet de construire une donnée interne au domaine considéré. Cette étape nécessite en général l'inversion d'opérateurs géométriques intégraux de type Radon, afin d'utiliser le caractère localisant des perturbations utilisées. A partir de cette donnée interne, il est possible d'initier une procédure de reconstruction du paramètre physique recherché. Dans le chapitre 1, il est question d'un couplage entre micro-ondes et perturbations sphériques. Dans les chapitres 2, 3 et 4, nous étudions l'imagerie optique diffuse toujours couplée avec des perturbations sphériques. Enfin dans le chapitre cinq, nous donnons une méthode originale de reconstruction de la conductivité électrique par un couplage entre champs magnétique et perturbations acoustiques focalisées.
|
114 |
Contrôle non destructif via des sondes courants de Foucault : nouvelles approchesJiang, Zixian 23 January 2014 (has links) (PDF)
L'objectif principal de cette thèse est de proposer et de tester quelques méthodes de l'optimisation de forme afin d'identifier et de reconstruire des dépôts qui couvrent la paroi extérieure d'un tube conducteur dans un générateur de vapeurs en utilisant des signaux courant de Foucault. Ce problème est motivé par des applications industrielles en contrôle non-destructive dans le secteur de l'énergie nucléaire. En fait, des dépôts peuvent obstruer le passage de circuit de refroidissement entre les tubes et les plaques entretoises qui les soutiennent, ce qui entraînerait une baisse de productivité et mettrait la structure en danger. On considère dans un premier temps un cas axisymétrique dans le cadre duquel on construit un modèle 2-D par des équations aux dérivées partielles pour le courant de Foucault, ce qui nous permet ensuite de reproduire des mesures d'impédances qui correspondent en réalité les signaux courants de Foucault. Pour réduire le coût de calculs de la simulation numérique, on tronque le domaine du problème en posant des conditions aux bords artificielles basées sur des études sur le comportement de la solution, notamment sur un calcul semi-analytique de l'opérateur Dirichlet-to-Neumann dans la direction axiale. Pour la partie identification et reconstruction, on distingue deux sortes de dépôts et établit pour chacun une méthode d'inversion spécifique. Le premier cas concernent des dépôts dont la conductivité est relativement faible (d'environs 1.e4 S/m). On utilise la méthode d'optimisation de forme qui consiste à exprimer explicitement la dérivée des mesures d'impédance par rapport au domaine du dépôt en fonction d'une déformation et à représenter le gradient d'un fonctionnel de coût à minimiser par l'intermédiaire d'un état adjoint proprement défini. Motivée par la présence des dépôts et des plaques de maintient non-axisymétriques, on fait aussi une extension en 3-D des méthodes précédentes. Pour le deuxième cas, des dépôts sont fortement conducteurs et sous forme de couche mince d'une épaisseur de l'ordre de micron. La méthode adaptée à la première sorte de dépôts devient ici trop coûteuse à cause du degré de liberté très élevé des éléments finis sur un maillage extrêmement raffiné à l'échelle de la couche mince. Pour relever cette difficulté, les études sont portées sur plusieurs modèles asymptotiques qui remplace la couche mince par des conditions d'interface sur la surface du tube portante du dépôt. Le nom de modèle asymptotique vient du fait que les conditions d'interface effectives sont obtenues par le développement asymptotique de la solution en fonction d'un paramètre caractérisant la conductivité et l'épaisseur de la couche mince. La validation numérique a permis de retenir un modèle asymptotique qui est à la fois suffisamment précis et simple à inverser. L'inversion (recherche de l'épaisseur du dépôt) consiste alors à rechercher des paramètres dans les conditions d'interface (non standard). Pour les deux cas, la validation et des exemples numériques sont proposés pour le modèle direct et l'inversion.
|
115 |
Détection et caractérisation d'exoplanètes dans des images à grand contraste par la résolution de problème inverse / Detection and characterization of exoplanets in high contrast images by the inverse problem approachCantalloube, Faustine 30 September 2016 (has links)
L’imagerie d’exoplanètes permet d’obtenir de nombreuses informations sur la lumière qu’elles émettent, l’interaction avec leur environnement et sur leur nature. Afin d’extraire l’information des images, il est indispensable d’appliquer des méthodes de traitement d’images adaptées aux instruments. En particulier, il faut séparer les signaux planétaires des tavelures présentes dans les images qui sont dues aux aberrations instrumentales quasi-statiques. Dans mon travail de thèse je me suis intéressée à deux méthodes innovantes de traitement d’images qui sont fondés sur la résolution de problèmes inverses.La première méthode, ANDROMEDA, est un algorithme dédié à la détection et à la caractérisation de point sources dans des images haut contraste via une approche maximum de vraisemblance. ANDROMEDA exploite la diversité temporelle apportée par la rotation de champ de l’image (où se trouvent les objets astrophysiques) alors que la pupille (où les aberrations prennent naissance) est gardée fixe. A partir de l’application sur données réelles de l’algorithme dans sa version originale, j’ai proposé et qualifié des améliorations afin de prendre en compte les résidus non modélisés par la méthode tels que les structures bas ordres variant lentement et le niveau résiduel de bruit correlé dans les données. Une fois l’algorithme ANDROMEDA opérationnel, j’ai analysé ses performances et sa sensibilité aux paramètres utilisateurs, montrant la robustesse de la méthode. Une comparaison détaillée avec les algorithmes les plus utilisés dans la communauté a prouvé que cet algorithme est compétitif avec des performances très intéressantes dans le contexte actuel. En particulier, il s’agit de la seule méthode qui permet une détection entièrement non-supervisée. De plus, l’application à de nombreuses données ciel venant d’instruments différents a prouvé la fiabilité de la méthode et l’efficacité à extraire rapidement et systématiquement (avec un seul paramètre utilisateur à ajuster) les informations contenues dans les images. Ces applications ont aussi permis d’ouvrir des perspectives pour adapter cet outil aux grands enjeux actuels de l’imagerie d’exoplanètes.La seconde méthode, MEDUSAE, consiste à estimer conjointement les aberrations et les objets d’intérêt scientifique, en s’appuyant sur un modèle de formation d’images coronographiques. MEDUSAE exploite la redondance d’informations apportée par des images multi-spectrales. Afin de raffiner la stratégie d’inversion de la méthode et d’identifier les paramètres les plus critiques, j’ai appliqué l’algorithme sur des données générées avec le modèle utilisé dans l’inversion. J’ai ensuite appliqué cette méthode à des données simulées plus réalistes afin d’étudier l’impact de la différence entre le modèle utilisé dans l’inversion et les données réelles. Enfin, j’ai appliqué la méthode à des données réelles et les résultats préliminaires que j’ai obtenus ont permis d’identifier les informations importantes dont la méthode a besoin et ainsi de proposer plusieurs pistes de travail qui permettraient de rendre cet algorithme opérationnel sur données réelles. / Direct imaging of exoplanets provides valuable information about the light they emit, their interactions with their host star environment and their nature. In order to image such objects, advanced data processing tools adapted to the instrument are needed. In particular, the presence of quasi-static speckles in the images, due to optical aberrations distorting the light from the observed star, prevents planetary signals from being distinguished. In this thesis, I present two innovative image processing methods, both based on an inverse problem approach, enabling the disentanglement of the quasi-static speckles from the planetary signals. My work consisted of improving these two algorithms in order to be able to process on-sky images.The first one, called ANDROMEDA, is an algorithm dedicated to point source detection and characterization via a maximum likelihood approach. ANDROMEDA makes use of the temporal diversity provided by the image field rotation during the observation, to recognize the deterministic signature of a rotating companion over the stellar halo. From application of the original version on real data, I have proposed and qualified improvements in order to deal with the non-stable large scale structures due to the adaptative optics residuals and with the remaining level of correlated noise in the data. Once ANDROMEDA became operational on real data, I analyzed its performance and its sensitivity to the user-parameters proving the robustness of the algorithm. I also conducted a detailed comparison to the other algorithms widely used by the exoplanet imaging community today showing that ANDROMEDA is a competitive method with practical advantages. In particular, it is the only method that allows a fully unsupervised detection. By the numerous tests performed on different data set, ANDROMEDA proved its reliability and efficiency to extract companions in a rapid and systematic way (with only one user parameter to be tuned). From these applications, I identified several perspectives whose implementation could significantly improve the performance of the pipeline.The second algorithm, called MEDUSAE, consists in jointly estimating the aberrations (responsible for the speckle field) and the circumstellar objects by relying on a coronagraphic image formation model. MEDUSAE exploits the spectral diversity provided by multispectral data. In order to In order to refine the inversion strategy and probe the most critical parameters, I applied MEDUSAE on a simulated data set generated with the model used in the inversion. To investigate further the impact of the discrepancy between the image model used and the real images, I applied the method on realistic simulated images. At last, I applied MEDUSAE on real data and from the preliminary results obtained, I identified the important input required by the method and proposed leads that could be followed to make this algorithm operational to process on-sky data.
|
116 |
Transport optimal pour l'assimilation de données images / Optimal transportation for images data assimilationFeyeux, Nelson 08 December 2016 (has links)
Pour prédire l'évolution d'un système physique, nous avons besoin d'initialiser le modèle mathématique le représentant, donc d'estimer la valeur de l'état du système au temps initial. Cet état n'est généralement pas directement mesurable car souvent trop complexe. En revanche, nous disposons d'informations du système, prises à des temps différents, incomplètes, mais aussi entachées d'erreurs, telles des observations, de précédentes estimations, etc. Combiner ces différentes informations partielles et imparfaites pour estimer la valeur de l'état fait appel à des méthodes d'assimilation de données dont l'idée est de trouver un état initial proche de toutes les informations. Ces méthodes sont très utilisées en météorologie. Nous nous intéressons dans cette thèse à l'assimilation d'images, images qui sont de plus en plus utilisées en tant qu'observations. La spécificité de ces images est leur cohérence spatiale, l'oeil humain peut en effet percevoir des structures dans les images que les méthodes classiques d'assimilation ne considèrent généralement pas. Elles ne tiennent compte que des valeurs de chaque pixel, ce qui résulte dans certains cas à des problèmes d'amplitude dans l'état initial estimé. Pour résoudre ce problème, nous proposons de changer d'espace de représentation des données : nous plaçons les données dans un espace de Wasserstein où la position des différentes structures compte. Cet espace, équipé d'une distance de Wasserstein, est issue de la théorie du transport optimal et trouve beaucoup d'applications en imagerie notamment.Dans ce travail nous proposons une méthode d'assimilation variationnelle de données basée sur cette distance de Wasserstein. Nous la présentons ici, ainsi que les algorithmes numériques liés et des expériences montrant ses spécificités. Nous verrons dans les résultats comment elle permet de corriger ce qu'on appelle erreurs de position. / Forecasting of a physical system is computed by the help of a mathematical model. This model needs to be initialized by the state of the system at initial time. But this state is not directly measurable and data assimilation techniques are generally used to estimate it. They combine all sources of information such as observations (that may be sparse in time and space and potentially include errors), previous forecasts, the model equations and error statistics. The main idea of data assimilation techniques is to find an initial state accounting for the different sources of informations. Such techniques are widely used in meteorology, where data and particularly images are more and more numerous due to the increasing number of satellites and other sources of measurements. This, coupled with developments of meteorological models, have led to an ever-increasing quality of the forecast.Spatial consistency is one specificity of images. For example, human eyes are able to notice structures in an image. However, classical methods of data assimilation do not handle such structures because they take only into account the values of each pixel separately. In some cases it leads to a bad initial condition. To tackle this problem, we proposed to change the representation of an image: images are considered here as elements of the Wasserstein space endowed with the Wasserstein distance coming from the optimal transport theory. In this space, what matters is the positions of the different structures.This thesis presents a data assimilation technique based on this Wasserstein distance. This technique and its numerical procedure are first described, then experiments are carried out and results shown. In particularly, it appears that this technique was able to give an analysis of corrected position.
|
117 |
Étude expérimentale et numérique d’un procédé de cuisson par contact direct / Experimental and numerical study of a direct contact heating processMarc, Sylvain 21 December 2017 (has links)
La cuisson par contact direct est un mode de préparation des aliments très courant à travers le monde, cependant peu d’études s’intéressent à cette problématique à l’échelle domestique. Ces travaux tentent d’apporter une contribution à l’étude des phénomènes mis en jeu durant cette opération. Ce manuscrit débute par une revue de différents facteurs impliqués lors de la cuisson : les consommations d’énergie, les types d’appareils utilisés, les phénomènes physico-chimiques intervenant dans le produit ou les problématiques de modélisation y sont abordés. Il s’en dégage qu’une donnée essentielle est la connaissance du flux de chaleur transmis au produit. Une méthode d’estimation de ce flux basée sur les techniques inverses est développée. Celle-ci a contribué à concevoir un prototype instrumenté permettant de suivre les cinétiques des températures dans la plaque chauffante et dans un élastomère simulant un produit alimentaire. Les résultats obtenus montrent que la méthode permet d’estimer le flux de chaleur transmis avec une bonne précision. Dans un second temps, une étude expérimentale de la cuisson d’une pâte céréalière d’environ 8mm d’épaisseur est présentée. Après avoir caractérisé les propriétés thermophysiques et hydriques, le prototype est utilisé pour suivre les évolutions de différents paramètres comme les températures, le flux de chaleur, la masse en dynamique, et les teneurs en eau. La répétabilité et la variabilité des résultats suivant la température initiale de la plaque sont menés. Ensuite, un modèle 1D simulant les transferts de matière et d’énergie, est utilisé pour étudier les différents facteurs intervenant lors de la cuisson. Un second modèle 2D est réalisé permettant de tester les consommations d’énergie lors d’une opération de cuisson en cadence suivant différents scénarios de conception du prototype. / Direct contact cooking is a very common way of preparing foods throughout the world, but few studies are interested in this issue at the domestic scale. This work attempts to contribute to the study of the phenomena involved during this operation. This thesis begins with a review of the various factors involved in the cooking process: energy consumption, types of appliances used, physico-chemical phenomena implied in the product or modeling problems are discussed. It emerges from this that an essential fact is the knowledge of the heat flux transmitted to the product. A method for estimating this flux based on inverse techniques is developed. This has contributed to design an instrumented prototype allowing to follow the kinetics of the temperatures in the heating plate and in an elastomer simulating a food product. The results obtained show that the method makes it possible to estimate the heat flux transmitted with a good accuracy. In a second step, an experimental study of cooking of a 8 mm thick cereal batter is presented. After having characterized the thermophysical and hydric properties, the prototype is used to monitor changes in various parameters such as temperatures, heat flux, mass in dynamics, and water contents. The repeatability and the variability of the results according to the initial temperature of the plate are carried out. Then, a 1D model simulating mass and heat transfers is used to study the different factors involved in cooking. A second 2D model is realized to test the energy consumption during a cooking operation in cadence according to different prototype design scenarios.
|
118 |
Efficient high-dimension gaussian sampling based on matrix splitting : application to bayesian Inversion / Échantillonnage gaussien en grande dimension basé sur le principe du matrix splitting. : application à l’inversion bayésienneBӑrbos, Andrei-Cristian 10 January 2018 (has links)
La thèse traite du problème de l’échantillonnage gaussien en grande dimension.Un tel problème se pose par exemple dans les problèmes inverses bayésiens en imagerie où le nombre de variables atteint facilement un ordre de grandeur de 106_109.La complexité du problème d’échantillonnage est intrinsèquement liée à la structure de la matrice de covariance. Pour résoudre ce problème différentes solutions ont déjà été proposées,parmi lesquelles nous soulignons l’algorithme de Hogwild qui exécute des mises à jour de Gibbs locales en parallèle avec une synchronisation globale périodique.Notre algorithme utilise la connexion entre une classe d’échantillonneurs itératifs et les solveurs itératifs pour les systèmes linéaires. Il ne cible pas la distribution gaussienne requise, mais cible une distribution approximative. Cependant, nous sommes en mesure de contrôler la disparité entre la distribution approximative est la distribution requise au moyen d’un seul paramètre de réglage.Nous comparons d’abord notre algorithme avec les algorithmes de Gibbs et Hogwild sur des problèmes de taille modérée pour différentes distributions cibles. Notre algorithme parvient à surpasser les algorithmes de Gibbs et Hogwild dans la plupart des cas. Notons que les performances de notre algorithme dépendent d’un paramètre de réglage.Nous comparons ensuite notre algorithme avec l’algorithme de Hogwild sur une application réelle en grande dimension, à savoir la déconvolution-interpolation d’image.L’algorithme proposé permet d’obtenir de bons résultats, alors que l’algorithme de Hogwild ne converge pas. Notons que pour des petites valeurs du paramètre de réglage, notre algorithme ne converge pas non plus. Néanmoins, une valeur convenablement choisie pour ce paramètre permet à notre échantillonneur de converger et d’obtenir de bons résultats. / The thesis deals with the problem of high-dimensional Gaussian sampling.Such a problem arises for example in Bayesian inverse problems in imaging where the number of variables easily reaches an order of 106_109. The complexity of the sampling problem is inherently linked to the structure of the covariance matrix. Different solutions to tackle this problem have already been proposed among which we emphasizethe Hogwild algorithm which runs local Gibbs sampling updates in parallel with periodic global synchronisation.Our algorithm makes use of the connection between a class of iterative samplers and iterative solvers for systems of linear equations. It does not target the required Gaussian distribution, instead it targets an approximate distribution. However, we are able to control how far off the approximate distribution is with respect to the required one by means of asingle tuning parameter.We first compare the proposed sampling algorithm with the Gibbs and Hogwild algorithms on moderately sized problems for different target distributions. Our algorithm manages to out perform the Gibbs and Hogwild algorithms in most of the cases. Let us note that the performances of our algorithm are dependent on the tuning parameter.We then compare the proposed algorithm with the Hogwild algorithm on a large scalereal application, namely image deconvolution-interpolation. The proposed algorithm enables us to obtain good results, whereas the Hogwild algorithm fails to converge. Let us note that for small values of the tuning parameter our algorithm fails to converge as well.Not with standing, a suitably chosen value for the tuning parameter enables our proposed sampler to converge and to deliver good results.
|
119 |
Thermographie infrarouge et méthodes d'inférence statistique pour la détermination locale et transitoire de termes-sources et diffusivité thermique / Thermographic measurements and inverse problems for the source-term estimationMassard da Fonseca, Henrique 11 January 2012 (has links)
Ce travail a pour objectif de développer des techniques théoriques et expérimentales pour la détermination des propriétés thermophysiques et terme source. Deux formes de comportement temporel pour le terme source ont été étudiées : un constant et un qui varie dans le temps. La variation dans le temps a été considérée comme une pulse carrée ou une variation sinusoïdale. Deux formes d’échauffement ont été utilisées : une résistance électrique et un laser diode. Pour l’acquisition des données une caméra de thermographie par infrarouge a été utilisée. La stratégie nodale a été utilisée pour contourner le problème des grosses quantités de données générées par la caméra. Le problème direct a été résolu par différences finies, et deux approches pour la solution du problème inverse ont été utilisées, en fonction du comportement temporel du terme source. Les deux approches sont basées sur des méthodes d’inférence statistiques dans une approche Bayésienne, avec la méthode de Monte Carlo via les Chaînes de Markov pour le terme source constant, et le filtre de Kalman pour le problème dont le terme source varie dans le temps. Des manipulations contrôlées ont été faites dans un échantillon avec des propriétés thermophysiques déterminées par des méthodes classiques dans la littérature. / This work deals with the development of new theoretical and experimental techniques for the efficient estimation of thermophysical properties and source-term in micro and macro-scale. Two kinds of source term were studied: a constant and a time varying source term. The time wise variation of the source term had a sinusoidal and a pulse form. Two devices were used for the sample heating: An electrical resistance and a laser diode. For the data acquisition, an infrared camera was used, providing a full cartography of properties of the medium and also non-contact temperature measurements. The direct problem was solved by the finite differences method, and two approaches were used for the solution of the inverse problem, depending on the time varying behavior of the source term. Both approaches deal with the parameters estimation within the Bayesian framework, using the Markov Chain Monte Carlo (MCMC) method via the Metropolis Hastings (MH) algorithm for the constant source term, and the Kalman filter for the time-varying source term. The nodal strategy is presented as a method to deal with the large number of experimental data problems. Experiments were carried out in a sample with well-known thermophysical properties, determined by classical methods.
|
120 |
Valeurs propres de transmission et leur utilisation dans l'identification d'inclusions à partir de mesures électromagnétiques. / Transmission eigenvalues and their use in the identification of inclusions form electromagnetic measurementsCossonnière, Anne 08 December 2011 (has links)
La théorie des problèmes de diffraction inverses pour les ondes acoustiques et électromagnétiques est un domaine de recherche très actif qui a connu des avancées significatives ces dernières années. La Linear Sampling Method (LSM), permettant de reconstituer la forme d’un objet à partir de sa réponse acoustique ou électromagnétique avec peu de données a priori sur les propriétés physiques de l’objet, a révélé l’existence de fréquences de résonance appelées valeurs propres de transmission, pour lesquelles cette méthode échoue dans le cas d’objets diffractants pénétrables. Ces fréquences particulières peuvent être étudiées à partir d’un nouveau type de problème appelé problème de transmission intérieur. Ces valeurs propres s’avèrent utiles dans le problème d’identification puisqu’elles peuvent aussi être calculées à partir des mesures à l’infini et quelles apportent des informations qualitatives sur les propriétés physiques de l’objet. Dans cette thèse, nous prouvons l’existence et le caractère discret de l’ensemble des valeurs propres de transmission pour deux nouvelles configurations, correspondant aux cas où l’objet diffractant pénétrable contient une cavité ou un conducteur parfait. De plus, nous proposons une nouvelle approche utilisant les équations intégrales permettant de calculer numériquement les valeurs propres de transmission / The theory of inverse scattering for acoustic or electromagnetic waves is an active area of research with significant developments in the past few years. The Linear Sampling Method (LSM) is a method that allows the reconstruction of the shape of an object from its acoustic or electromagnetic response with a few a priori knowledge on the physical properties of the scatterer. However, this method fails for resonance frequencies called transmission eigenvalues in the case of penetrable objects. These transmission eigenvalues are the eigenvalues of a new type of problem called the interior transmission problem. Their main feature is that not only they can give information on the physical properties of the scatterer but they can also be computed from far field measurements. In this thesis, we prove the existence and the discreteness of the set of transmission eigenvalues for two new configurations corresponding to the cases of a scatterer containing a cavity or a perfect conductor. A new approach using surface integral equations is also developed to compute numerically transmission eigenvalues for general geometries
|
Page generated in 0.0735 seconds