• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 179
  • 81
  • 18
  • Tagged with
  • 269
  • 269
  • 133
  • 67
  • 52
  • 41
  • 34
  • 30
  • 28
  • 28
  • 27
  • 27
  • 26
  • 25
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Modélisation de la cristallisation des polymères dans les procédés de plasturgie : quantification des effets thermiques et rhéologiques

Zinet, Matthieu 21 July 2010 (has links) (PDF)
En plasturgie, la maîtrise de la régulation thermique des outillages apparaît aujourd'hui comme une des composantes essentielles de l'amélioration de la productivité des procédés et de la qualité des produits. S'inscrivant dans le contexte du développement d'outils numériques dédiés à l'optimisation de la «fonction refroidissement» des outillages, ce travail répond à deux besoins. Le premier est la nécessité de disposer d'un modèle précis du comportement thermique des polymères semi-cristallins au cours du refroidissement et de l'influence de cette phase sur la microstructure du matériau, conditionnant ses propriétés finales. Un modèle numérique de la cristallisation d'un polymère soumis à un écoulement anisotherme est développé. Le 1er invariant du tenseur des extracontraintes, représentatif du comportement rhéologique viscoélastique du matériau, est considéré comme la force motrice d'une germination additionnelle s'ajoutant à la germination induite par la thermique. La croissance de ces germes est décrite par deux systèmes d'équations de Schneider. Le modèle est ensuite appliqué la cristallisation d'un polypropylène isotactique dans un écoulement de cisaillement (écoulement de Couette). Les effets thermiques et rhéologiques sur la cristallisation sont alors quantifiés en termes d'accélération de la cinétique et de répartition morphologique finale (type, densité et tailles moyennes des cristallites). D'autre part, l'optimisation des performances thermiques des outillages fait appel à des techniques de mesure du transfert de chaleur précises, fiables et adaptées aux contraintes du procédé, dans le but d'alimenter et de valider les simulations numériques. Une technologie innovante d'instrumentation thermique est mise en oeuvre sur un moule d'injection, sous forme d'un insert fluxmétrique, afin d'évaluer localement les transferts de chaleur entre le polymère et l'outillage. L'influence des conditions d'injection sur la réponse du capteur est analysée. Les « signatures thermiques » du procédé ainsi obtenues permettent de valider un modèle simplifié des transferts thermiques lors de la phase de refroidissement
12

Supersymmetric transformations and the inverse problem in quantum mechanics

Sparenberg, Jean-Marc 28 January 1999 (has links)
<p align="justify">Les transformations de supersymétrie (ou de Darboux) sont appliquées à l'étude du problème inverse, c'est à dire à la construction d'un potentiel d'interaction à partir de données de collisions, en mécanique quantique. En effet, ces transformations permettent de construire de nouveaux potentiels à partir d'un potentiel donné. Leur formalisme est étudié en détail, ainsi que celui correspondant à l'itération de deux telles transformations (paires de transformations).</p> <p align="justify">La présence d'états liés rend le problème inverse ambigu : plusieurs potentiels ayant des spectres liés différents peuvent avoir les mêmes propriétés pour la description des collisions; de tels potentiels sont dits équivalents en phase. Une décomposition originale du problème inverse est proposée pour gérer efficacement cette ambiguïté : dans un premier temps, un potentiel est construit à partir des données de collision (ce qui constitue le problème inverse proprement dit); dans un second temps, tous les potentiels équivalents en phase au potentiel ainsi obtenu sont construits. Avant ce travail, il était connu que ces deux aspects du problème inverse pouvaient être traités à l'aide de paires de transformations de supersymétrie.</p> <p align="justify">En ce qui concerne la construction de potentiels équivalents, nous étendons les méthodes existantes à des catégories de potentiels très utilisées en physique nucléaire, à savoir les potentiels optiques (ou complexes), les potentiels en voies couplées et les potentiels dépendant linéairement de l'énergie. En utilisant une paire de transformations permettant d'enlever un état lié, nous comparons les propriétés physiques des potentiels nucléaires profonds (c'est à dire possédant des états liés interdits par le principe de Pauli) et peu profonds. Des calculs dans des modèles à trois corps du noyau à halo d'6He et de la collision 16O+17O à basse énergie n'ont pas révélé d'importantes différences entre ces familles de potentiels. D'autres types de transformations permettent d'ajouter des états liés à énergie et normalisation arbitraires. Cependant, dans le cas à plusieurs voies, leur utilisation est compliquée par la possibilité d'avoir des états liés dégénérés et non dégénérés. Une étude préliminaire à deux voies montre que ces deux types d'états peuvent être traités par supersymétrie.</p> <p align="justify">En ce qui concerne le problème inverse proprement dit, nous montrons que l'utilisation de transformations simples (plutôt que de paires) permet une meilleure compréhension des méthodes existantes, tant pour l'inversion à moment cinétique orbital fixe que pour l'inversion à énergie fixe. De plus, l'utilisation de transformations simples mène dans certains cas à de nouvelles catégories de potentiels. Ainsi, nous construisons un nouveau potentiel d'interaction nucléon nucléon pour l'onde 1S; ce potentiel possède une singularité en r 2 à l'origine. La possibilité de construire des potentiels profonds par inversion est brièvement discutée. Pour les voies couplées, une étude bibliographique révèle certaines propriétés contradictoires des méthodes existantes, mais une analyse complète reste à faire.</p>
13

Restitution de l'indice de réfraction complexe et de la granulométrie d'une population de particules sphériques à partir de l'indicatrice de diffusion de la lumière

Verhaege, Christophe 16 October 2008 (has links) (PDF)
Un néphélomètre polaire de laboratoire a été développé afin de mesurer la diffusion de la lumière suivant 2 directions de polarisation par des particules. Les concentrations minimales détectables et l'incertitude de mesure ont été évaluées. Une méthode d'inversion de ces données par une look-up table a été développée afin de restituer l'indice de réfraction complexe et la granulométrie des particules sphériques. Les résultats sont que pour les particules faiblement absorbantes seule la partie réelle peut être chiffrée. Si les particules sont fortement absorbantes seule la partie imaginaire est retrouvée. Autrement la méthode restitue l'indice de réfraction complexe et la granulométrie. Cette méthode, utilisée avec des mesures réelles collectées en laboratoire ainsi qu'avec des mesures collectées en nuage (2 nuages,1 contrail) avec un néphélomètre aéroporté, a montré de bonnes performances. Ceci a mis en évidence que les particules des contrails ne sont pas des particules d'eau sphériques.
14

Système multi-capteurs et traitement des signaux associé pour l'imagerie par courants de Foucault de pièces aéronautiques / Sensor array and signal processing for the eddy current imaging of aeronautical parts

Thomas, Vincent 26 November 2010 (has links)
Le vieillissement du parc aéronautique, mais aussi la volonté de prolonger le cycle de vie des appareils, impose aux techniques de maintenance des exigences de contrôle accrues en termes de fiabilité et de rapidité. Les principaux enjeux étant la détection, et surtout la caractérisation des micro-fissures pouvant apparaitre dans les pièces sensibles des appareils. Cette caractérisation pouvant aller jusqu'à la reconstruction qualitative, voire quantitative du profil des fissures, ce qui suppose la résolution du problème inverse consistant, à partir des signaux mesurés, à remonter à certaines caractéristiques de la pièce inspectée, notamment géométriques, qui en sont en partie la cause.Ce manuscrit présente une approche originale de conception de sonde d'imagerie par courants de Foucault. Cette approche, ici appliquée à l'imagerie de pièces aéronautiques cylindriques, consiste à concevoir la sonde de façon à satisfaire la double contrainte d'une instrumentation performante et d'une résolution possible du problème inverse. Ainsi, la conception de la sonde est-elle faite de manière à ce que d'une part les signaux mesurés, résultant de ses interactions avec la pièce contrôlée, soient d'amplitude la plus élevée possible, et d'autre part, a n que ces interactions soient modélisables au moyen d'un modèle qui se prête bien à l'inversion.Dans un premier temps, une méthodologie de conception de sonde est présentée, qui vise à optimiser le dimensionnement et l'agencement de ses éléments en se fixant des contraintes de sensibilité et de résolution. Un prototype, conçu d'après cette méthodologie, est réalisé, mis en œuvre et caractérisé. Les résultats expérimentaux obtenus, qui s'avèrent en accord avec une modélisation par éléments finis, offrent une validation du fonctionnement de la sonde, celle-ci permettant effectivement de mettre en évidence les défauts types (micro-fissures) recherchés dans la pièce inspectée. Dans un second temps, la configuration des interactions sonde-pièce inspectée, choisie à dessein, est mise à profit pour élaborer un modèle direct. Celui-ci repose sur l'hypothèse selon laquelle, les défauts étant de faibles dimensions, il est possible de considérer que la perturbation de signal qu'ils engendrent est équivalente à celle que génèreraient des sources virtuelles de courants localisées uniquement dans le volume du défaut. Outre sa simplicité, cette modélisation offre l'avantage d'être adaptée à une mise en œuvre au moyen de la méthode des points sources distribués. Or celle-ci permet de formuler le problème direct sous forme matricielle ce qui constitue une base de nature à faciliter la résolution du problème inverse.C'est à ce problème qu'est consacrée la dernière partie du mémoire. Des méthodes d'inversion y sont proposées, visant à traiter progressivement la complexité du problème. Ainsi un algorithme d'inversion mono-fréquence est-il proposé, qui se montre efficace pour reconstruire des défauts sur de faibles profondeurs. Pour une meilleure reconstruction en profondeur, des algorithmes multifréquence faisant appel à des méthodes de régularisation sont ensuite conçus et appliqués à des signaux correspondant à des défauts de géométries diverses. / The ageing of the aeronautical fleet and the will to increase the aircrafts lifetime require the maintenance techniques to be made always more reliable and fast. In this context, the detection and characterization of the microscopic cracks likely to appear in some sensitive parts of the aircrafts is an important issue to be faced.This work deals with an original approach for the design of an eddy current imaging probe dedicated to the non destructive evaluation of cylindrical fastener parts. This approach consists in designing the probe in such a way that it both satisfies the constraint of an efficient sensing and that of enabling the inverse problem to be solved with a view to the defects reconstruction.Firstly, a probe design methodology is presented that optimizes the emission/reception topology, the choice of the probe elements and their arrangement according to sensitivity and resolution constraints. A prototype is built, implemented and characterized and validation of the design is obtained as the researched defects are displayed with experimental performances that agree with finite elements modelling simulations.Secondly, since the probe relies on a uniform eddy current flow interacting with small defects, a rather simple forward model is proposed based on virtual defect current sources (VDCS). The model implementation is carried out using the distributed point source method leading to a matrix formulation that can facilitate the resolution of the inverse problem.Finally, mono-frequency and multi-frequency methods are proposed for inverting the VDCS forward model and promising defect reconstruction results are obtained.
15

Développement d'un banc ellipsométrique hyperfréquence pour la caractérisation de matériaux non transparents / Development of a microwave ellipsometric bench for the characterization of non-transparent materials

Moungache, Amir 28 October 2011 (has links)
Dans la fabrication d’un produit, la maîtrise des propriétés physiques des matériaux utilisés est indispensable. Il est donc nécessaire de déterminer leurs propriétés comportementales. On exploite en général des propriétés physiques intermédiaires telles que les propriétés électromagnétiques. Nous avons mis au point une technique de caractérisation sans contact de matériaux non transparents en transposant les concepts de base de l’ellipsométrie optique en hyperfréquence. La caractérisation se fait par résolution d’un problème inverse par deux méthodes numériques : une méthode d’optimisation classique utilisant l’algorithme itératif de Levenberg Marquardt et une méthode de régression par l’uti1isation de réseaux de neurones du type perceptron multicouches. Avec la première méthode, on détermine deux paramètres du matériau sous test à savoir l’indice de réfraction et l’indice d’extinction. Avec la deuxième, on détermine les deux indices ainsi que l’épaisseur de 1’échantillon. Pour la validation, nous avons monté un banc expérimental en espace libre à 30 GHz en transmission et en incidence oblique avec lequel nous avons effectué des mesures sur des échantillons de téflon et d’époxy de différentes épaisseurs (1 à 30 mm). Nous avons obtenu une caractérisation satisfaisante de l’indice et de l’épaisseur. Nous avons ensuite fait des mesures de trois types de papier dont la caractérisation de l’indice était satisfaisante sans toutefois les discriminer. Ces travaux ont montré la possibilité de caractériser des matériaux épais et non transparents par une technique ellipsométrique / The control of the physical properties of materials used to manufacture a product is essential. Therefore, it is necessary to determine their behavioral properties. Generally, we get them through intermediate physical properties such as electromagnetic properties. We have developed a technique for contactless characterization of non-transparent materials by applying the basic concepts of optical ellipsometry in the microwave domain. The characterization is done by solving an inverse problem through two different numerical methods: a classical optimization method using the iterative algorithm of Levenberg Marquardt and a regression method by using neural networks particularly the multilayer perceptron. With the first method, we can determine two parameters which are the refractive index and the extinction index of the sample under test. With the second method, we can determine the indices and the thickness of the sample. As a validation, we set up a 30 GHz - experimental free space bench configurated for oblique transmission incidence measurement that we have used to carry out measurements on PTFE and epoxy samples having different thicknesses (1 to 30 mm). We obtained a satisfactory characterization of the index and thickness. Then, we have carried out measurements on three types of paper. The index was satisfactorily characterized but they could not be distinguished. These studies have shown that it is possible to characterize thick and non-transparent materials using ellipsometric technics
16

Analyse statistique et interprétation automatique de données diagraphiques pétrolières différées à l’aide du calcul haute performance / Statistical analysis and automatic interpretation of oil logs using high performance computing

Bruned, Vianney 18 October 2018 (has links)
Dans cette thèse, on s'intéresse à l’automatisation de l’identification et de la caractérisation de strates géologiques à l’aide des diagraphies de puits. Au sein d’un puits, on détermine les strates géologiques grâce à la segmentation des diagraphies assimilables à des séries temporelles multivariées. L’identification des strates de différents puits d’un même champ pétrolier nécessite des méthodes de corrélation de séries temporelles. On propose une nouvelle méthode globale de corrélation de puits utilisant les méthodes d’alignement multiple de séquences issues de la bio-informatique. La détermination de la composition minéralogique et de la proportion des fluides au sein d’une formation géologique se traduit en un problème inverse mal posé. Les méthodes classiques actuelles sont basées sur des choix d’experts consistant à sélectionner une combinaison de minéraux pour une strate donnée. En raison d’un modèle à la vraisemblance non calculable, une approche bayésienne approximée (ABC) aidée d’un algorithme de classification basé sur la densité permet de caractériser la composition minéralogique de la couche géologique. La classification est une étape nécessaire afin de s’affranchir du problème d’identifiabilité des minéraux. Enfin, le déroulement de ces méthodes est testé sur une étude de cas. / In this thesis, we investigate the automation of the identification and the characterization of geological strata using well logs. For a single well, geological strata are determined thanks to the segmentation of the logs comparable to multivariate time series. The identification of strata on different wells from the same field requires correlation methods for time series. We propose a new global method of wells correlation using multiple sequence alignment algorithms from bioinformatics. The determination of the mineralogical composition and the percentage of fluids inside a geological stratum results in an ill-posed inverse problem. Current methods are based on experts’ choices: the selection of a subset of mineral for a given stratum. Because of a model with a non-computable likelihood, an approximate Bayesian method (ABC) assisted with a density-based clustering algorithm can characterize the mineral composition of the geological layer. The classification step is necessary to deal with the identifiability issue of the minerals. At last, the workflow is tested on a study case.
17

Classification par réseaux de neurones dans le cadre de la scattérométrie ellipsométrique / Neural classification in ellipsometric scatterometry

Zaki, Sabit Fawzi Philippe 12 December 2016 (has links)
La miniaturisation des composants impose à l’industrie de la micro-électronique de trouver des techniques de caractérisation fiables rapides et si possible à moindre coût. Les méthodes optiques telles que la scattérométrie se présentent aujourd’hui comme des alternatives prometteuses répondant à cette problématique de caractérisation. Toutefois, l’ensemble des méthodes scattérométriques nécessitent un certain nombre d’hypothèses pour assurer la résolution d’un problème inverse et notamment la connaissance de la forme géométrique de la structure à tester. Le modèle de structure supposé conditionne la qualité même de la caractérisation. Dans cette thèse, nous proposons l’utilisation des réseaux de neurones comme outils d’aide à la décision en amont de toute méthode de caractérisation. Nous avons validé l’utilisation des réseaux de neurones dans le cadre de la reconnaissance des formes géométriques de l’échantillon à tester par la signature optique utilisée dans toute étape de caractérisation scattérométrique. Tout d’abord, le cas d’un défaut lithographique particulier lié à la présence d’une couche résiduelle de résine au fond des sillons est étudié. Ensuite, nous effectuons une analyse de détection de défaut de modèle utilisé dans la résolution du problème inverse. Enfin nous relatons les résultats obtenus dans le cadre de la sélection de modèles géométriques par réseaux de neurones en amont d’un processus classique de caractérisation scattérométrique. Ce travail de thèse a montré que les réseaux de neurones peuvent bien répondre à la problématique de classification en scattérométrie ellipsométrique et que l’utilisation de ces derniers peut améliorer cette technique optique de caractérisation / The miniaturization of components in the micro-electronics industry involves the need of fast reliable technique of characterization with lower cost. Optical methods such as scatterometry are today promising alternative to this technological need. However, scatterometric method requires a certain number of hypothesis to ensure the resolution of an inverse problem, in particular the knowledge of the geometrical shape of the structure under test. The assumed model of the structure determines the quality of the characterization. In this thesis, we propose the use of neural networks as decision-making tools upstream of any characterization method. We validated the use of neural networks in the context of recognition of the geometrical shapes of the sample under testing by the use of optical signature in any scatterometric characterization process. First, the case of lithographic defect due to the presence of a resist residual layer at the bottom of the grooves is studied. Then, we carry out an analysis of model defect in the inverse problem resolution. Finally, we report results in the context of selection of geometric models by neural networks upstream of a classical scatterometric characterization process. This thesis has demonstrated that neural networks can well answer the problem of classification in ellipsometric scatterometry and their use can improve this optical characterization technique
18

Étude quantitative de la tomographie optique diffuse de luminescence : Application à la localisation de sources en imagerie moléculaire / Quantitative study of luminescence diffuse optical tomography : Application to source localisation in molecular imaging

Boffety, Matthieu 23 February 2010 (has links)
L’imagerie moléculaire occupe une place majeure dans le domaine de la recherche préclinique. Parmi les modalités existantes, les techniques optiques fondées sur la détection d’un rayonnement visible ou proche infrarouge sont les plus récentes et sont principalement représentées par les méthodes de tomographie optique de luminescence. Ces méthodes permettent une caractérisation 3D d’un milieu biologique par la reconstruction de cartes de concentration ou la localisation de marqueurs luminescents sensibles à des processus biologiques et chimiques se déroulant à l’échelle de la cellule ou de la molécule. La tomographie de luminescence se fonde sur un modèle de propagation de la lumière dans les tissus, un protocole d’acquisition du signal en surface du milieu et une procédure numérique d’inversion de ces mesures afin de reconstruire les paramètres d’intérêts. Ce travail de thèse s’articule donc autour de ces trois axes et apporte un élément de réponse à chacun des problèmes. L’objectif principal de cette étude est d’introduire et de présenter des outils d’évaluation des performances théoriques d’une méthode de tomographie optique. L’un des aboutissements majeurs est la réalisation de reconstructions tomographiques expérimentales à partir d’images acquises par un imageur optique conçu pour l’imagerie planaire 2D et développé par la société Quidd. Dans un premier temps nous abordons la théorie du transport en milieu diffusant afin de poser les concepts et outils sur lesquels vont s’appuyer l’ensemble des travaux. Nous présentons particulièrement deux modèles de propagation différents ainsi que les méthodes de résolution et les difficultés théoriques qui leur sont liées. Dans une deuxième partie nous introduisons les outils statistiques utilisés pour caractériser les systèmes tomographiques et leur résolution potentielle. Nous définissons une procédure et nous l’appliquons à l’étude de quelques situations simples en tomographie de luminescence. La dernière partie de ce travail présente la mise au point d’une procédure d’inversion. Après avoir présenté le cadre théorique dans lequel cette procédure s’inscrit nous la validons à partir de données numériques avant de l’appliquer avec succès à des mesures expérimentales. / Molecular imaging is a major modality in the field of preclinical research. Among the existing methods, techniques based on optical detection of visible or near infrared radiation are the most recent and are mainly represented by luminescence optical tomography techniques. These methods allow for 3D characterization of a biological medium by reconstructing maps of concentration or localisation of luminescent beacons sensitive to biological and chemical processes at the molecular or cellular scale. Luminescence optical tomography is based on a model of light propagation in tissues, a protocol for acquiring surface signal and a numerical inversion procedure used to reconstruct the parameters of interest. This thesis is structured around these three axes and provides an answer to each problem. The main objective of this study is to introduce and present the tools to evaluate the theoretical performances of optical tomography methods. One of its major outcomes is the realisation of experimental tomographic reconstructions from images acquired by an optical imager designed for 2D planar imaging and developed by the company Quidd. In a first step we develop the theory of transport in scattering medium to establish the concept on which our work will rely. We present two different propagation models as well as resolution methods and theoretical difficulties associated with them. In a second part we introduce the statistical tools used to characterise tomographic systems. We define and apply a procedure to simple situations in luminescence optical tomography. The last part of this work presents the development of an inversion procedure. After introducing the theoretical frameworkwe validate the procedure fromnumerical data before successfully applying it to experimentalmeasurements.
19

Modélisation et imagerie électrocardiographiques / Modeling and imaging of electrocardiographic activity

El Houari, Karim 14 December 2018 (has links)
L'estimation des solutions du problème inverse en Électrocardiographie (ECG) représente un intérêt majeur dans le diagnostic et la thérapie d'arythmies cardiaques par cathéter. Ce dernier consiste à fournir des images 3D de la distribution spatiale de l'activité électrique du cœur de manière non-invasive à partir des données anatomiques et électrocardiographiques. D'une part ce problème est rendu difficile à cause de son caractère mal-posé. D'autre part, la validation des méthodes proposées sur données cliniques reste très limitée. Une alternative consiste à évaluer ces méthodes sur des données simulées par un modèle électrique cardiaque. Pour cette application, les modèles existants sont soit trop complexes, soit ne produisent pas un schéma de propagation cardiaque réaliste. Dans un premier temps, nous avons conçu un modèle cœur-torse basse-résolution qui génère des cartographies cardiaques et des ECGs réalistes dans des cas sains et pathologiques. Ce modèle est bâti sur une géométrie coeur-torse simplifiée et implémente le formalisme monodomaine en utilisant la Méthode des Éléments Finis (MEF). Les paramètres ont été identifiés par une approche évolutionnaire et leur influence a été analysée par une méthode de criblage. Dans un second temps, une nouvelle approche pour résoudre le problème inverse a été proposée et comparée aux méthodes classiques dans les cas sains et pathologiques. Cette méthode utilise un a priori spatio-temporel sur l'activité électrique cardiaque ainsi que le principe de contradiction afin de trouver un paramètre de régularisation adéquat. / The estimation of solutions of the inverse problem of Electrocardiography (ECG) represents a major interest in the diagnosis and catheter-based therapy of cardiac arrhythmia. The latter consists in non-invasively providing 3D images of the spatial distribution of cardiac electrical activity based on anatomical and electrocardiographic data. On the one hand, this problem is challenging due to its ill-posed nature. On the other hand, validation of proposed methods on clinical data remains very limited. Another way to proceed is by evaluating these methods performance on data simulated by a cardiac electrical model. For this application, existing models are either too complex or do not produce realistic cardiac patterns. As a first step, we designed a low-resolution heart-torso model that generates realistic cardiac mappings and ECGs in healthy and pathological cases. This model is built upon a simplified heart torso geometry and implements the monodomain formalism by using the Finite Element Method (FEM). Parameters were identified using an evolutionary approach and their influence were analyzed by a screening method. In a second step, a new approach for solving the inverse problem was proposed and compared to classical methods in healthy and pathological cases. This method uses a spatio-temporal a priori on the cardiac electrical activity and the discrepancy principle for finding an adequate regularization parameter.
20

Inversion for textured images : unsupervised myopic deconvolution, model selection, deconvolution-segmentation / Inversion pour image texturée : déconvolution myope non supervisée, choix de modèles, déconvolution-segmentation

Văcar, Cornelia Paula 19 September 2014 (has links)
Ce travail est dédié à la résolution de plusieurs problèmes de grand intérêt en traitement d’images : segmentation, choix de modèle et estimation de paramètres, pour le cas spécifique d’images texturées indirectement observées (convoluées et bruitées). Dans ce contexte, les contributions de cette thèse portent sur trois plans différents : modéle, méthode et algorithmique.Du point de vue modélisation de la texture, un nouveaumodèle non-gaussien est proposé. Ce modèle est défini dans le domaine de Fourier et consiste en un mélange de Gaussiennes avec une Densité Spectrale de Puissance paramétrique.Du point de vueméthodologique, la contribution est triple –troisméthodes Bayésiennes pour résoudre de manière :–optimale–non-supervisée–des problèmes inverses en imagerie dans le contexte d’images texturées ndirectement observées, problèmes pas abordés dans la littérature jusqu’à présent.Plus spécifiquement,1. la première méthode réalise la déconvolution myope non-supervisée et l’estimation des paramètres de la texture,2. la deuxième méthode est dédiée à la déconvolution non-supervisée, le choix de modèle et l’estimation des paramètres de la texture et, finalement,3. la troisième méthode déconvolue et segmente une image composée de plusieurs régions texturées, en estimant au même temps les hyperparamètres (niveau du signal et niveau du bruit) et les paramètres de chaque texture.La contribution sur le plan algorithmique est représentée par une nouvelle version rapide de l’algorithme Metropolis-Hastings. Cet algorithme est basé sur une loi de proposition directionnelle contenant le terme de la ”direction de Newton”. Ce terme permet une exploration rapide et efficace de l’espace des paramètres et, de ce fait, accélère la convergence. / This thesis is addressing a series of inverse problems of major importance in the fieldof image processing (image segmentation, model choice, parameter estimation, deconvolution)in the context of textured images. In all of the aforementioned problems theobservations are indirect, i.e., the textured images are affected by a blur and by noise. Thecontributions of this work belong to three main classes: modeling, methodological andalgorithmic. From the modeling standpoint, the contribution consists in the development of a newnon-Gaussian model for textures. The Fourier coefficients of the textured images are modeledby a Scale Mixture of Gaussians Random Field. The Power Spectral Density of thetexture has a parametric form, driven by a set of parameters that encode the texture characteristics.The methodological contribution is threefold and consists in solving three image processingproblems that have not been tackled so far in the context of indirect observationsof textured images. All the proposed methods are Bayesian and are based on the exploitingthe information encoded in the a posteriori law. The first method that is proposed is devotedto the myopic deconvolution of a textured image and the estimation of its parameters.The second method achieves joint model selection and model parameters estimation froman indirect observation of a textured image. Finally, the third method addresses the problemof joint deconvolution and segmentation of an image composed of several texturedregions, while estimating at the same time the parameters of each constituent texture.Last, but not least, the algorithmic contribution is represented by the development ofa new efficient version of the Metropolis Hastings algorithm, with a directional componentof the proposal function based on the”Newton direction” and the Fisher informationmatrix. This particular directional component allows for an efficient exploration of theparameter space and, consequently, increases the convergence speed of the algorithm.To summarize, this work presents a series of methods to solve three image processingproblems in the context of blurry and noisy textured images. Moreover, we present twoconnected contributions, one regarding the texture models andone meant to enhance theperformances of the samplers employed for all of the three methods.

Page generated in 0.1175 seconds