• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 18
  • 17
  • 4
  • Tagged with
  • 39
  • 20
  • 20
  • 13
  • 12
  • 10
  • 10
  • 9
  • 9
  • 9
  • 9
  • 9
  • 9
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Sparse representations in vibration-based rolling element bearing diagnostics / Représentations parcimonieuses pour le diagnostic par analyse vibratoire des roulements mécaniques

Xin, Ge 22 June 2017 (has links)
Bien que le diagnostic des roulements par analyse vibratoire soit un domaine très développé, la recherche sur les représentations parcimonieuses des signaux de vibration est encore nouvelle et difficile pour le diagnostic des machines tournantes. Dans cette thèse, de méthodes nouvelles ont été développées, au moyen de différents modèles stochastiques, associées à des algorithmes efficaces afin de servir l’industrie dans le diagnostic des roulements. Tout d’abord, les modèles parcimonieux présentés dans la littérature sont revus. Les principales publications concernant le diagnostic des machines tournantes ont également été considérées. Enfin, en discutant des avantages et des inconvénients des représentations parcimonieuses, une interprétation des structures creuses d’un point de vue Bayésien est proposée, ce qui donne lieu à deux nouveaux modèles de diagnostic des machines tournantes. Dans un second temps, un nouveau modèle stochastique est proposé : il introduit une variable cachée relative à l’apparition d’impacts et estime le contenu spectral des transitoires correspondants ainsi que le spectre du bruit de fond. Cela donne lieu à un algorithme de détection automatique - sans besoin de pré-filtrage manuel - à partir duquel les fréquences de défaut peuvent être révélées. Le même algorithme permet également de filtrer le signal de défaut de manière très efficace par rapport à d’autres approches basées sur l’hypothèse stationnaire. La performance de l’algorithme est étudiée sur des signaux synthétiques. L’efficacité et la robustesse de la méthode sont également vérifiées sur les signaux de vibration mesurés sur un banc d’essai (engrenages et paliers). Les résultats sont meilleurs ou au moins équivalents à ceux de l’analyse d’enveloppes classique et du kurtogramme rapide. Dans un troisième temps, un nouveau schéma pour l’extraction de signaux cyclostationnaires (CS) est proposé. En considérant la variance périodique en tant que variable cachée, un filtre temporel est conçu de manière à obtenir la reconstruction intégrale des signaux CS caractérisés par une fréquence cyclique préétablie, qui peut être connue à priori ou estimée à partir de la corrélation spectrale. Un intérêt particulier de la méthode est sa robustesse lorsqu’elle est appliquée sur des données expérimentales ainsi qu’une capacité d’extraction supérieure par rapport au filtre de Wiener conventionnel. Finalement, ces exemples expérimentaux témoignent de l’utilisation polyvalente de la méthode à des fins de diagnostic de signaux composés. Pour finir, une analyse comparée utilisant le calcul rapide de la corrélation spectrale est réalisée sur une base de données publiquement disponible et largement utilisée. C’est un point crucial qui fixe un défis non-trivial à résoudre. / Although vibration-based rolling element bearing diagnostics is a very well-developed field, the research on sparse representations of vibration signals is yet new and challenging for machine diagnosis. In this thesis, several novel methods have been developed, by means of different stochastic models, associated with their effective algorithms so as to serve the industry in rolling element bearing diagnostics. First, the sparsity-based model (sparse code, in natural image processing) is investigated based on the current literature. The historical background of sparse representations has been inquired in the field of natural scenes. Along three aspects, its mathematical model with corresponding algorithms has been categorized and presented as a fundamental premise; the main publications are therefore surveyed in the literature on machinery fault diagnosis; finally, an interpretation of sparse structure in the Bayesian viewpoint is proposed which then gives rise to two novel models for machinery fault diagnosis. Second, a new stochastic model is introduced to address this issue: it introduces a hidden variable to indicate the occurrence of the impacts and estimates the spectral content of the corresponding transients together with the spectrum of background noise. This gives rise to an automatic detection algorithm – with no need of manual prefiltering as is the case with the envelope spectrum – from which fault frequencies can be revealed. The same algorithm also makes possible to filter out the fault signal in a very efficient way as compared to other approaches based on the stationary assumption. The performance is investigated on synthetic signals with a high noise-to-signal ratio and also in the case of a mixture of two independent transients. The effectiveness and robustness of the method are also verified on vibration signals measured on a test-bench (gears and bearings). Results are found superior or at least equivalent to those of conventional envelope analysis and fast kurtogram. Third, a novel scheme for extracting cyclostationary (CS) signals is proposed. By regularizing the periodic variance as hidden variables, a time-varying filter is designed so as to achieve the full-band reconstruction of CS signals characterized by some pre-set characteristic frequency. Of particular interest is the robustness on experimental data sets and superior extraction capability over the conventional Wiener filter. It not only deals with the bearing fault at an incipient stage, but it even works for the installation problem and the case of two sources, i.e. bearing and gear faults together. Eventually, these experimental examples evidence its versatile usage on diagnostic analysis of compound signals. Fourth, a benchmark analysis by using the fast computation of the spectral correlation is provided. One crucial point is to move forward the benchmark study of the CWRU data set by uncovering its own unique characteristics.
12

Approches parcimonieuses pour la sélection de variables et la classification : application à la spectroscopie IR de déchets de bois / Sparse aproaches for variables selection and classification : application to infrared spectroscopy of wood wastes

Belmerhnia, Leïla 02 May 2017 (has links)
Le présent travail de thèse se propose de développer des techniques innovantes pour l'automatisation de tri de déchets de bois. L'idée est de combiner les techniques de spectrométrie proche-infra-rouge à des méthodes robustes de traitement de données pour la classification. Après avoir exposé le contexte du travail dans le premier chapitre, un état de l'art sur la classification de données spectrales est présenté dans le chapitre 2. Le troisième chapitre traite du problème de sélection de variables par des approches parcimonieuses. En particulier nous proposons d'étendre quelques méthodes gloutonnes pour l'approximation parcimonieuse simultanée. Les simulations réalisées pour l'approximation d'une matrice d'observations montrent l'intérêt des approches proposées. Dans le quatrième chapitre, nous développons des méthodes de sélection de variables basées sur la représentation parcimonieuse simultanée et régularisée, afin d'augmenter les performances du classifieur SVM pour la classification des spectres IR ainsi que des images hyperspectrales de déchets de bois. Enfin, nous présentons dans le dernier chapitre les améliorations apportées aux systèmes de tri de bois existants. Les résultats des tests réalisés avec logiciel de traitement mis en place, montrent qu'un gain considérable peut être atteint en termes de quantités de bois recyclées / In this thesis, innovative techniques for sorting wood wastes are developed. The idea is to combine infrared spectrometry techniques with robust data processing methods for classification task. After exposing the context of the work in the first chapter, a state of the art on the spectral data classification is presented in the chapter 2. The third chapter deals with variable selection problem using sparse approaches. In particular we propose to extend some greedy methods for the simultaneous sparse approximation. The simulations performed for the approximation of an observation matrix validate the advantages of the proposed approaches. In the fourth chapter, we develop variable selection methods based on simultaneous sparse and regularized representation, to increase the performances of SVM classifier for the classification of NIR spectra and hyperspectral images of wood wastes. In the final chapter, we present the improvements made to the existing sorting systems. The results of the conducted tests using the processing software confirm that significant benefits can be achieved in terms of recycled wood quantities
13

2D sparse array optimization and operating strategy for real-time 3D ultrasound imaging / Optimisation et pilotage de sondes parcimonieuses 2D pour l’imagerie ultrasonore 3D temps-réel

Roux, Emmanuel 29 November 2016 (has links)
Aujourd'hui l'utilisation de l'échographie 3D en cardiologie est limitée car l'imagerie de la totalité du myocarde sur un cycle cardiaque, sans apnée, reste un défi technologique. Une solution consiste à réduire le nombre de capteurs dans les sondes échographiques matricielles afin d'alléger le procédé d'acquisition: ces sondes sont dites parcimonieuses. Le but de cette thèse est de proposer les meilleures dispositions d'un nombre réduit de capteurs piézo-électriques répartis sur la surface active de la sonde afin d'optimiser leur capacité à produire des images homogènes en termes de contraste et résolution dans tout le volume d'intérêt. Ce travail présente l'intégration de simulations acoustiques réalistes élaborées au sein d'un processus d'optimisation stochastique (algorithme de recuit simulé). La structure proposée pour le design des sondes parcimonieuse est suffisamment générale pour être appliquée aux sondes régulières (éléments actifs disposés selon une grille) et non-régulières (positionnement arbitraire des éléments actifs). L'introduction d'une fonction d'énergie innovante permet de sculpter en 3D le diagramme optimal de rayonnement de la sonde. Les résultats de sondes optimisées obtenues possèdent 128, 192 ou 256 éléments pour favoriser leur compatibilité avec les échographes commercialisés à ce jour, ce qui permettrait de déployer l'échographie 3D à moindre coût et à très large échelle / Today, the use of 3D ultrasound imaging in cardiology is limited because imaging the entire myocardium on a single heartbeat, without apnea, remains a technological challenge. A solution consists in reducing the number of active elements in the 2D ultrasound probes to lighten the acquisition process: this approach leads to sparse arrays. The aim of this thesis is to propose the best configuration of a given number of active elements distributed on the probe active surface in order to maximize their ability to produce images with homogeneous contrast and resolution over the entire volume of interest. This work presents the integration of realistic acoustic simulations performed in a stochastic optimization process (simulated annealing algorithm). The proposed sparse array design framework is general enough to be applied on both on-grid (active elements located on a regular grid) and non-grid (arbitrary positioning of the active elements) arrays. The introduction of an innovative energy function sculpts the optimal 3D beam pattern radiated by the array. The obtained optimized results have 128, 192 or 256 active elements to help their compatibility with currently commercialized ultrasound scanners, potentially allowing a large scale development of 3D ultrasound imaging with low cost systems
14

Déconvolution multicanale et détection de sources en utilisant des représentations parcimonieuses : application au projet Fermi / Multichannel deconvolution and source detection using sparse representations : application to Fermi project

Schmitt, Jeremy 07 December 2011 (has links)
Ce mémoire de thèse présente de nouvelles méthodologies pour l’analyse de données Poissoniennes sur la sphère, dans le cadre de la mission Fermi. Les objectifs principaux de la mission Fermi, l’étude du fond diffus galactique et l’établissement du catalogue de source, sont com pliqués par la faiblesse du flux de photons et les effets de l’instrument de mesure. Ce mémoire introduit une nouvelle représentation mutli-échelles des données Poissoniennes sur la sphère, la Transformée Stabilisatrice de Variance Multi-Echelle sur la Sphère (MS-VSTS), consistant à combiner une transformée multi-échelles sur la sphère (ondelettes, curvelets), avec une transformée stabilisatrice de variance (VST). Cette méthode est appliquée à la suppression du bruit de Poisson mono et multicanale, à l’interpolation de données manquantes, à l’extraction d’un modèle de fond et à la déconvolution multicanale. Enfin, ce mémoire aborde le problème de la séparation de composantes en utilisant des représentations parcimonieuses (template fitting). / This thesis presents new methods for spherical Poisson data analysis for the Fermi mission. Fermi main scientifical objectives, the study of diffuse galactic background et the building of the source catalog, are complicated by the weakness of photon flux and the point spread function of the instrument. This thesis proposes a new multi-scale representation for Poisson data on the sphere, the Multi-Scale Variance Stabilizing Transform on the Sphere (MS-VSTS), consisting in the combination of a spherical multi-scale transform (wavelets, curvelets) with a variance stabilizing transform (VST). This method is applied to mono- and multichannel Poisson noise removal, missing data interpolation, background extraction and multichannel deconvolution. Finally, this thesis deals with the problem of component separation using sparse representations (template fitting ).
15

Méthodes avancées de séparation de sources applicables aux mélanges linéaires-quadratiques / Advanced methods of source separation applicable to linear-quadratic mixtures

Jarboui, Lina 18 November 2017 (has links)
Dans cette thèse, nous nous sommes intéressés à proposer de nouvelles méthodes de Séparation Aveugle de Sources (SAS) adaptées aux modèles de mélange non-linéaires. La SAS consiste à estimer les signaux sources inconnus à partir de leurs mélanges observés lorsqu'il existe très peu d'informations disponibles sur le modèle de mélange. La contribution méthodologique de cette thèse consiste à prendre en considération les interactions non-linéaires qui peuvent se produire entre les sources en utilisant le modèle linéaire-quadratique (LQ). A cet effet, nous avons développé trois nouvelles méthodes de SAS. La première méthode vise à résoudre le problème du démélange hyperspectral en utilisant un modèle linéaire-quadratique. Celle-ci se repose sur la méthode d'Analyse en Composantes Parcimonieuses (ACPa) et nécessite l'existence des pixels purs dans la scène observée. Dans le même but, nous proposons une deuxième méthode du démélange hyperspectral adaptée au modèle linéaire-quadratique. Elle correspond à une méthode de Factorisation en Matrices Non-négatives (FMN) se basant sur l'estimateur du Maximum A Posteriori (MAP) qui permet de prendre en compte les informations a priori sur les distributions des inconnus du problème afin de mieux les estimer. Enfin, nous proposons une troisième méthode de SAS basée sur l'analyse en composantes indépendantes (ACI) en exploitant les Statistiques de Second Ordre (SSO) pour traiter un cas particulier du mélange linéaire-quadratique qui correspond au mélange bilinéaire. / In this thesis, we were interested to propose new Blind Source Separation (BSS) methods adapted to the nonlinear mixing models. BSS consists in estimating the unknown source signals from their observed mixtures when there is little information available on the mixing model. The methodological contribution of this thesis consists in considering the non-linear interactions that can occur between sources by using the linear-quadratic (LQ) model. To this end, we developed three new BSS methods. The first method aims at solving the hyperspectral unmixing problem by using a linear-quadratic model. It is based on the Sparse Component Analysis (SCA) method and requires the existence of pure pixels in the observed scene. For the same purpose, we propose a second hyperspectral unmixing method adapted to the linear-quadratic model. It corresponds to a Non-negative Matrix Factorization (NMF) method based on the Maximum A Posteriori (MAP) estimate allowing to take into account the available prior information about the unknown parameters for a better estimation of them. Finally, we propose a third BSS method based on the Independent Component Analysis (ICA) method by using the Second Order Statistics (SOS) to process a particular case of the linear-quadratic mixture that corresponds to the bilinear one.
16

Vers la résolution "optimale" de problèmes inverses non linéaires parcimonieux grâce à l'exploitation de variables binaires sur dictionnaires continus : applications en astrophysique / Towards an "optimal" solution for nonlinear sparse inverse problems using binary variables on continuous dictionaries : applications in Astrophysics

Boudineau, Mégane 01 February 2019 (has links)
Cette thèse s'intéresse à la résolution de problèmes inverses non linéaires exploitant un a priori de parcimonie ; plus particulièrement, des problèmes où les données se modélisent comme la combinaison linéaire d'un faible nombre de fonctions non linéaires en un paramètre dit de " localisation " (par exemple la fréquence en analyse spectrale ou le décalage temporel en déconvolution impulsionnelle). Ces problèmes se reformulent classiquement en un problème d'approximation parcimonieuse linéaire (APL) en évaluant les fonctions non linéaires sur une grille de discrétisation arbitrairement fine du paramètre de localisation, formant ainsi un " dictionnaire discret ". Cependant, une telle approche se heurte à deux difficultés majeures. D'une part, le dictionnaire provenant d'une telle discrétisation est fortement corrélé et met en échec les méthodes de résolution sous-optimales classiques comme la pénalisation L1 ou les algorithmes gloutons. D'autre part, l'estimation du paramètre de localisation, appartenant nécessairement à la grille de discrétisation, se fait de manière discrète, ce qui entraîne une erreur de modélisation. Dans ce travail nous proposons des solutions pour faire face à ces deux enjeux, d'une part via la prise en compte de la parcimonie de façon exacte en introduisant un ensemble de variables binaires, et d'autre part via la résolution " optimale " de tels problèmes sur " dictionnaire continu " permettant l'estimation continue du paramètre de localisation. Deux axes de recherches ont été suivis, et l'utilisation des algorithmes proposés est illustrée sur des problèmes de type déconvolution impulsionnelle et analyse spectrale de signaux irrégulièrement échantillonnés. Le premier axe de ce travail exploite le principe " d'interpolation de dictionnaire ", consistant en une linéarisation du dictionnaire continu pour obtenir un problème d'APL sous contraintes. L'introduction des variables binaires nous permet de reformuler ce problème sous forme de " programmation mixte en nombres entiers " (Mixed Integer Programming - MIP) et ainsi de modéliser de façon exacte la parcimonie sous la forme de la " pseudo-norme L0 ". Différents types d'interpolation de dictionnaires et de relaxation des contraintes sont étudiés afin de résoudre de façon optimale le problème grâce à des algorithmes classiques de type MIP. Le second axe se place dans le cadre probabiliste Bayésien, où les variables binaires nous permettent de modéliser la parcimonie en exploitant un modèle de type Bernoulli-Gaussien. Ce modèle est étendu (modèle BGE) pour la prise en compte de la variable de localisation continue. L'estimation des paramètres est alors effectuée à partir d'échantillons tirés avec des algorithmes de type Monte Carlo par Chaîne de Markov. Plus précisément, nous montrons que la marginalisation des amplitudes permet une accélération de l'algorithme de Gibbs dans le cas supervisé (hyperparamètres du modèle connu). De plus, nous proposons de bénéficier d'une telle marginalisation dans le cas non supervisé via une approche de type " Partially Collapsed Gibbs Sampler. " Enfin, nous avons adapté le modèle BGE et les algorithmes associés à un problème d'actualité en astrophysique : la détection d'exoplanètes par la méthode des vitesses radiales. Son efficacité sera illustrée sur des données simulées ainsi que sur des données réelles. / This thesis deals with solutions of nonlinear inverse problems using a sparsity prior; more specifically when the data can be modelled as a linear combination of a few functions, which depend non-linearly on a "location" parameter, i.e. frequencies for spectral analysis or time-delay for spike train deconvolution. These problems are generally reformulated as linear sparse approximation problems, thanks to an evaluation of the nonlinear functions at location parameters discretised on a thin grid, building a "discrete dictionary". However, such an approach has two major drawbacks. On the one hand, the discrete dictionary is highly correlated; classical sub-optimal methods such as L1- penalisation or greedy algorithms can then fail. On the other hand, the estimated location parameter, which belongs to the discretisation grid, is necessarily discrete and that leads to model errors. To deal with these issues, we propose in this work an exact sparsity model, thanks to the introduction of binary variables, and an optimal solution of the problem with a "continuous dictionary" allowing a continuous estimation of the location parameter. We focus on two research axes, which we illustrate with problems such as spike train deconvolution and spectral analysis of unevenly sampled data. The first axis focusses on the "dictionary interpolation" principle, which consists in a linearisation of the continuous dictionary in order to get a constrained linear sparse approximation problem. The introduction of binary variables allows us to reformulate this problem as a "Mixed Integer Program" (MIP) and to exactly model the sparsity thanks to the "pseudo-norm L0". We study different kinds of dictionary interpolation and constraints relaxation, in order to solve the problem optimally thanks to MIP classical algorithms. For the second axis, in a Bayesian framework, the binary variables are supposed random with a Bernoulli distribution and we model the sparsity through a Bernoulli-Gaussian prior. This model is extended to take into account continuous location parameters (BGE model). We then estimate the parameters from samples drawn using Markov chain Monte Carlo algorithms. In particular, we show that marginalising the amplitudes allows us to improve the sampling of a Gibbs algorithm in a supervised case (when the model's hyperparameters are known). In an unsupervised case, we propose to take advantage of such a marginalisation through a "Partially Collapsed Gibbs Sampler." Finally, we adapt the BGE model and associated samplers to a topical science case in Astrophysics: the detection of exoplanets from radial velocity measurements. The efficiency of our method will be illustrated with simulated data, as well as actual astrophysical data.
17

Schémas de lifting vectoriels adaptatifs et applications à la compression d'images stéréoscopiques.

Kaaniche, Mounir 02 December 2010 (has links) (PDF)
L'objectif majeur de ce travail de thèse était de proposer et d'analyser de nouveaux schémas de codage d'images stéréoscopiques. Ces schémas permettent d'assurer la reconstruction progressive avec la possibilité de restitution exacte de la paire d'images. Dans une première partie, nous avons proposé de nouveaux schémas de codage conjoint de la paire d'images stéréo reposant sur le concept du lifting vectoriel. En ce sens, contrairement aux méthodes classiques, la méthode proposée ne génère aucune image résiduelle mais deux représentations multirésolutions compactes de l'image gauche et l'image droite. De plus, nous avons proposé d'intégrer une méthode récente d'estimation de disparité dans des applications de codage d'images stéréoscopiques. Puis, dans une deuxième partie, nous nous sommes intéressés aux schémas de lifting 2D non séparables tout en nous focalisant sur les aspects d'optimisation des différents filtres mis en jeu. La structure de lifting 2D considérée est composée de trois étapes de prédiction suivies par une étape de mise à jour. Plus précisément, nous avons proposé et analysé une nouvelle méthode pour la conception du filtre de mise à jour. Concernant les filtres de prédiction, nous avons développé de nouveaux critères parcimonieux de types L1.
18

Transformées redondantes pour la représentation de signaux audio : application au codage et à l'indexation

Ravelli, Emmanuel 27 October 2008 (has links) (PDF)
Cette thèse étudie de nouvelles techniques de représentation du signal pour le codage audio. Les codeurs audio existants sont basés soit sur une transformée (codage par transformée), soit sur un modèle paramétrique (codage paramétrique), soit sur une combinaison des deux (codage hybride). D'une part, le codage par transformée permet une qualité transparente à haut débit (ex. AAC à 64 kbps/canal), mais obtient de mauvaises performances à bas débit. D'autre part, le codage paramétrique et le codage hybride obtiennent de meilleures performances que le codage par transformée à haut débit mais ne permettent pas une qualité transparente à haut débit. La nouvelle approche de représentation du signal que nous proposons permet d'obtenir une qualité transparente à haut débit et de meilleures performances que le codage par transformée à bas débit. Cette représentation du signal est basée sur un ensemble redondant de fonctions temps-fréquence composée d'une union de plusieurs bases MDCT à différentes échelles. La première contribution majeure de cette thèse est un algorithme à la fois rapide et performant qui décompose un signal dans cette ensemble redondant de fonctions. La deuxième contribution majeure de cette thèse est un ensemble de techniques qui permettent un codage de ces représentations à la fois performant et progressif. Finalement, cette thèse étudie l'application à l'indexation audio. Nous montrons que l'utilisation d'une union de plusieurs MDCT permet de dépasser les limitations des représentations utilisées dans les codeurs par transformée (en particulier la résolution fréquentielle), ce qui rend ainsi possible une indexation dans le domaine transformée performant.
19

Détection de structures fines par traitement d'images et apprentissage statistique : application au contrôle non destructif

Morard, Vincent 22 October 2012 (has links) (PDF)
Dans cette thèse, nous présentons de nouvelles méthodes de traitement d'images pourextraire ou rehausser les éléments fins d'une image. Pour ces opérateurs, issus de la morphologie mathématique,l'accent a été mis principalement sur la précision de détection et sur le temps de calcul,qui doivent être optimisés pour pouvoir répondre aux contraintes de temps imposées par différentesapplications industrielles. La première partie de ce mémoire présente ces méthodes, organisées enfonction de la tortuosité des objets à détecter. Nous commençons par proposer un algorithme rapidepour le calcul des ouvertures 1-D afin d'extraire des structures rectilignes des images. Puis, nous étudionsune nouvelle classe d'opérateurs rapides avec les ouvertures parcimonieuses par chemins, permettantd'analyser des structures ayant une tortuosité modérée. Enfin, nous proposons de nouveauxéléments structurants adaptatifs et des filtres connexes construits avec des attributs géodésiques etgéométriques pour extraire des structures filiformes ayant une tortuosité quelconque.Dans un second temps, nous avons développé une méthode d'analyse statistique en introduisantune nouvelle pénalisation adaptative. L'objectif consiste à créer un modèle prédictif précis, quiminimise en même temps une fonction de coût, indépendante des données. Lorsque cette fonctionde coût est liée au temps de calcul de chaque descripteur, il est alors possible de créer un modèleparcimonieux précis et qui minimise les temps de calcul. Cette méthode est une généralisation desrégressions linéaires et logistiques Ridge, Forward stagewise, Lar, ou Lasso.Les algorithmes développés dans cette thèse ont été utilisés pour trois applications industrielles,très différentes les unes des autres, mais toutes faisant intervenir une approche multidisciplinaire : letraitement d'images et l'analyse statistique. L'association de ces deux disciplines permet d'améliorerla généricité des stratégies proposées puisque les opérateurs de traitement d'images alliés à un apprentissagesupervisé ou non supervisé, permettent d'adapter le traitement à chaque application.Mots clés : Traitement d'images, morphologie mathématique, analyse statistique, caractérisation deformes, contrôles non destructifs, ouvertures parcimonieuses par chemins, region growing structuringelements, amincissements par attributs géodésiques et topologiques, adaptive coefficient shrinkage.
20

Les contours actifs basés région avec a priori de bruit, de texture et de forme : Application à l'échocardiographie

Lecellier, François 15 May 2009 (has links) (PDF)
L'objectif de ce travail est la conception et l'implémentation d'une méthode de segmentation générique d'images médicales qui puisse s'adapter à l'évolution des modalités et des besoins exprimés par les médecins. Partant ainsi du constat que la segmentation d'images médicales nécessite l'introduction de connaissances, nous avons opté pour une méthode pouvant combiner avantageusement les informations de bruit, de texture et de forme : les contours actifs basés région. Cette méthode consiste à déformer une courbe vers l'objet à segmenter. Ces déformations sont déduites de la dérivation d'une fonctionnelle à optimiser. <br />Notre contribution principale se situe au niveau de l'obtention de critères généraux permettant les ajouts d'informations a priori. Concernant le modèle de bruit, le critère consiste à considérer une fonction générale d'une loi paramétrique appartenant à la famille exponentielle. Nous avons mis en évidence que l'estimation des paramètres de la loi intervient de façon primordiale dans le calcul de l'équation d'évolution du contour. Pour le modèle de texture, l'absence de représentation discriminant de manière générale les textures, nous a conduit à utiliser une approche non paramétrique reposant sur les représentations parcimonieuses. Enfin l'a priori de forme utilise un critère basé sur les moments de Legendre. Les différents a priori sont ensuite reliés par le biais d'un algorithme de minimisation alternée ce qui permet de pondérer efficacement les termes d'attache aux données photométriques et l'a priori géométrique.<br />Les trois approches ont été testées et validées séparément puis de manière combinée sur des images synthétiques et réelles.

Page generated in 0.0443 seconds