• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 338
  • 97
  • 24
  • 2
  • 1
  • Tagged with
  • 457
  • 457
  • 130
  • 128
  • 84
  • 82
  • 81
  • 65
  • 64
  • 64
  • 58
  • 56
  • 53
  • 50
  • 49
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
351

Une nouvelle approche variationnelle du traitement d'images. ,Application à la coopération détection-reconstruction

Courboulay, Vincent 25 November 2002 (has links) (PDF)
Dans cette thèse, nous élaborons, dans le cadre méthodologique de la physique quantique, un cadre variationnel générique en traitement d'images bas niveau, fondé sur le principe de l'Information Physique Extrême. Nous utilisons cet outil, récemment développé, pour dériver, entre autres, la théorie des espaces d'échelles, et retrouver des diffusions linéaires et non linéaires classiques. Cette approche permet d'être optimal au sens d'un compromis entre imprécision des mesures et incertitude sur le phénomène mesuré. A ce nouveau modèle variationnel on associe l'équation de Klein-Gordon avec champs, ou en limite, celle de Schrödinger avec champs.<br />L'application associée concerne la détection et la reconstruction de prothèses coronaires, autrement appelées stents, à partir d'images rayons X. Notre méthode s'apparente à une méthode de reconstruction 2D-3D orientée forme. En effet, nous couplons deux équations de Schrödinger avec champs. Cette écriture nous permet de tirer pleinement parti de l'acquisition tomographique, ainsi que d'une contrainte de ressemblance avec un modèle d'objet à reconstruire. Chacune de ces deux sources d'information est ainsi traduite de manière algorithmique par une équation de Schrödinger. An de déterminer un potentiel d'attraction du modèle 2D vers la projection du stent, nous avons développé un nouveau descripteur multi-local ou de la surface de luminance d'une image, ainsi que deux algorithmes pragmatiques de détection et de localisation de pixels appartenant à la projection du stent.
352

Méthodes d'approximation pour la reconstruction de signaux et le redimensionnement d'images

Condat, Laurent 18 September 2006 (has links) (PDF)
Ce travail porte sur la reconstruction de signaux et le redimensionnement d'images.<br /> La reconstruction vise à estimer une fonction dont on ne connaît que des mesures linéaires éventuellement bruitées.<br />Par exemple, le problème d'interpolation uniforme consiste à estimer une fonction s(t), n'en connaissant que les valeurs s(k) aux entiers k.<br /><br /> L'approche proposée est originale et consiste à effectuer une quasi-projection dans un espace fonctionnel fixé, en minimisant l'erreur d'approximation lorsque le pas d'échantillonnage tend vers zéro.<br />Les cas 1D, 2D cartésien, et 2D hexagonal sont évoqués.<br /><br /> Nous appliquons ensuite notre formalisme au problème de l'agrandissement d'images, pour lequel seules des méthodes non-linéaires s'avèrent à même de synthétiser correctement l'information géométrique à laquelle nous sommes le plus sensibles.<br /><br /> Nous proposons une méthode appelée induction, à la fois simple, rapide et performante.
353

Contribution au Système d'Information d'un Produit « Bois ». <br />Appariement automatique de pièces de bois <br />selon des critères de couleur et de texture.

Schmitt, Emmanuel 28 September 2007 (has links) (PDF)
Nos travaux portent sur l'étude d'un capteur flou adapté à l'identification couleur d'avivés. La méthode proposée a pour objectif notamment de prendre en compte la subjectivité de la perception des couleurs par l'être humain et de délivrer ses résultats dans le vocabulaire de l'utilisateur. Le domaine d'applications (industrie du bois) impose certaines contraintes. En effet, les classes de couleurs ne sont pas disjointes (frontières non strictes) et sont représentées par peu d'échantillons. Il en résulte alors des imprécisions et incertitudes dans la définition des classes de sortie. Après un état de l'art sur les techniques de traitement d'images, de reconnaissance de formes et sur la structure des capteurs intelligents, nos travaux sont exposés suivant deux axes : du capteur aux mesures, et des mesures à la décision. Tout d'abord, nous avons évalué et corrigé les perturbations lié à l'environnement ambiant du capteur (température, vieillissement, ...). Ensuite, nous avons déterminé l'espace colorimétrique le plus discriminant,et élaboré le vecteur caractéristique composé d'attributs interprétables permettant d'identifier les couleurs. A partir de ces données, nous avons développé le Fuzzy Reasoning Classifier basé sur un mécanisme de règles linguistiques floues agrégeant des règles conjonctives suivant le modèle de Larsen. Enfin, un opérateur flou de fusion de données est utilisé pour des systèmes multi-capteurs. L'exploitation de ce capteur flou a montré le bon comportement du système face aux contraintes temps-réel industrielles ainsi qu'une amélioration des taux de reconnaissance d'environ 10%.
354

Détection de changements et classification sous-pixelliques en imagerie satellitaire. Application au suivi temporel des surfaces continentales.

Robin, Amandine 21 May 2007 (has links) (PDF)
Dans cette thèse, nous nous intéressons à l'analyse et au suivi temporel des surfaces continentales à partir de séquences d'images satellitaires. L'exploitation de données de différentes résolutions est alors cruciale pour bénéficier à la fois d'une bonne discrimination et d'une bonne localisation des objets d'intérêt. Dans ce contexte, nous proposons deux approches probabilistes pour la classification et la détection de changements capables d'accéder à une information sous-pixelique, avec très peu d'information a priori. La premire repose sur la définition d'une fonction d'énergie dans un cadre bayésien. Etant donné un nombre de classes, elle permet d'estimer la classification de manière non-supervisée en tant que minimum de cette fonction d'énergie, à travers un algorithme de recuit simulé. La seconde repose sur un modèle de détection a-contrario couplé à un algorithme stochastique d'échantillonnage aléatoire. Elle permet de détecter automatiquement les pixels de l'image qui représentent le plus vraisemblablement des changements. Une analyse théorique et expérimentale des méthodes proposées a permis d'en cerner les limites et, en particulier, de montrer leur capacité à traîter de forts rapports de résolution. Des cas réels d'applications sont présentés sur une scène agricole de la Plaine du Danube (base de donnes ADAM).
355

Modèles de maximum d'entropie pour la détection de la peau

Zheng, Huicheng Daoudi, Mohamed. Jedynak, Bruno January 2007 (has links)
Reproduction de : Thèse de doctorat : Informatique : Lille 1 : 2004. / N° d'ordre (Lille 1) : 3508. Texte en anglais. Résumé en français et en anglais. Titre provenant de la page de titre du document numérisé. Bibliogr. p. 101-107. Liste des publications.
356

Reconstruction et segmentation d'image 3D de tomographie électronique par approche "problème inverse"

Tran, Viet Dung 14 October 2013 (has links) (PDF)
Dans le domaine du raffinage, les mesures morphologiques de particules sont devenues indispensables pour caractériser les supports de catalyseurs. À travers ces paramètres, on peut remonter aux spécificités physico-chimiques des matériaux étudiés. Une des techniques d'acquisition utilisées est la tomographie électronique (ou nanotomographie). Des volumes 3D sont reconstruits à partir de séries de projections sous différents angles obtenues par microscopie électronique en transmission (MET). Cette technique permet d'acquérir une réelle information tridimensionnelle à l'échelle du nanomètre. Les projections sont obtenues en utilisant les possibilités d'inclinaison du porte objet d'un MET. À cause des limitations mécaniques de ce porte objet (proximité avec les lentilles magnétiques et déplacement nanométrique), on ne peut acquérir qu'un nombre assez restreint de projections, celles-ci étant limitées à un intervalle angulaire fixe. D'autre part, l'inclinaison du porte objet est accompagnée d'un déplacement mécanique nanométrique non parfaitement contrôlé. Ces déplacements doivent être corrigés après l'acquisition par un alignement des projections suivant le même axe 3D de rotation. Cette étape est un pré-requis à la reconstruction tomographique. Nous suggérons d'utiliser une méthode de reconstruction tomographique par une approche de type "problème inverse". Cette méthode permet d'aligner des projections et de corriger les lacunes de l'acquisition de l'objet observé en introduisant de façon pertinente des informations a priori. Ces informations sont donc basées à la fois sur la physique de l'acquisition (nature physique des images MET, géométrie et limitation spécifique de l'acquisition des projections, etc...) et sur la nature des objets à reconstruire (nombre et répartition des phases, critères morphologiques de type de connexité, etc...). L'algorithme proposé permet de réaliser la reconstruction nanotomographique avec une grande précision et un temps de calculs réduit considérablement par rapport à la technique classique. Nous avons testé avec succès notre méthode pour les projections réelles de différents supports de catalyseur
357

Amélioration des ouvertures par chemins pour l'analyse d'images à N dimensions et implémentations optimisées

Cokelaer, François 22 February 2013 (has links) (PDF)
La détection de structures fines et orientées dans une image peut mener à un très large champ d'applications en particulier dans le domaine de l'imagerie médicale, des sciences des matériaux ou de la télédétection. Les ouvertures et fermetures par chemins sont des opérateurs morphologiques utilisant des chemins orientés et flexibles en guise d'éléments structurants. Ils sont utilisés de la même manière que les opérateurs morphologiques utilisant des segments orientés comme éléments structurants mais sont plus efficaces lorsqu'il s'agit de détecter des structures pouvant être localement non rigides. Récemment, une nouvelle implémentation des opérateurs par chemins a été proposée leur permettant d'être appliqués à des images 2D et 3D de manière très efficace. Cependant, cette implémentation est limitée par le fait qu'elle n'est pas robuste au bruit affectant les structures fines. En effet, pour être efficaces, les opérateurs par chemins doivent être suffisamment longs pour pouvoir correspondre à la longueur des structures à détecter et deviennent de ce fait beaucoup plus sensibles au bruit de l'image. La première partie de ces travaux est dédiée à répondre à ce problème en proposant un algorithme robuste permettant de traiter des images 2D et 3D. Nous avons proposé les opérateurs par chemins robustes, utilisant une famille plus grande d'éléments structurants et qui, donnant une longueur L et un paramètre de robustesse G, vont permettre la propagation du chemin à travers des déconnexions plus petites ou égales à G, rendant le paramètre G indépendant de L. Cette simple proposition mènera à une implémentation plus efficace en terme de complexité de calculs et d'utilisation mémoire que l'état de l'art. Les opérateurs développés ont été comparés avec succès avec d'autres méthodes classiques de la détection des structures curvilinéaires de manière qualitative et quantitative. Ces nouveaux opérateurs ont été par la suite intégrés dans une chaîne complète de traitement d'images et de modélisation pour la caractérisation des matériaux composite renforcés avec des fibres de verres. Notre étude nous a ensuite amenés à nous intéresser à des filtres morphologiques récents basés sur la mesure de caractéristiques géodésiques. Ces filtres sont une bonne alternative aux ouvertures par chemins car ils sont très efficaces lorsqu'il s'agit de détecter des structures présentant de fortes tortuosités ce qui est précisément la limitation majeure des ouvertures par chemins. La combinaison de la robustesse locale des ouvertures par chemins robustes et la capacité des filtres par attributs géodésiques à recouvrer les structures tortueuses nous ont permis de proposer un nouvel algorithme, les ouvertures par chemins robustes et sélectives.
358

Détection de structures fines par traitement d'images et apprentissage statistique : application au contrôle non destructif

Morard, Vincent 22 October 2012 (has links) (PDF)
Dans cette thèse, nous présentons de nouvelles méthodes de traitement d'images pourextraire ou rehausser les éléments fins d'une image. Pour ces opérateurs, issus de la morphologie mathématique,l'accent a été mis principalement sur la précision de détection et sur le temps de calcul,qui doivent être optimisés pour pouvoir répondre aux contraintes de temps imposées par différentesapplications industrielles. La première partie de ce mémoire présente ces méthodes, organisées enfonction de la tortuosité des objets à détecter. Nous commençons par proposer un algorithme rapidepour le calcul des ouvertures 1-D afin d'extraire des structures rectilignes des images. Puis, nous étudionsune nouvelle classe d'opérateurs rapides avec les ouvertures parcimonieuses par chemins, permettantd'analyser des structures ayant une tortuosité modérée. Enfin, nous proposons de nouveauxéléments structurants adaptatifs et des filtres connexes construits avec des attributs géodésiques etgéométriques pour extraire des structures filiformes ayant une tortuosité quelconque.Dans un second temps, nous avons développé une méthode d'analyse statistique en introduisantune nouvelle pénalisation adaptative. L'objectif consiste à créer un modèle prédictif précis, quiminimise en même temps une fonction de coût, indépendante des données. Lorsque cette fonctionde coût est liée au temps de calcul de chaque descripteur, il est alors possible de créer un modèleparcimonieux précis et qui minimise les temps de calcul. Cette méthode est une généralisation desrégressions linéaires et logistiques Ridge, Forward stagewise, Lar, ou Lasso.Les algorithmes développés dans cette thèse ont été utilisés pour trois applications industrielles,très différentes les unes des autres, mais toutes faisant intervenir une approche multidisciplinaire : letraitement d'images et l'analyse statistique. L'association de ces deux disciplines permet d'améliorerla généricité des stratégies proposées puisque les opérateurs de traitement d'images alliés à un apprentissagesupervisé ou non supervisé, permettent d'adapter le traitement à chaque application.Mots clés : Traitement d'images, morphologie mathématique, analyse statistique, caractérisation deformes, contrôles non destructifs, ouvertures parcimonieuses par chemins, region growing structuringelements, amincissements par attributs géodésiques et topologiques, adaptive coefficient shrinkage.
359

Fusion d'informations et segmentation d'images basées sur la théorie des fonctions de croyance : Application à l'imagerie médicale TEP multi-traceurs

Lelandais, Benoît 23 April 2013 (has links) (PDF)
L'imagerie fonctionnelle par Tomographie d'Émission de Positons (TEP) multi-traceurs pourrait avoir un rôle essentiel dans le traitement du cancer par radiothérapie externe. Les images TEP aux traceurs 18Fluoro-Déoxy-Glucose (18 FDG), 18F-Fluoro-L Thymidine (18 FLT) et 18Fluoro-Misonidazole (18 FMiso) sont respectivement témoins du métabolisme glucidique, de la prolifération cellulaire et de l'hypoxie (manque d'oxygénation des cellules). L'utilisation conjointe de ces trois traceurs pourrait permettre de définir des sous-volumes donnant lieu à un traitement particulier. À cet effet, il est impératif de mettre à la disposition du corps médical un outil de segmentation et de fusion de ces images. Les images TEP ont pour caractéristique d'être très bruitées et d'avoir une faible résolution spatiale. Ces imperfections ont pour conséquence respective d'induire la présence d'informations incertaines et imprécises dans les images. Notre contribution réside dans la proposition d'une méthode, nommée EVEII pour Evidential Voxel-based Estimation of Imperfect Information, basée sur la théorie des fonctions de croyance, offrant une segmentation fiable et précise dans le contexte d'images imparfaites. Elle réside également dans la proposition d'une méthode de fusion d'images TEP multi-traceur. L'étude d'EVEII sur des images simulées a révélé qu'elle est la mieux adaptée comparée à d'autres méthodes basées sur la théorie des fonctions de croyance, en donnant un taux de bonne reconnaissance des pixels de près de 100 % lorsque le rapport signal-sur-bruit dépasse 2, 5. Sur les fantômes TEP physiques, simulant les caractéristiques des images TEP au 18 FDG, à la 18 FLT et au 18 FMiso, les résultats ont montré que notre méthode estime le mieux les volumes des sphères à segmenter comparé à des méthodes de la littérature proposées à cet effet. Sur les deux fantômes faiblement et fortement bruités respectivement, les biais moyens d'erreur d'estimation des volumes sont seulement de -0,27 et 3,89 mL, témoignant de sa pertinence à visée de segmentation d'images TEP. Enfin, notre méthode a été appliquée à la segmentation d'images TEP multi-traceurs chez trois patients. Les résultats ont montré que notre méthode est adaptée à la fusion d'images TEP multi-traceurs, offrant à cet effet un ensemble d'images paramétriques permettant de différencier les différents tissus biologiques.
360

Les contours actifs basés région avec a priori de bruit, de texture et de forme : Application à l'échocardiographie

Lecellier, François 15 May 2009 (has links) (PDF)
L'objectif de ce travail est la conception et l'implémentation d'une méthode de segmentation générique d'images médicales qui puisse s'adapter à l'évolution des modalités et des besoins exprimés par les médecins. Partant ainsi du constat que la segmentation d'images médicales nécessite l'introduction de connaissances, nous avons opté pour une méthode pouvant combiner avantageusement les informations de bruit, de texture et de forme : les contours actifs basés région. Cette méthode consiste à déformer une courbe vers l'objet à segmenter. Ces déformations sont déduites de la dérivation d'une fonctionnelle à optimiser. <br />Notre contribution principale se situe au niveau de l'obtention de critères généraux permettant les ajouts d'informations a priori. Concernant le modèle de bruit, le critère consiste à considérer une fonction générale d'une loi paramétrique appartenant à la famille exponentielle. Nous avons mis en évidence que l'estimation des paramètres de la loi intervient de façon primordiale dans le calcul de l'équation d'évolution du contour. Pour le modèle de texture, l'absence de représentation discriminant de manière générale les textures, nous a conduit à utiliser une approche non paramétrique reposant sur les représentations parcimonieuses. Enfin l'a priori de forme utilise un critère basé sur les moments de Legendre. Les différents a priori sont ensuite reliés par le biais d'un algorithme de minimisation alternée ce qui permet de pondérer efficacement les termes d'attache aux données photométriques et l'a priori géométrique.<br />Les trois approches ont été testées et validées séparément puis de manière combinée sur des images synthétiques et réelles.

Page generated in 0.2688 seconds