• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 13
  • 3
  • 1
  • Tagged with
  • 17
  • 17
  • 9
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Vérification automatique des montages d'usinage par vision : application à la sécurisation de l'usinage

Karabagli, Bilal 06 November 2013 (has links) (PDF)
Le terme "usinage à porte fermée", fréquemment employé par les PME de l'aéronautique et de l'automobile, désigne l'automatisation sécurisée du processus d'usinage des pièces mécaniques. Dans le cadre de notre travail, nous nous focalisons sur la vérification du montage d'usinage, avant de lancer la phase d'usinage proprement dite. Nous proposons une solution sans contact, basée sur la vision monoculaire (une caméra), permettant de reconnaitre automatiquement les éléments du montage (brut à usiner, pions de positionnement, tiges de fixation,etc.), de vérifier que leur implantation réelle (réalisée par l'opérateur) est conforme au modèle 3D numérique de montage souhaité (modèle CAO), afin de prévenir tout risque de collision avec l'outil d'usinage.
12

Interprétation d'images acquises en situation de faible éclairement ou d'éclairement variable / Processing images acquired under low light and variable conditions

Carré, Maxime 20 September 2013 (has links)
La qualité d’une prise de vue est un point incontournable dans la résolution des problèmes d’imagerie. Un capteur non adapté, un éclairage non contrôlé, ou des conditions variables de la scène observée peuvent être à l’origine de problèmes très difficiles à surmonter. Nous présentons différentes méthodes de traitement d’image permettant de prendre en compte au mieux ces conditions de prise de vue instables. Les approches que nous proposons sont définies dans le cadre du modèle LIP (Logarithmic Image Processing). Dans une première partie, nous nous intéressons à des notions de contraste : le contraste LIP additif et un nouveau contraste LIP multiplicatif, ainsi qu’à leurs métriques associées. De nouveaux outils de traitement basés sur ces notions sont ensuite définis : seuillage, détecteur de contours, reconnaissance de modèle. L’utilisation de ces notions de contraste confère à ces algorithmes la capacité des contrastes LIP à s’adapter à différents types d’images mal conditionnées. Nous proposons ensuite de nouvelles techniques de correction de dynamique d’images en exploitant les opérations LIP. Différentes corrections globales et locales sont présentées ainsi que leurs applications directes : correction de dérive d’éclairement pour du contrôle industriel ou amélioration d’image pour de la visualisation. Nous obtenons notamment une méthode de correction locale dont les résultats se rapprochent de ceux de certaines techniques de tone mapping. En comparaison, notre technique s’avère simple, rapide (temps réel à 30 images par seconde) et réaliste car basée sur une interprétation physique de la problématique / The quality of image acquisitions is crucial in the resolution of imaging problems. Troubles during acquisiton can lead to unstability for image processing algorithms. We propose different methods (thresholding techniques, contour detection, pattern matching) based on new metrics and contrasts in the LIP context. The LIP (Logarithmic Image Processing) model is recognized as an efficient framework to process images acquired in transmitted light and to take into account the human visual system. LIP operations are also useful to simulate varitations of image parameters in situation of reflected light. Finally, we propose new methods of global and local dynamic enhancement in the LIP framework like a real time and realistic local dynamic correction that brings results close to those obtained by certain tone mapping methods
13

Recalage de signaux et analyse de variance fonctionnelle par ondelettes. Applications au domaine biomédical

Bigot, Jérémie 02 September 2003 (has links) (PDF)
Cette thèse porte sur le recalage de signaux à partir de l'alignement de leurs landmarks, pour la comparaison d'ensembles de courbes ou d'images. Après une revue des techniques de recalage qui existent dans la littérature, une approche nonparamétrique est proposée pour estimer les landmarks d'une fonction 1D bruitée à partir des lignes de maxima d'ondelettes et de zero-crossings de sa transformée continue en ondelettes. Un nouvel outil, l'intensité structurelle, est introduit pour représenter les positions des points caractéristiques d'une courbe sous forme d'une densité de probabilité. Cette méthode conduit à une nouvelle technique de mise en correspondance automatique des landmarks de deux fonctions. L'approche envisagée dans le cas 1D est étendue au cas 2D en utilisant des décompositions en wedgelets/platelets pour détecter les contours d'une image. De nombreuses simulations et des problèmes réels d'analyse de variance fonctionnelle servent d'illustration des méthodes proposées.
14

Hypergraphe de Voisinage Spatiocolorimétrique. Application en traitement d'images : Détection de<br />contours et du bruit.

Rital, Soufiane 05 July 2004 (has links) (PDF)
Dans ce document, nous nous intéressons à la modélisation de l'image par le biais de la théorie des hypergraphes. Notre contribution est essentiellement axée sur la détermination des propriétés issues de<br />cette théorie et sur l'analyse de leur adéquation avec des problématiques de l'image et particulièrement la détection de contours et la suppression de bruit.<br /><br />Dans un premier temps, nous étudions la représentation par hypergraphes de voisinage spatiocolorimétrique de l'image. Trois représentations sont présentées incorporant des propriétés globales, locales, des mesures de similarité et des mesures de dissimilarité.<br /><br />Ensuite, on utilise les propriétés des hypergraphes engendrées par la représentation afin de définir des modèles structurels de bruit et de contour. Ceci nous permet ainsi de déduire des algorithmes de suppression de bruit et d'extraction de contours sur des images<br />à niveaux de gris et couleur. Les performances des approches proposées sont comparées aux solutions classiquement utilisées.<br />Enfin, la représentation par hypergraphe de voisinage<br />spatiocolorimétrique s'est avérée efficace pour<br />le traitement des images bas niveaux.
15

Segmentation d'image: recherche d'une mise en oeuvre automatique par coopération de méthodes

Kermad, Chafik 10 July 1997 (has links) (PDF)
La thématique de recherche dans laquelle s'inscrit cette thèse est celle de la segmentation d'images. Les travaux menés ont permis la conception et le développement d'un système d'analyse adaptable à plusieurs catégories d'images dont les régions peuvent être de nature uniforme et/ou texturée. Un intérêt tout particulier a été accordé à l'aspect automatique et non-supervisé du dispositif. L'architecture du système proposé combine deux concepts. Le premier, fondé sur un procédé d'intégration d'informations issues de différentes méthodes, permet de tirer parti des avantages de chacune d'elles. Le second concept s'inspire de la perception active par l'introduction d'une boucle de retour dans le système afin de corriger et d'ajuster les paramètres de contrôle des différentes techniques de segmentation. Le principe de la coopération proposée introduit un mécanisme de vérification de la cohérence par comparaison des résultats des méthodes qui coopèrent. Cet aspect fait défaut à un bon nombre d'approches coopératives. Le système mis au point est composé de deux modules. Le premier est dédié à l'extraction de régions uniformes ou faiblement texturées. Le principe est fondé sur une coopération itérative entre une méthode de détection de contours et une méthode d'extraction de régions. Ces deux méthodes sont itérées avec des critères de plus en plus tolérants jusqu'à la convergence vers des résultats cohérents et stables. La cohérence est contrôlée et vérifiée en minimisant une mesure de dissimilarité entre les contours et les régions. Le but est ainsi de fournir une solution optimale au sens de la compatibilité entre les deux segmentations. Le second module localise les primitives « textures » afin de réactualiser et corriger les primitives « contours » et « régions » extraites par le premier module. Cette localisation s'appuie sur une classification automatique par multi-seuillage exploitant certains mécanismes de la perception visuelle, et sur une fusion des régions multi-seuillées basée sur la minimisation d'un critère de similarité. L'efficacité de l'approche mise au point s'est traduite, dans la plupart des cas examinés, par une détection cohérente des éléments représentatifs de l'image.
16

Perception visuelle humaine, complétion des mosaïques et application à la reconstruction d'images de l'endothélium cornéen humain\\ en microscopie optique spéculaire

Gavet, Yann 13 February 2008 (has links) (PDF)
L'endothélium cornéen humain constitue une mono-couche de cellules de formes relativement hexagonales et de surfaces régulières, situées à la face interne de la cornée. Ces cellules sont primordiales car elles maintiennent la transparence de la cornée. Leurs contours sont facilement photographiés chez le patient grâce à la microscopie optique spéculaire (in vivo), ou sur un greffon (ex vivo) grâce à la microscopie optique classique. Les ophtalmologistes s'intéressent alors à la densité cellulaire, ainsi qu'à des caractéristiques morphométriques (polymégethisme et pléomorphisme). Leur analyse, lorsqu'elle utilise des logiciels spécifiques, n'est cependant jamais aussi pertinente que l'analyse visuelle. Ce constat nous a conduit à nous intéresser aux principes qui régissent la perception visuelle humaine. Dans cette thèse, nous vérifions de manière élémentaire que les principes de bonne continuation et de proximité de la théorie de la Gestalt sont vérifiés algorithmiquement sur des cas simples, ce qui permet d'envisager leur utilisation pour fermer les contours imparfaitement détectés dans les images. Cependant, les résultats obtenus suggèrent une intéraction complexe entre ces principes. L'utilisation de méthodes morphologiques basées sur des filtres alternés séquentiels, des cartes de distances et des lignes de partage des eaux fournit de bons résultats. Il est montré que ces méthodes sont fondées sur les principes de la théorie de la Gestalt: la "proximité'' est introduite par les cartes de distances, la "continuation'' et la "fermeture'' sont des propriétés des lignes de partage des eaux. Leur utilisation conjointe permet de réaliser une analyse duale contours-régions: les cartes de distances permettent d'accéder à des informations régionales à partir des contours, alors que les lignes de partage des eaux permettent d'obtenir des informations de contours à partir de marqueurs régionaux. Ces impressions ont été vérifiées en mettant en place un critère de dissimilarité qui permet de quantifier l'erreur entre une mosaïque (structure cellulaire observée sur l'image de l'endothélium) fournie par l'expert et une autre mosaïque. Ainsi, plusieurs méthodes de segmentation sont testées, et la méthode que nous proposons donne les meilleurs résultats. Ce critère de dissimilarité a permis de trouver les meilleurs paramètres de chaque méthode et de faire établir entre elles un classement par les ophtalmologistes. Pour terminer la segmentation des images, une validation des résultats, basée sur des paramètres de formes, est proposée.
17

Une mesure de non-stationnarité générale : Application en traitement d'images et du signaux biomédicaux / A general non-stationarity measure : Application to biomedical image and signal processing

Xu, Yanli 04 October 2013 (has links)
La variation des intensités est souvent exploitée comme une propriété importante du signal ou de l’image par les algorithmes de traitement. La grandeur permettant de représenter et de quantifier cette variation d’intensité est appelée une « mesure de changement », qui est couramment employée dans les méthodes de détection de ruptures d’un signal, dans la détection des contours d’une image, dans les modèles de segmentation basés sur les contours, et dans des méthodes de lissage d’images avec préservation de discontinuités. Dans le traitement des images et signaux biomédicaux, les mesures de changement existantes fournissent des résultats peu précis lorsque le signal ou l’image présentent un fort niveau de bruit ou un fort caractère aléatoire, ce qui conduit à des artefacts indésirables dans le résultat des méthodes basées sur la mesure de changement. D’autre part, de nouvelles techniques d'imagerie médicale produisent de nouveaux types de données dites à valeurs multiples, qui nécessitent le développement de mesures de changement adaptées. Mesurer le changement dans des données de tenseur pose alors de nouveaux problèmes. Dans ce contexte, une mesure de changement, appelée « mesure de non-stationnarité (NSM) », est améliorée et étendue pour permettre de mesurer la non-stationnarité de signaux multidimensionnels quelconques (scalaire, vectoriel, tensoriel) par rapport à un paramètre statistique, et en fait ainsi une mesure générique et robuste. Une méthode de détection de changements basée sur la NSM et une méthode de détection de contours basée sur la NSM sont respectivement proposées et appliquées aux signaux ECG et EEG, ainsi qu’a des images cardiaques pondérées en diffusion (DW). Les résultats expérimentaux montrent que les méthodes de détection basées sur la NSM permettent de fournir la position précise des points de changement et des contours des structures tout en réduisant efficacement les fausses détections. Un modèle de contour actif géométrique basé sur la NSM (NSM-GAC) est proposé et appliqué pour segmenter des images échographiques de la carotide. Les résultats de segmentation montrent que le modèle NSM-GAC permet d’obtenir de meilleurs résultats comparativement aux outils existants avec moins d'itérations et de temps de calcul, et de réduire les faux contours et les ponts. Enfin, et plus important encore, une nouvelle approche de lissage préservant les caractéristiques locales, appelée filtrage adaptatif de non-stationnarité (NAF), est proposée et appliquée pour améliorer les images DW cardiaques. Les résultats expérimentaux montrent que la méthode proposée peut atteindre un meilleur compromis entre le lissage des régions homogènes et la préservation des caractéristiques désirées telles que les bords ou frontières, ce qui conduit à des champs de tenseurs plus homogènes et par conséquent à des fibres cardiaques reconstruites plus cohérentes. / The intensity variation is often used in signal or image processing algorithms after being quantified by a measurement method. The method for measuring and quantifying the intensity variation is called a « change measure », which is commonly used in methods for signal change detection, image edge detection, edge-based segmentation models, feature-preserving smoothing, etc. In these methods, the « change measure » plays such an important role that their performances are greatly affected by the result of the measurement of changes. The existing « change measures » may provide inaccurate information on changes, while processing biomedical images or signals, due to the high noise level or the strong randomness of the signals. This leads to various undesirable phenomena in the results of such methods. On the other hand, new medical imaging techniques bring out new data types and require new change measures. How to robustly measure changes in theos tensor-valued data becomes a new problem in image and signal processing. In this context, a « change measure », called the Non-Stationarity Measure (NSM), is improved and extended to become a general and robust « change measure » able to quantify changes existing in multidimensional data of different types, regarding different statistical parameters. A NSM-based change detection method and a NSM-based edge detection method are proposed and respectively applied to detect changes in ECG and EEG signals, and to detect edges in the cardiac diffusion weighted (DW) images. Experimental results show that the NSM-based detection methods can provide more accurate positions of change points and edges and can effectively reduce false detections. A NSM-based geometric active contour (NSM-GAC) model is proposed and applied to segment the ultrasound images of the carotid. Experimental results show that the NSM-GAC model provides better segmentation results with less iterations that comparative methods and can reduce false contours and leakages. Last and more important, a new feature-preserving smoothing approach called « Nonstationarity adaptive filtering (NAF) » is proposed and applied to enhance human cardiac DW images. Experimental results show that the proposed method achieves a better compromise between the smoothness of the homogeneous regions and the preservation of desirable features such as boundaries, thus leading to homogeneously consistent tensor fields and consequently a more reconstruction of the coherent fibers.

Page generated in 0.0988 seconds