Spelling suggestions: "subject:"contour actin""
11 |
Reconnaissance de forme pour l'analyse de scèneKulikova, Maria 16 December 2009 (has links) (PDF)
Cette thèse est composée de deux parties principales. La première partie est dédiée au problème de la classification d'espèces d'arbres en utilisant des descripteurs de forme, en combainison ou non, avec ceux de radiométrie ou de texture. Nous montrons notamment que l'information sur la forme améliore la performance d'un classifieur. Pour ce faire, dans un premier temps, une étude des formes de couronnes d'arbres extraites à partir d'images aériennes, en infrarouge couleur, est eectuée en utilisant une méthodologie d'analyse de formes des courbes continues fermées dans un espace de formes, en utilisant la notion de chemin géodésique sous deux métriques dans des espaces appropriés : une métrique non-élastique en utilisant la reprèsentation par la fonction d'angle de la courbe, ainsi qu'une métrique élastique induite par une représentation par la racinecarée appelée q-fonction. Une étape préliminaire nécessaire à la classification est l'extraction des couronnes d'arbre. Dans une seconde partie, nous abordons donc le problème de l'extraction d'objets de forme complexe arbitraire, à partir d'images de télédétection à très haute résolution. Nous construisons un modèle fondé sur les processus ponctuels marqués. Son originalité tient dans sa prise en compte d'objets de forme arbitraire par rapport aux objets de forme paramétrique, e.g. ellipses ou rectangles. Les formes sélectionnées sont obtenues par la minimisation locale d'une énergie de type contours actifs avec diérents a priori sur la forme incorporé. Les objets de la configuration finale (optimale) sont ensuite sélectionnés parmi les candidats par une dynamique de naissances et morts multiples, couplée à un schéma de recuit simulé. L'approche est validée sur des images de zones forestières à très haute résolution fournies par l'Université d'Agriculture de Suède.
|
12 |
Segmentation par contours actifs de séquences de vélocimétrie IRM Application aux artères carotidesTrebuchet, Guillaume 27 September 2013 (has links) (PDF)
La vélocimétrie par IRM est une modalité intéressante pour explorer des pathologies cardiovasculaires. La séquence d'IRM en contraste de phase a la particularité de fournir à la fois des informations anatomiques et des informations physiologiques, permettant ainsi de mesurer les propriétés géométriques des vaisseaux ainsi que leurs propriétés hémodynamiques. Le but de cette thèse est d'automatiser la segmentation des vaisseaux et les mesures de vélocimétrie, un traitement manuel étant inadapté à une exploitation de la vélocimétrie IRM à des fins diagnostiques en routine clinique. Les travaux menés ont conduit à proposer une méthode de segmentation basée sur les contours actifs guidés par une information région (approche " région "), contrairement aux approches classiques se focalisant uniquement sur les frontières inter-régions (approche " contour "). Cette approche " région " a été évaluée sur des données provenant d'un fantôme réalisé afin de disposer d'une référence objective. Une seconde évaluation a été réalisée sur une base de 28 carotides (14 patients) segmentées manuellement par un radiologue expert. Les résultats obtenus sur les données " fantôme " montrent que l'approche " contour " conduit à une erreur de mesure de l'aire de la lumière de la carotide segmentée et de la mesure du flux de respectivement 18.4 % et 3.6 %. Ces erreurs sont plus importantes que celles obtenues en utilisant l'approche proposée (respectivement 2.3 % et 0.7 %). Ce bénéfice apparaît encore bien supérieur sur la base de patients avec une sous-estimation des aires et débits sanguins de respectivement 40.5 % et 26.5 % pour l'approche " contour ", contre 14,7 et 6.4 % pour l'approche proposée.
|
13 |
Application des techniques de numérisation tridimensionnelle au contrôle de process de pièces de forge / Application of 3D scanning techniques to the process control of forged partsBokhabrine, Youssef 11 October 2010 (has links)
L’objectif de ces travaux de thèse est la conception et le développement d’un système de caractérisation tridimensionnelle de pièces forgées de grande dimension portées à haute température. Les travaux se basent sur de nombreuses thématiques telles que l’acquisition tridimensionnelle, l’extraction, la segmentation et le recalage de primitives 3D. Nous présentons tout d’abord les limites des systèmes de caractérisation de pièces forgées cités dans la littérature. Dans la deuxième partie, nous présentons la réalisation du système de caractérisation de pièces forgées, constitué de deux scanners temps de vol (TOF). Nous présentons également le simulateur de numérisation par scanner TOF qui nous permet de nous affranchir des contraintes industrielles (temps, difficulté de manœuvres) pour positionner les deux scanners. La troisième partie est consacrée à l’extraction des primitives 3D. Nous avons traité deux types de primitives : viroles et sphères avec deux approches différentes : méthode supervisée et méthode automatique. La première approche basée sur une méthode de croissance de région et de contour actif, permet d’extraire des formes extrudées complexes. Des problèmes d’ergonomie du système nous ont conduits à développer une deuxième approche, basée sur l’image de Gauss et l’extraction d’ellipse, qui permet l’extraction automatique de formes cylindriques ovales ou circulaires. Nous présentons également quatre méthodes d’extraction automatique de sphères basées sur des approches heuristiques : RANSAC (RANdom SAmple Consensus), algorithme génétique et algorithme génétique par niche. Dans la quatrième partie, nous étudions les différentes approches de recalage de données 3D traitées : le calibrage basé sur les cibles artificielles et le recalage fin basé sur l’algorithme ICP. Pour conclure, nous présentons la réalisation d’un système complet de caractérisation tridimensionnelle de pièces forgées de grande dimension. Ensuite, nous comparons les performances et les limites de ce système avec les systèmes de caractérisation cités dans la littérature. / The main objective of this Phd project is to conceive a machine vision system for hot cylindrical metallic shells diameters measurement during forging process. The manuscript is structured by developing in the first chapter the state of the art and the limits of hot metallic shells measurement systems suggested in literature. Our implemented system which is based on two conventional Time Of Flight (TOF) laser scanners has been described in the same chapter along, chapter two, with presentation of its respective numerical simulator. Simulation series have been done using the digitizing simulator and were aimed to determine the optimal positions of the two scanners without any industrial constraints (time, difficulty of operations). The third part of the manuscript copes with 3D primitives extraction. Two major types of approaches have been studied according to the primitive’s form (cylinders or spheres) to be extracted: supervised method and automatic method. The first approach, based on a growing region method and active contour, enables to extract complex extruded forms; while problems of ergonomics have been solved using automatic methods that have been carried out along the programme research. The proposed methods consist in automatically extracting: oval or circular cylindrical forms, using Gauss map associated with ellipse extraction techniques : spherical forms, using heuristic approaches such as RANdom SAmple Consensus RANSAC, Genetic Algorithm (GA) and Niche Genetic Algorithm (NGA). Two varieties of 3D data registration approach have been presented and discussed in chapter 4: the registration based on the artificial targets and the fine registration based on algorithm ICP. A complete system for three-dimensional characterization of hot cylindrical metallic shells during forging process has been implemented and then compared with existing systems in order to identify its performances and limits in conclusion.
|
14 |
Une mesure de non-stationnarité générale : Application en traitement d'images et du signaux biomédicaux / A general non-stationarity measure : Application to biomedical image and signal processingXu, Yanli 04 October 2013 (has links)
La variation des intensités est souvent exploitée comme une propriété importante du signal ou de l’image par les algorithmes de traitement. La grandeur permettant de représenter et de quantifier cette variation d’intensité est appelée une « mesure de changement », qui est couramment employée dans les méthodes de détection de ruptures d’un signal, dans la détection des contours d’une image, dans les modèles de segmentation basés sur les contours, et dans des méthodes de lissage d’images avec préservation de discontinuités. Dans le traitement des images et signaux biomédicaux, les mesures de changement existantes fournissent des résultats peu précis lorsque le signal ou l’image présentent un fort niveau de bruit ou un fort caractère aléatoire, ce qui conduit à des artefacts indésirables dans le résultat des méthodes basées sur la mesure de changement. D’autre part, de nouvelles techniques d'imagerie médicale produisent de nouveaux types de données dites à valeurs multiples, qui nécessitent le développement de mesures de changement adaptées. Mesurer le changement dans des données de tenseur pose alors de nouveaux problèmes. Dans ce contexte, une mesure de changement, appelée « mesure de non-stationnarité (NSM) », est améliorée et étendue pour permettre de mesurer la non-stationnarité de signaux multidimensionnels quelconques (scalaire, vectoriel, tensoriel) par rapport à un paramètre statistique, et en fait ainsi une mesure générique et robuste. Une méthode de détection de changements basée sur la NSM et une méthode de détection de contours basée sur la NSM sont respectivement proposées et appliquées aux signaux ECG et EEG, ainsi qu’a des images cardiaques pondérées en diffusion (DW). Les résultats expérimentaux montrent que les méthodes de détection basées sur la NSM permettent de fournir la position précise des points de changement et des contours des structures tout en réduisant efficacement les fausses détections. Un modèle de contour actif géométrique basé sur la NSM (NSM-GAC) est proposé et appliqué pour segmenter des images échographiques de la carotide. Les résultats de segmentation montrent que le modèle NSM-GAC permet d’obtenir de meilleurs résultats comparativement aux outils existants avec moins d'itérations et de temps de calcul, et de réduire les faux contours et les ponts. Enfin, et plus important encore, une nouvelle approche de lissage préservant les caractéristiques locales, appelée filtrage adaptatif de non-stationnarité (NAF), est proposée et appliquée pour améliorer les images DW cardiaques. Les résultats expérimentaux montrent que la méthode proposée peut atteindre un meilleur compromis entre le lissage des régions homogènes et la préservation des caractéristiques désirées telles que les bords ou frontières, ce qui conduit à des champs de tenseurs plus homogènes et par conséquent à des fibres cardiaques reconstruites plus cohérentes. / The intensity variation is often used in signal or image processing algorithms after being quantified by a measurement method. The method for measuring and quantifying the intensity variation is called a « change measure », which is commonly used in methods for signal change detection, image edge detection, edge-based segmentation models, feature-preserving smoothing, etc. In these methods, the « change measure » plays such an important role that their performances are greatly affected by the result of the measurement of changes. The existing « change measures » may provide inaccurate information on changes, while processing biomedical images or signals, due to the high noise level or the strong randomness of the signals. This leads to various undesirable phenomena in the results of such methods. On the other hand, new medical imaging techniques bring out new data types and require new change measures. How to robustly measure changes in theos tensor-valued data becomes a new problem in image and signal processing. In this context, a « change measure », called the Non-Stationarity Measure (NSM), is improved and extended to become a general and robust « change measure » able to quantify changes existing in multidimensional data of different types, regarding different statistical parameters. A NSM-based change detection method and a NSM-based edge detection method are proposed and respectively applied to detect changes in ECG and EEG signals, and to detect edges in the cardiac diffusion weighted (DW) images. Experimental results show that the NSM-based detection methods can provide more accurate positions of change points and edges and can effectively reduce false detections. A NSM-based geometric active contour (NSM-GAC) model is proposed and applied to segment the ultrasound images of the carotid. Experimental results show that the NSM-GAC model provides better segmentation results with less iterations that comparative methods and can reduce false contours and leakages. Last and more important, a new feature-preserving smoothing approach called « Nonstationarity adaptive filtering (NAF) » is proposed and applied to enhance human cardiac DW images. Experimental results show that the proposed method achieves a better compromise between the smoothness of the homogeneous regions and the preservation of desirable features such as boundaries, thus leading to homogeneously consistent tensor fields and consequently a more reconstruction of the coherent fibers.
|
Page generated in 0.057 seconds