• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 338
  • 97
  • 24
  • 2
  • 1
  • Tagged with
  • 457
  • 457
  • 130
  • 128
  • 84
  • 82
  • 81
  • 65
  • 64
  • 64
  • 58
  • 56
  • 53
  • 50
  • 49
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
361

Modélisation géométrique de bifurcations

Moreau-Gaudry, Alexandre 10 February 2000 (has links) (PDF)
Les objets bifurcation, du fait de leurs topologies non homotopiques aux classiques surfaces sphériques, cylindriques ou toriques, sont des entités difficilement paramétrables de façon naturelle. Relevant du domaine de la modélisation et de l'imagerie, ce travail de thèse présente, dans un premier temps, de possibles paramétrages planaires univoques de cette entité, dont un particulier, d'inspiration physique, a permis la génération d'une surface C1 de topologie compatible: bâtie comme une enveloppe de superquadriques reposant sur un squelette déformable, elle est entièrement définie par la donnée de 24 paramètres. Dans un second temps, motivé par l'amélioration de l'étude d'un marqueur indirect des maladies cardiovasculaires, première cause de mortalité dans les pays industrialisés, cette surface est déformée à partir de données échographiques 2.5D de la bifurcation de l'artère Carotide : pour obtenir ces données, un système d'acquisition, intégrant un localisateur optique à marqueurs actifs, a été développé et évalué. Enrichi successivement par des informations a priori complémentaires de différents types, ce modèle est alors mis en correspondance par deux méthodes distinctes ("extraction puis ajustement", "contours actifs") avec les données échographiques précédemment acquises. Les premiers résultats obtenus sont présentés dans ce travail.
362

RESEAUX DE NEURONES EN TRAITEMENT D'IMAGES <br />- Des Modèles théoriques aux Applications Industrielles -

Burel, Gilles 06 December 1991 (has links) (PDF)
Les travaux présentés portent sur les réseaux de neurones appliqués au<br />traitement du signal et de l'image. On se place d'emblée du point de vue de<br />l'industriel impliqué dans la recherche, c'est à dire que l'on s'intéresse à<br />des problèmes réalistes, sans pour autant négliger la recherche<br />théorique.<br /><br />Dans une première partie, nous montrons<br />l'intérêt des réseaux de neurones comme source d'inspiration pour la<br />conception de nouveaux algorithmes. Nous proposons en particulier une<br />structure originale pour la prédiction, ainsi que de nouveaux algorithmes de<br />Quantification Vectorielle. Les propriétés des algorithmes existants sont<br />également éclaircies du point de vue théorique, et des méthodes de réglage<br />automatique de leurs paramètres sont proposées.<br /><br />On montre ensuite les capacités des réseaux de neurones à traiter un vaste champ<br />d'applications d'intérêt industriel. Pour divers problèmes de traitement de<br />l'image et du signal (de la segmentation à la séparation de sources, en<br />passant par la reconnaissance de formes et la compression de données), on<br />montre qu'il est possible de développer à moindre coût une solution neuronale<br />efficace.
363

SEEPROC : un modèle de processeur à chemin de données reconfigurable pour le traitement d'images embarqué

Roudel, Nicolas 18 April 2012 (has links) (PDF)
Les travaux présentés dans ce manuscrit proposent une architecture de processeur à chemin de données reconfigurable (PCDR) dédiée aux traitements d'images bas niveau. Afin de répondre aux exigences de ce domaine de traitements, le processeur, baptisé SeeProc et basé sur une architecture RISC, intègre dans son chemin de données des unités de calcul spécifiquement dédiées au traitement de données pixeliques sous forme matricielle. Ces unités peuvent être configurées en nombre et en fonctionnalité en fonction de l'application visée. La topologie d'interconnexion du chemin de données est assurée dynamiquement via un dispositif de type crossbar. De plus, pour rendre la programmation de SeeProc accessible à des utilisateurs n'ayant pas de notions d'électronique numérique, un langage assembleur dédié et une méthodologie d'optimisation ont été développés.
364

Transport optimal pour l'assimilation de données images / Optimal transportation for images data assimilation

Feyeux, Nelson 08 December 2016 (has links)
Pour prédire l'évolution d'un système physique, nous avons besoin d'initialiser le modèle mathématique le représentant, donc d'estimer la valeur de l'état du système au temps initial. Cet état n'est généralement pas directement mesurable car souvent trop complexe. En revanche, nous disposons d'informations du système, prises à des temps différents, incomplètes, mais aussi entachées d'erreurs, telles des observations, de précédentes estimations, etc. Combiner ces différentes informations partielles et imparfaites pour estimer la valeur de l'état fait appel à des méthodes d'assimilation de données dont l'idée est de trouver un état initial proche de toutes les informations. Ces méthodes sont très utilisées en météorologie. Nous nous intéressons dans cette thèse à l'assimilation d'images, images qui sont de plus en plus utilisées en tant qu'observations. La spécificité de ces images est leur cohérence spatiale, l'oeil humain peut en effet percevoir des structures dans les images que les méthodes classiques d'assimilation ne considèrent généralement pas. Elles ne tiennent compte que des valeurs de chaque pixel, ce qui résulte dans certains cas à des problèmes d'amplitude dans l'état initial estimé. Pour résoudre ce problème, nous proposons de changer d'espace de représentation des données : nous plaçons les données dans un espace de Wasserstein où la position des différentes structures compte. Cet espace, équipé d'une distance de Wasserstein, est issue de la théorie du transport optimal et trouve beaucoup d'applications en imagerie notamment.Dans ce travail nous proposons une méthode d'assimilation variationnelle de données basée sur cette distance de Wasserstein. Nous la présentons ici, ainsi que les algorithmes numériques liés et des expériences montrant ses spécificités. Nous verrons dans les résultats comment elle permet de corriger ce qu'on appelle erreurs de position. / Forecasting of a physical system is computed by the help of a mathematical model. This model needs to be initialized by the state of the system at initial time. But this state is not directly measurable and data assimilation techniques are generally used to estimate it. They combine all sources of information such as observations (that may be sparse in time and space and potentially include errors), previous forecasts, the model equations and error statistics. The main idea of data assimilation techniques is to find an initial state accounting for the different sources of informations. Such techniques are widely used in meteorology, where data and particularly images are more and more numerous due to the increasing number of satellites and other sources of measurements. This, coupled with developments of meteorological models, have led to an ever-increasing quality of the forecast.Spatial consistency is one specificity of images. For example, human eyes are able to notice structures in an image. However, classical methods of data assimilation do not handle such structures because they take only into account the values of each pixel separately. In some cases it leads to a bad initial condition. To tackle this problem, we proposed to change the representation of an image: images are considered here as elements of the Wasserstein space endowed with the Wasserstein distance coming from the optimal transport theory. In this space, what matters is the positions of the different structures.This thesis presents a data assimilation technique based on this Wasserstein distance. This technique and its numerical procedure are first described, then experiments are carried out and results shown. In particularly, it appears that this technique was able to give an analysis of corrected position.
365

SEEPROC : un modèle de processeur à chemin de données reconfigurable pour le traitement d'images embarqué / SEEPROC : a reconfigurable data path processor model for embedded image processing

Roudel, Nicolas 18 April 2012 (has links)
Les travaux présentés dans ce manuscrit proposent une architecture de processeur à chemin de données reconfigurable (PCDR) dédiée aux traitements d'images bas niveau. Afin de répondre aux exigences de ce domaine de traitements, le processeur, baptisé SeeProc et basé sur une architecture RISC, intègre dans son chemin de données des unités de calcul spécifiquement dédiées au traitement de données pixeliques sous forme matricielle. Ces unités peuvent être configurées en nombre et en fonctionnalité en fonction de l'application visée. La topologie d'interconnexion du chemin de données est assurée dynamiquement via un dispositif de type crossbar. De plus, pour rendre la programmation de SeeProc accessible à des utilisateurs n'ayant pas de notions d'électronique numérique, un langage assembleur dédié et une méthodologie d'optimisation ont été développés. / The work presented in this manuscript suggest an architecture of a reconfigurable datapath processor (RDP) dedicated to low-level image processing. To meet the requirements of this field, the processor, called SeeProc and based on a RISC architecture, includes in its datapath customs processing elements specifically dedicated to the computation of image data in matrix form. These units can be configured in number and functionality depending on the application. The datapath interconnection topology is provided dynamically using a crossbar device. In addition, to make the programming accessible to users with no knowledge of electronics digital, a dedicated assembly language and an optimization methodology have been developed.
366

Méthodes de traitement d’images pour le dépistage de la rétinopathie diabétique assisté par ordinateur / Image processing methods for computer-aided screening of diabetic retinopathy

Zhang, Xiwei 04 July 2014 (has links)
La rétinopathie diabétique est la cause principale de cécité dans la population en âge de travailler. Une détection précoce et un traitement adapté permettent de réduire considérablement le risque de perte de vue. Les autorités médicales recommandent un examen annuel pour les patients diabétiques. Plusieurs programmes de dépistage de la rétinopathie diabétique ont été déployés pour appliquer cette recommandation. L'objectif du projet TeleOphta était de détecter automatiquement des examens normaux dans un système de dépistage du diabète, afin de réduire le fardeau des lecteurs, et donc servir plus de patients. Cette thèse propose plusieurs méthodes pour extraire des informations liées à des lésions provoquées par la rétinopathie diabétique dans des images en couleurs du fond d'œil.La détection des exsudats, microanévrismes et hémorragies est discutée en détail. L'un des principaux défis de ce travail est de traiter des images cliniques, acquises avec différents types de caméras de fond d'œil, par des personnes différentes. Par conséquent, l'hétérogénéité de la base de données est élevé. Des nouvelles méthodes de pré-traitement, qui effectuent non seulement des tâches de normalisation et de débruitage, mais aussi de détection de réflexions et d'artefacts optiques, sont proposées. Des méthodes de segmentation des candidats basées sur la morphologie mathématique, et de nouveaux descripteurs de texture et de contexte sont proposées pour la caractérisation des lésions. Un algorithme de forêts aléatoires est utilisé pour choisir les lésions parmi les candidats. Les méthodes proposées utilisent largement des nouvelles méthodes d'analyse des résidus.En outre, trois nouvelles bases de données publiques d'images de la rétine, e-ophtha EX, e-ophtha MA et e-ophtha HM, respectivement conçues pour développer et évaluer les méthodes de détection d' exsudats,de microanévrismes et d'hémorragies, sont proposées dans ce travail. Les images ont été extraites du réseau de télémédecine OPHDIAT pour le dépistage de la rétinopathie diabétique. Des annotations manuelles détaillées des lésions sont fournies avec ces bases de données. Les algorithmes proposés sont évalués sur ces bases.Les méthodes proposées ont été intégrées dans le système TeleOphta , qui est présentée et évaluée sur deux grandes bases de données. Chaque dossier du patient est classé en deux catégories: “Pour avis” ou “Normal". La classification est basée non seulement sur les résultats des méthodes présentées, mais aussi sur les signatures d'image fournies par d'autres partenaires, ainsi que sur l'information médicale du patient, et les données liées à l'acquisition. L'évaluation montre que le système TeleOphta permet de traiter deux fois plus de patients dans un réseau de dépistage, à moyens constants. / Diabetic retinopathy is the main cause of blindness among the middle-aged population. An early detection and adapted treatment considerably reduce the risk of sight loss. Medical authorities recommend an annual examination to diabetic patients. Several diabetic retinopathy screening programs have been deployed to enforce this recommendation. The aim of the TeleOphta project was to automatically detect normal examinations in a diabetic screening system, in order to reduce the burden on readers, and therefore serve more patients. This thesis proposes several methods to extract information linked to diabetic retinopathy lesions from color eye fundus images.The detection of exudates, microaneurysms and hemorrhages is discussed in detail. One of the main challenges of this work is to deal with clinical images, acquired by different types of eye fundus cameras, by different persons. Therefore the data base heterogeneity is high. New pre-processing methods, which perform not only normalization and denoising tasks, but also detect reflections and artifacts in the images, are proposed. Novel candidate segmentation methods based on mathematical morphology, and new textural and contextual features for lesion characterization, are proposed. A random forest algorithm is used to detect lesions among the candidates. The proposed methods make extensive use of new residue analysis methods.Moreover, three new publicly available retinal image databases, e-ophtha EX, e-ophtha MA and e-ophtha HM, respectively designed to develop and evaluate exudate, microaneurysms and hemorrhages detections methods, are proposed in this work. The images are extracted from the OPHDIAT telemedicine network for diabetic retinopathy screening. Manual annotations of the lesions are given in detail in these databases. The proposed algorithms are evaluated on these databases.The proposed methods have been integrated within the TeleOphta system, which is presented and evaluated on two large databases. Each patient record is classified into two categories: “To be referred” or “Normal”. The classification is based not only on the results of the presented methods, but also on image signatures provided by other partners, as well as on medical and acquisition-related information. The evaluation shows that the TeleOphta system can make about 2 times more patients benefit from the diagnosis service.
367

Statistical detection for digital image forensics / Détection statistique pour la criminalistique des images numériques

Qiao, Tong 25 April 2016 (has links)
Le XXIème siècle étant le siècle du passage au tout numérique, les médias digitaux jouent un rôle de plus en plus important. Les logiciels sophistiqués de retouche d’images se sont démocratisés et permettent de diffuser facilement des images falsifiées. Ceci pose un problème sociétal puisqu’il s’agit de savoir si ce que l’on voit a été manipulé. Cette thèse s'inscrit dans le cadre de la criminalistique des images. Trois problèmes sont abordés : l'identification de l'origine d'une image, la détection d'informations cachées dans une image et la détection d'un exemple falsification : le rééchantillonnage. Ces travaux s'inscrivent dans le cadre de la théorie de la décision statistique et proposent la construction de détecteurs permettant de respecter une contrainte sur la probabilité de fausse alarme. Afin d'atteindre une performance de détection élevée, il est proposé d'exploiter les propriétés des images naturelles en modélisant les principales étapes de la chaîne d'acquisition d'un appareil photographique. La méthodologie, tout au long de ce manuscrit, consiste à étudier le détecteur optimal donné par le test du rapport de vraisemblance dans le contexte idéal où tous les paramètres du modèle sont connus. Lorsque des paramètres du modèle sont inconnus, ces derniers sont estimés afin de construire le test du rapport de vraisemblance généralisé dont les performances statistiques sont analytiquement établies. De nombreuses expérimentations sur des images simulées et réelles permettent de souligner la pertinence de l'approche proposée / The remarkable evolution of information technologies and digital imaging technology in the past decades allow digital images to be ubiquitous. The tampering of these images has become an unavoidable reality, especially in the field of cybercrime. The credibility and trustworthiness of digital images have been eroded, resulting in important consequences in terms of political, economic, and social issues. To restore the trust to digital images, the field of digital forensics was born. Three important problems are addressed in this thesis: image origin identification, detection of hidden information in a digital image and an example of tampering image detection : the resampling. The goal is to develop a statistical decision approach as reliable as possible that allows to guarantee a prescribed false alarm probability. To this end, the approach involves designing a statistical test within the framework of hypothesis testing theory based on a parametric model that characterizes physical and statistical properties of natural images. This model is developed by studying the image processing pipeline of a digital camera. As part of this work, the difficulty of the presence of unknown parameters is addressed using statistical estimation, making the application of statistical tests straightforward in practice. Numerical experiments on simulated and real images have highlighted the relevance of the proposed approach
368

Détection de structures fines par traitement d'images et apprentissage statistique : application au contrôle non destructif / Thin structures detection by means of image processing and statistical learning : application to non-destructive testing

Morard, Vincent 22 October 2012 (has links)
Dans cette thèse, nous présentons de nouvelles méthodes de traitement d’images pourextraire ou rehausser les éléments fins d’une image. Pour ces opérateurs, issus de la morphologie mathématique,l’accent a été mis principalement sur la précision de détection et sur le temps de calcul,qui doivent être optimisés pour pouvoir répondre aux contraintes de temps imposées par différentesapplications industrielles. La première partie de ce mémoire présente ces méthodes, organisées enfonction de la tortuosité des objets à détecter. Nous commençons par proposer un algorithme rapidepour le calcul des ouvertures 1-D afin d’extraire des structures rectilignes des images. Puis, nous étudionsune nouvelle classe d’opérateurs rapides avec les ouvertures parcimonieuses par chemins, permettantd’analyser des structures ayant une tortuosité modérée. Enfin, nous proposons de nouveauxéléments structurants adaptatifs et des filtres connexes construits avec des attributs géodésiques etgéométriques pour extraire des structures filiformes ayant une tortuosité quelconque.Dans un second temps, nous avons développé une méthode d’analyse statistique en introduisantune nouvelle pénalisation adaptative. L’objectif consiste à créer un modèle prédictif précis, quiminimise en même temps une fonction de coût, indépendante des données. Lorsque cette fonctionde coût est liée au temps de calcul de chaque descripteur, il est alors possible de créer un modèleparcimonieux précis et qui minimise les temps de calcul. Cette méthode est une généralisation desrégressions linéaires et logistiques Ridge, Forward stagewise, Lar, ou Lasso.Les algorithmes développés dans cette thèse ont été utilisés pour trois applications industrielles,très différentes les unes des autres, mais toutes faisant intervenir une approche multidisciplinaire : letraitement d’images et l’analyse statistique. L’association de ces deux disciplines permet d’améliorerla généricité des stratégies proposées puisque les opérateurs de traitement d’images alliés à un apprentissagesupervisé ou non supervisé, permettent d’adapter le traitement à chaque application.Mots clés : Traitement d’images, morphologie mathématique, analyse statistique, caractérisation deformes, contrôles non destructifs, ouvertures parcimonieuses par chemins, region growing structuringelements, amincissements par attributs géodésiques et topologiques, adaptive coefficient shrinkage. / This PhD is dedicated to new image processing methods to extract or enhance thinobjects from an image. These methods stem from mathematical morphology, and they mainly focuson the accuracy of the detection and on the computation time. This second constraint is imposed bythe fact that we are dealing with high-throughput applications. The first part of this thesis presentsthese methods, organized according to the tortuosity of the objects to detect. We first propose afast algorithm for the computation of 1-D openings, used to extract thin and straight structures in theimages. Then, we study a new class of fast operators, parsimonious path openings, which can extractthin structures with moderate tortuosities. Finally, we propose new adaptive structuring elementsand new thinnings with geodesic and geometric attributes to filter out the noise and to enhance thinstructures of any tortuosity.Besides, we have developed a machine learning method by introducing a new adaptive penalization.We aim at creating a predictive model that minimizes a cost function (independent of the data)while preserving a good accuracy. When this cost function is linked to the computation time of eachfeature, the resulting models will optimize the timings, while preserving a good accuracy. This methodis a generalization of linear and logistic regressions with Ridge, Forward stagewise, Lar or Lassopenalization.The algorithms developed in this thesis have been used for three industrial applications. While theirobjectives are very different, the framework is the same (non-destructive testing) and they all involvea multidisciplinary approach (images processing and statistical analysis). The combination of thesetwo fields yields a higher flexibility in comparison with classical methods. Generic strategies are used,since image processing operators are associated to statistical learning (supervised or unsupervised)to make a specific treatment for each application.Keywords: Image processing, mathematical morphology, statistical analysis, pattern recognition,non destructive testing, parsimonious path openings, region growing structuring elements, geodesicand topologic attributes thinnings, adaptive coefficient shrinkage.
369

Exterior inspection of an aircraft using a Pan-Tilt-Zoom camera and a 3D scanner moved by a mobile robot : 2D image processing and 3D point cloud analysis / Inspection de l'extérieur d'un aéronef à partir d'une caméra Pan-Tilt-Zoom et d'un scanner 3D portés par un robot mobile : analyse d'images et de nuages de points 3D

Jovančević, Igor 21 November 2016 (has links)
Cette thèse s’inscrit dans le cadre d’un projet industriel multi-partenaires ayant pour objectif le développement d’un robot mobile collaboratif (un cobot), autonome dans ses mouvements au sol, capable de réaliser l’inspection visuelle d’un aéronef, à la fois en phase de petite ou grande maintenance dans un hangar ou en phase de pré-vol sur le tarmac d’un aéroport. Le cobot est équipé de capteurs lui permettant d’effectuer ses tâches de navigation autonome, mais également d’un ensemble de capteurs optiques constituant la tête d’inspection : une caméra orientable Pan-Tilt-Zoom et un scanner 3D qui délivrent respectivement des données sous forme d’images 2D et de nuages de points 3D. L’objectif de la thèse est de développer des algorithmes d’analyse d’images 2D et de nuages de points 3D, afin d’établir un diagnostic sur l’état de l’avion et son aptitude à voler. Nous avons développé des algorithmes pour vérifier certains éléments de l’appareil, tels que valves, portes, capteurs, pneus ou moteurs, et également pour détecter et caractériser des dommages 3D sur le fuselage (impacts, rayures, etc.). Nous avons exploité dans nos algorithmes les connaissances a priori disponibles, en particulier le modèle 3D CAO de l’avion (un AIRBUS A320 dans le cadre de nos essais). Durant ces travaux de la thèse, nous avons pu répondre à deux besoins (parfois antagonistes) : développer des algorithmes d’inspection rapides et robustes, mais également répondre aux exigences spécifiques d’un projet industriel qui visait à développer un prototype opérationnel. Nous nous sommes attachés à développer des algorithmes les plus génériques possibles, de manière à ce qu’ils puissent être utilisés pour d’autres types d’inspection, tels que l’inspection de bâtiments ou de navires par exemple. Nous avons aussi contribué au développement du prototype (robot mobile équipé de capteurs) en développant le module de contrôle des capteurs d’inspection et en intégrant nos codes sur le robot avec les autres modules développés par les partenaires. Le prototype a fait l’objet de nombreux essais en hangar de maintenance ou sur tarmac. / This thesis makes part of an industry oriented multi-partners project aimed at developing a mobile collaborative robot (a cobot), autonomous in its movements on the ground, capable of performing visual inspection of an aircraft during short or long maintenance procedures in the hangar or in the pre-flight phase on the tarmac. The cobot is equipped with sensors for realizing its navigation tasks as well as with a set of optical sensors which constitute the inspection head: an orientable Pan-Tilt-Zoom visible light camera and a three-dimensional scanner, delivering data in the format of two-dimensional images and three-dimensional point clouds, respectively. The goal of the thesis is to propose original approaches for processing 2D images and 3D clouds, with intention to make a decision with respect to the flight readiness of the airplane. We developed algorithms for verification of the aircraft items such as vents, doors, sensors, tires or engine as well as for detection and characterization of three-dimensional damages on the fuselage. We integrated a-priori knowledge on the airplane structure, notably numerical three-dimensional CAD model of the Airbus-A320. We argue that with investing effort to develop robust enough algorithms and with the help of existing optical sensors to acquire suitable data, we can come up with non-invasive, accurate, and time-efficient system for automatic airplane exterior inspection. The thesis work was placed in between two main requirements: develop inspection algorithms which could be as general as possible and also meet the specific requirements of an industry oriented project. Often, these two goals do not go along and the balance had to be made. On one side, we were aiming to design and assess the approaches that can be employed on other large structures, for ex. buildings, ships. On the other hand, writing source code for controlling sensors as well as integrating our whole developed source code with other modules on the real-time robotic system, were necessary in order to demonstrate the feasibility of our robotic prototype.
370

Estimation des déformations du ventricule gauche sur des séquences ciné-IRM non-marquées / Estimation of the deformations of the left ventricle on sequences movies-MRI non-marked

Randrianarisolo, Solofohery 03 March 2009 (has links)
Cette thèse présente un nouveau concept pour l’évaluation des déformations cardiaques à partir de ciné-IRM standard sans avoir recours aux images IRM marquées. Nous avons adapté la méthode des ensembles de niveaux afin de segmenter le myocarde et évalué le déplacement des contours endo et épicardique. Le processus de segmentation est appliqué directement sur un ensemble d’images pseudo-volumique 2D + t. Cela conduit à une méthode de segmentation efficace tenant compte à la fois des contraintes de continuité spatiale et temporelle. Puis, nous avons évalué le déplacement des contours endo et épicardique détectés avec une technique de mise en correspondance fondée sur les ensembles de niveaux. La vitesse de déplacement au sein de la paroi myocardique est évaluée par une méthode de flot optique, contrainte avec le déplacement des contours. Enfin, de ce champ de vitesses du myocarde, nous tirons des mesures pertinentes de la contraction cardiaque. La validation de la méthode proposée est effectuée sur des séquences d'images synthétiques, et en comparant sur les mêmes patients nos mesures à celles obtenues avec la méthode de référence HARP appliquée sur des images IRM taggées correspondantes. Les résultats de la méthode sont encourageants, ils sont pratiquement identiques à ceux de l’approche HARP. Cette méthode présente deux avantages principaux: premièrement elle exploite les ciné-IRM standard non taggées, deuxièmement elle permet des évaluations des déformations à haute résolution spatiale. Cette méthode est déjà disponible et peut rendre accessible l’évaluation des déformations du ventricule gauche du myocarde en routine clinique à partir des séquences ciné-IRM / This thesis presents a new concept for the assessment of cardiac deformation from standard cine-MRI without requiring tagged MRI. We have adapted the level set method to segment the myocardium and to evaluate the endocardial and epicardial velocity contours. The segmentation process is directly applied on a pseudo-volumic 2D+t set of images. This leads to an efficient segmentation method that both take into account spatial and temporal continuity constraints. Then, we evaluated the displacement of detected endocardial and epicardial contours by a levelset based matching procedure. The velocity flow in the myocardial wall is assessed by an optical flow method constrained with the contour displacement. Finally, from the velocity flow, we derive relevant measurements of the cardiac contraction. The validation of the method is performed on synthetic image sequences, and by comparing our measurements to those obtained on the same patients with the HARmonic Phase reference (HARP) method applied on matched tagged MR images. The results of this method are encouraging, they are practically identical to those HARP approach. This method presents two main advantages: first it exploits standard untagged cine-MRI, secondly it leads to high spatial resolution strain assessments. This method is readily available and has potential to make the assessment of left ventricular myocardial deformation accessible for clinical use from a set of cardiac cine MR acquisitions

Page generated in 0.0303 seconds