• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 3
  • Tagged with
  • 7
  • 7
  • 5
  • 4
  • 4
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Cardiac motion estimation in ultrasound images using a sparse representation and dictionary learning / Estimation du mouvement cardiaque en imagerie ultrasonore par représentation parcimonieuse et apprentissage de dictionnaire

Ouzir, Nora 16 October 2018 (has links)
Les maladies cardiovasculaires sont de nos jours un problème de santé majeur. L'amélioration des méthodes liées au diagnostic de ces maladies représente donc un réel enjeu en cardiologie. Le coeur étant un organe en perpétuel mouvement, l'analyse du mouvement cardiaque est un élément clé pour le diagnostic. Par conséquent, les méthodes dédiées à l'estimation du mouvement cardiaque à partir d'images médicales, plus particulièrement en échocardiographie, font l'objet de nombreux travaux de recherches. Cependant, plusieurs difficultés liées à la complexité du mouvement du coeur ainsi qu'à la qualité des images échographiques restent à surmonter afin d'améliorer la qualité et la précision des estimations. Dans le domaine du traitement d'images, les méthodes basées sur l'apprentissage suscitent de plus en plus d'intérêt. Plus particulièrement, les représentations parcimonieuses et l'apprentissage de dictionnaires ont démontré leur efficacité pour la régularisation de divers problèmes inverses. Cette thèse a ainsi pour but d'explorer l'apport de ces méthodes, qui allient parcimonie et apprentissage, pour l'estimation du mouvement cardiaque. Trois principales contributions sont présentées, chacune traitant différents aspects et problématiques rencontrées dans le cadre de l'estimation du mouvement en échocardiographie. Dans un premier temps, une méthode d'estimation du mouvement cardiaque se basant sur une régularisation parcimonieuse est proposée. Le problème d'estimation du mouvement est formulé dans le cadre d'une minimisation d'énergie, dont le terme d'attache aux données est construit avec l'hypothèse d'un bruit de Rayleigh multiplicatif. Une étape d'apprentissage de dictionnaire permet une régularisation exploitant les propriétés parcimonieuses du mouvement cardiaque, combinée à un terme classique de lissage spatial. Dans un second temps, une méthode robuste de flux optique est présentée. L'objectif de cette approche est de robustifier la méthode d'estimation développée au premier chapitre de manière à la rendre moins sensible aux éléments aberrants. Deux régularisations sont mises en oeuvre, imposant d'une part un lissage spatial et de l'autre la parcimonie des champs de mouvements dans un dictionnaire approprié. Afin d'assurer la robustesse de la méthode vis-à-vis des anomalies, une stratégie de minimisation récursivement pondérée est proposée. Plus précisément, les fonctions employées pour cette pondération sont basées sur la théorie des M-estimateurs. Le dernier travail présenté dans cette thèse, explore une méthode d'estimation du mouvement cardiaque exploitant une régularisation parcimonieuse combinée à un lissage à la fois dans les domaines spatial et temporel. Le problème est formulé dans un cadre général d'estimation de flux optique. La régularisation temporelle proposée impose des trajectoires de mouvement lisses entre images consécutives. De plus, une méthode itérative d'estimation permet d'incorporer les trois termes de régularisations, tout en rendant possible le traitement simultané d'un ensemble d'images. Dans cette thèse, les contributions proposées sont validées en employant des images synthétiques et des simulations réalistes d'images ultrasonores. Ces données avec vérité terrain permettent d'évaluer la précision des approches considérées, et de souligner leur compétitivité par rapport à des méthodes de l'état-del'art. Pour démontrer la faisabilité clinique, des images in vivo de patients sains ou atteints de pathologies sont également considérées pour les deux premières méthodes. Pour la dernière contribution de cette thèse, i.e., exploitant un lissage temporel, une étude préliminaire est menée en utilisant des données de simulation. / Cardiovascular diseases have become a major healthcare issue. Improving the diagnosis and analysis of these diseases have thus become a primary concern in cardiology. The heart is a moving organ that undergoes complex deformations. Therefore, the quantification of cardiac motion from medical images, particularly ultrasound, is a key part of the techniques used for diagnosis in clinical practice. Thus, significant research efforts have been directed toward developing new cardiac motion estimation methods. These methods aim at improving the quality and accuracy of the estimated motions. However, they are still facing many challenges due to the complexity of cardiac motion and the quality of ultrasound images. Recently, learning-based techniques have received a growing interest in the field of image processing. More specifically, sparse representations and dictionary learning strategies have shown their efficiency in regularizing different ill-posed inverse problems. This thesis investigates the benefits that such sparsity and learning-based techniques can bring to cardiac motion estimation. Three main contributions are presented, investigating different aspects and challenges that arise in echocardiography. Firstly, a method for cardiac motion estimation using a sparsity-based regularization is introduced. The motion estimation problem is formulated as an energy minimization, whose data fidelity term is built using the assumption that the images are corrupted by multiplicative Rayleigh noise. In addition to a classical spatial smoothness constraint, the proposed method exploits the sparse properties of the cardiac motion to regularize the solution via an appropriate dictionary learning step. Secondly, a fully robust optical flow method is proposed. The aim of this work is to take into account the limitations of ultrasound imaging and the violations of the regularization constraints. In this work, two regularization terms imposing spatial smoothness and sparsity of the motion field in an appropriate cardiac motion dictionary are also exploited. In order to ensure robustness to outliers, an iteratively re-weighted minimization strategy is proposed using weighting functions based on M-estimators. As a last contribution, we investigate a cardiac motion estimation method using a combination of sparse, spatial and temporal regularizations. The problem is formulated within a general optical flow framework. The proposed temporal regularization enforces smoothness of the motion trajectories between consecutive images. Furthermore, an iterative groupewise motion estimation allows us to incorporate the three regularization terms, while enabling the processing of the image sequence as a whole. Throughout this thesis, the proposed contributions are validated using synthetic and realistic simulated cardiac ultrasound images. These datasets with available groundtruth are used to evaluate the accuracy of the proposed approaches and show their competitiveness with state-of-the-art algorithms. In order to demonstrate clinical feasibility, in vivo sequences of healthy and pathological subjects are considered for the first two methods. A preliminary investigation is conducted for the last contribution, i.e., exploiting temporal smoothness, using simulated data.
2

Représentations redondantes pour les signaux d’électroencéphalographie / Redundant representations for electroencephalography signals

Isaac, Yoann 29 May 2015 (has links)
L’électroencéphalographie permet de mesurer l’activité du cerveau à partir des variations du champ électrique à la surface du crâne. Cette mesure est utilisée pour le diagnostic médical, la compréhension du fonctionnement du cerveau ou dans les systèmes d’interface cerveau-machine. De nombreux travaux se sont attachés au développement de méthodes d’analyse de ces signaux en vue d’en extraire différentes composantes d’intérêt, néanmoins leur traitement pose encore de nombreux problèmes. Cette thèse s’intéresse à la mise en place de méthodes permettant l’obtention de représentations redondantes pour ces signaux. Ces représentations se sont avérées particulièrement efficaces ces dernières années pour la description de nombreuses classes de signaux grâce à leur grande flexibilité. L’obtention de telles représentations pour les mesures EEG présente certaines difficultés du fait d’un faible rapport signal à bruit des composantes recherchées. Nous proposons dans cette thèse de les surmonter en guidant les méthodes considérées vers des représentations physiologiquement plausibles des signaux EEG à l’aide de régularisations. Ces dernières sont construites à partir de connaissances a priori sur les propriétés spatiales et temporelles de ces signaux. Pour chacune d’entre elles, des algorithmes sont proposés afin de résoudre les problèmes d’optimisation associés à l’obtention de ces représentations. L’évaluation des approches proposées sur des signaux EEG souligne l’efficacité des régularisations proposées et l’intérêt des représentations obtenues. / The electroencephalography measures the brain activity by recording variations of the electric field on the surface of the skull. This measurement is usefull in various applications like medical diagnosis, analysis of brain functionning or whithin brain-computer interfaces. Numerous studies have tried to develop methods for analyzing these signals in order to extract various components of interest, however, none of them allows to extract them with sufficient reliabilty. This thesis focuses on the development of approaches considering redundant (overcomoplete) representations for these signals. During the last years, these representations have been shown particularly efficient to describe various classes of signals due to their flexibility. Obtaining such representations for EEG presents some difficuties due to the low signal-to-noise ratio of these signals. We propose in this study to overcome them by guiding the methods considered to physiologically plausible representations thanks to well-suited regularizations. These regularizations are built from prior knowledge about the spatial and temporal properties of these signals. For each regularization, an algorithm is proposed to solve the optimization problem allowing to obtain the targeted representations. The evaluation of the proposed EEG signals approaches highlights their effectiveness in representing them.
3

Contribution à la décomposition de données multimodales avec des applications en apprentisage de dictionnaires et la décomposition de tenseurs de grande taille. / Contribution to multimodal data processing with applications to dictionary learning and large-scale decomposition

Traoré, Abraham 26 November 2019 (has links)
Dans ce travail, on s'intéresse à des outils mathématiques spéciaux appelés tenseurs qui sont formellement définis comme des tableaux multidimensionnels définis sur le produit tensoriel d'espaces vectoriels (chaque espace vectoriel étant muni de son système de coordonnées), le nombre d'espaces vectoriels impliqués dans ce produit étant l'ordre du tenseur. L'intérêt pour les tenseurs est motivé par certains travaux expérimentaux qui ont prouvé, dans divers contextes, que traiter des données multidimensionnelles avec des tenseurs plutôt que des matrices donne un meilleur résultat aussi bien pour des tâches de régression que de classification. Dans le cadre de la thèse, nous nous sommes focalisés sur une décomposition dite de Tucker et avons mis en place une méthode pour l'apprentissage de dictionnaires, une technique pour l'apprentissage en ligne de dictionnaires, une approche pour la décomposition d'un tenseur de grandes tailles et enfin une méthodologie pour la décomposition d'un tenseur qui croît par rapport à tous les modes. De nouveaux résultats théoriques concernant la convergence et la vitesse de convergence sont établis et l'efficacité des algorithmes proposés, reposant soit sur la minimisation alternée, soit sur la descente de gradients par coordonnées, est démontrée sur des problèmes réels / In this work, we are interested in special mathematical tools called tensors, that are multidimensional arrays defined on tensor product of some vector spaces, each of which has its own coordinate system and the number of spaces involved in this product is generally referred to as order. The interest for these tools stem from some empirical works (for a range of applications encompassing both classification and regression) that prove the superiority of tensor processing with respect to matrix decomposition techniques. In this thesis framework, we focused on specific tensor model named Tucker and established new approaches for miscellaneous tasks such as dictionary learning, online dictionary learning, large-scale processing as well as the decomposition of a tensor evolving with respect to each of its modes. New theoretical results are established and the efficiency of the different algorithms, which are based either on alternate minimization or coordinate gradient descent, is proven via real-world problems.
4

Modèles et algorithmes pour la modélisation parcimonieuse de signaux de grande dimension

Mailhé, Boris 02 December 2009 (has links) (PDF)
Cette thèse propose des algorithmes rapides pour les représentations parcimonieuses. Les représentations parcimonieuses consistent à approcher le signal par une combinaison linéaire de peu d'atomes choisis dans un dictionnaire redondant (plus d'atomes que la dimension du signal). Comment décomposer un signal donné sur un dictionnaire donné ? C'est un problème NP-complet. Les algorithmes approchés existants sont trop coûteux pour être employés sur de grands signaux ou bien calculent une approximation grossière. Nous proposons un nouvel algorithme, LocOMP, qui passe à l'échelle sans sacrifier la qualité d'approximation. LocOMP nécessite des dictionnaires locaux : la longueur du support d'un atome est petite devant celle du signal. Comment apprendre un dictionnaire qui permet la représentation parcimonieuse d'une famille de signaux donnée ? C'est un problème encore plus complexe : on le résout habituellement en itérant plusieurs décompositions parcimonieuses. Nous proposons une amélioration de l'algorithme d'Olshausen-Field qui optimise le dictionnaire par descente de gradient à pas fixe. Nous exprimons le pas optimal la descente. L'algorithme converge ainsi plus vite vers un meilleur dictionnaire. Enfin, nous avons appliqué ces outils pour isoler les signaux de fibrillation atriale dans l'électrocardiogramme du patient. La fibrillation atriale est une arythmie cardiaque : les atria tremblent au lieu de battre. On souhaite observer la fibrillation dans l'ECG, mais elle est mélangée à l'activité ventriculaire. Notre méthode de séparation est basée sur l'apprentissage d'un dictionnaire pour la fibrillation et un pour l'activité ventriculaire, tous deux appris sur le même ECG.
5

Modélisation de la variabilité de l'activité électrique dans le cerveau / Modeling the variability of electrical activity in the brain

Hitziger, Sebastian 14 April 2015 (has links)
Cette thèse explore l'analyse de l'activité électrique du cerveau. Un défi important de ces signaux est leur grande variabilité à travers différents essais et/ou différents sujets. Nous proposons une nouvelle méthode appelée "adaptive waveform learning" (AWL). Cette méthode est suffisamment générale pour permettre la prise en compte de la variabilité empiriquement rencontrée dans les signaux neuroélectriques, mais peut être spécialisée afin de prévenir l'overfitting du bruit. La première partie de ce travail donne une introduction sur l'électrophysiologie du cerveau, présente les modalités d'enregistrement fréquemment utilisées et décrit l'état de l'art du traitement de signal neuroélectrique. La principale contribution de cette thèse consiste en 3 chapitres introduisant et évaluant la méthode AWL. Nous proposons d'abord un modèle de décomposition de signal général qui inclut explicitement différentes formes de variabilité entre les composantes de signal. Ce modèle est ensuite spécialisé pour deux applications concrètes: le traitement d'une série d'essais expérimentaux segmentés et l'apprentissage de structures répétées dans un seul signal. Deux algorithmes sont développés pour résoudre ces problèmes de décomposition. Leur implémentation efficace basée sur des techniques de minimisation alternée et de codage parcimonieux permet le traitement de grands jeux de données.Les algorithmes proposés sont évalués sur des données synthétiques et réelles contenant des pointes épileptiformes. Leurs performances sont comparées à celles de la PCA, l'ICA, et du template-matching pour la détection de pointe. / This thesis investigates the analysis of brain electrical activity. An important challenge is the presence of large variability in neuroelectrical recordings, both across different subjects and within a single subject, for example, across experimental trials. We propose a new method called adaptive waveform learning (AWL). It is general enough to include all types of relevant variability empirically found in neuroelectric recordings, but can be specialized for different concrete settings to prevent from overfitting irrelevant structures in the data. The first part of this work gives an introduction into the electrophysiology of the brain, presents frequently used recording modalities, and describes state-of-the-art methods for neuroelectrical signal processing. The main contribution of this thesis consists in three chapters introducing and evaluating the AWL method. We first provide a general signal decomposition model that explicitly includes different forms of variability across signal components. This model is then specialized for two concrete applications: processing a set of segmented experimental trials and learning repeating structures across a single recorded signal. Two algorithms are developed to solve these models. Their efficient implementation based on alternate minimization and sparse coding techniques allows the processing of large datasets. The proposed algorithms are evaluated on both synthetic data and real data containing epileptiform spikes. Their performances are compared to those of PCA, ICA, and template matching for spike detection.
6

Nouvelles méthodes de représentations parcimonieuses ; application à la compression et l'indexation d'images

Zepeda Salvatierra, Joaquin 28 October 2010 (has links) (PDF)
Une nouvelle structure de dictionnaire adaptés aux décompositions itératives de type poursuite, appelée un Iteration-Tuned Dictionary (ITD), est présentée. Les ITDs sont structurés en couche, chaque couche se composant d'un ensemble de dictionnaires candidats. Les décompositions itératives basées ITD sont alors réalisées en sélectionnant, à chaque itération i, l'un des dictionnaires de la i-ième couche. Une structure générale des ITDs est proposée, ainsi qu'une variante structurée en arbre appelée Tree-Structured Iteration-Tuned Dictionary (TSITD) et une version contrainte de cette dernière, appelée Iteration-Tuned and Aligned Dictionary (ITAD). Ces structures sont comparées à plusieurs méthodes de l'état de l'art et évaluées dans des applications de débruitage et de compression d'images. Un codec basé sur le schéma ITAD est également présenté et comparé à JPEG2000 dans des évaluations qualitatives et quantitatives. Dans le contexte de l'indexation d'images, un nouveau système de recherche approximative des plus proches voisins est également introduit, qui utilise les représentations parcimonieuses pour réduire la complexité de la recherche. La méthode traite l'instabilité dans la sélection des atomes lorsque l'image est soumise à de faibles transformations affines. Un nouveau système de conditionnement des données est également introduit, permettant de mieux distribuer les données sur la sphère unitaire tout en préservant leurs distances angulaires relatives. Il est montré que cette méthode améliore le compromis complexité/performance de la recherche approximative basée décompositions parcimonieuses.
7

Caractérisation de pathologies cardiaques en Imagerie par Résonance Magnétique par approches parcimonieuses / Heart diseases characterization in Magnetic Resonance Imaging by sparse representation and dictionary learning approaches

Mantilla Jauregui, Juan José 24 November 2015 (has links)
Dans cette étude, nous abordons l'utilisation de la représentation parcimonieuse et l'apprentissage de dictionnaires pour l'aide au diagnostic dans le contexte de Maladies Cardiovasculaires. Spécifiquement, notre travail se concentre : 1) sur l'évaluation du mouvement des parois du Ventricule Gauche (VG) chez des patients souffrant d'Insuffisance Cardiaque (IC) ; 2) la détection de fibrose chez des patients présentant une Cardiomyopathie Hypertrophique (CMH). Ces types de pathologies sont étudiées par ailleurs en Imagerie par Résonance Magnétique Cardiaque (IRMC).Dans le contexte de l'IC notre contribution porte sur l'évaluation de mouvement du VG dans des séquences cine-IRMC. Nous proposons dans un premier temps, une méthode d'extraction de caractéristiques qui exploite les informations partielles obtenues à partir de toutes les phases cardiaques temporelles et des segments anatomiques, dans une représentation spatio-temporelle en cine-IRM petit axe (SAX). Les représentations proposées exploitent les informations du mouvement des parois du VG sans avoir recours à la segmentation et disposent des informations discriminatoires qui pourraient contribuer à la détection et à la caractérisation de l'asynchronisme cardiaque. L'extraction d'images spatio-temporelles a été proposée permettant la construction de trois nouveaux types de représentations : 1) profils spatio-temporels diamétraux qui montrent l'évolution temporelle de l’épicarde et de l'endocarde en même temps dans deux segments anatomiques opposés du VG, 2) profils spatio-temporels radiaux où le mouvement pariétal est observé pour chaque segment de la cavité du VG et 3) courbes de signal temps-intensité directement des profils spatio-temporels radiaux dans chaque segment anatomique. Des paramètres différents sont alors définis de ces courbes qui reflètent les informations dynamiques de la contraction du VG. Deuxièmement, nous proposons l'utilisation de ces caractéristiques comme des atomes d'entrée dans l'apprentissage de dictionnaires discriminatoires pour classifier le mouvement régional du VG dans les cas normaux ou anormaux. Nous avons proposé une évaluation globale en utilisant le statut global du sujet : Normal/Pathologique, comme l'étiquette de référence des profils spatio-temporels et une évaluation locale en utilisant les informations de déformation locales fournies par l'analyse des images échographiques de référence en clinique (2D-STE). Dans le contexte de la CMH, nous abordons le problème de détection de la fibrose en LGE-IRM-SAX en utilisant une approche de partitionnement de donnés et d'apprentissage de dictionnaires. Dans ce cadre, les caractéristiques extraites d'images de LGE-SAX sont prises comme des atomes d'entrée pour former un classifieur basé sur les codes parcimonieux obtenus avec une approche d'apprentissage de dictionnaires. Une étape de post-traitement permet la délimitation du myocarde et la localisation spatiale de la fibrose par segment anatomique. / This work concerns the use of sparse representation and Dictionary Learning (DL) in order to get insights about the diseased heart in the context of Cardiovascular Diseases (CVDs). Specifically, this work focuses on 1) assessment of Left Ventricle (LV) wall motion in patients with heart failure and 2) fibrosis detection in patients with hypertrophic cardiomyopathy (HCM). In the context of heart failure (HF) patients, the work focuses on LV wall motion analysis in cardiac cine-MRI. The first contribution in this topic is a feature extraction method that exploits the partial information obtained from all temporal cardiac phases and anatomical segments in a spatio-temporal representation from sequences cine-MRI in short-axis view. These features correspond to spatio-temporal profiles in different anatomical segments of the LV. The proposed representations exploit information of the LV wall motion without segmentation needs. Three representations are proposed : 1) diametrical spatio-temporal profiles where radial motions of LV’s walls are observed at the same time in opposite anatomical segments 2) radial spatiotemporal profiles where motion of LV’s walls is observed for each segment of the LV cavity and 3) quantitative parameters extracted from the radial spatio-temporal profiles. A second contribution involves the use of these features as input atoms in the training of discriminative dictionaries to classify normal or abnormal regional LV motion. We propose two levels of evaluation, a first one where the global status of the subject (normal/pathologic) is used as ground truth to label the proposed spatio-temporal representations, and a second one where local strain information obtained from 2D Speckle Tracking Echocardiography (STE), is taken as ground truth to label the proposed features, where a profile is classified as normal or abnormal (akinetic or hypokinetic cases). In the context of Hypertrophic cardiomyopathy (HCM), we address the problem of fibrosis detection in Late Gadolinium Enhanced LGE-Short axis (SAX) images by using a sparse-based clustering approach and DL. In this framework, random image patches are taken as input atoms in order to train a classifier based on the sparse coefficients obtained with a DL approach based on kernels. For a new test LG-SAX image, the label of each pixel is predicted by using the trained classifier allowing the detection of fibrosis. A subsequent postprocessing step allows the spatial localization of fibrosis that is represented according to the American Heart Association (AHA) 17-segment model and a quantification of fibrosis in the LV myocardium.

Page generated in 0.1156 seconds