• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 18
  • 17
  • 4
  • Tagged with
  • 39
  • 20
  • 20
  • 13
  • 12
  • 10
  • 10
  • 9
  • 9
  • 9
  • 9
  • 9
  • 9
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Seismic wave field restoration using spare representations and quantitative analysis / Représentation parcimonieuses pour la restauration et l'analyse quantitative de champs d'ondes en sismiques

Pham, Mai-Quyen 15 July 2015 (has links)
Cette thèse porte sur la restauration de champs d'ondes sismiques perturbés par trois sources de dégradation. Ces sources sont dues à des trajets de propagation complexes, au dispositif d'acquisition, à des sources liées ou non à l'acquisition, et potentiellement présentes simultanément : des réflexions multiples (ou échos), une dégradation de la réponse impulsionnelle attendue (ou flou) et des perturbations plus aléatoires (ou bruits).Nous avons considéré dans un premier temps le problème des réflexions multiples, réflexions qui se sont réfléchies plusieurs fois sur au moins une interface. Nous nous intéressons ici au filtrage adaptatif de ces réflexions sismiques multiples à partir de modèles approximatifs issus de modélisation sismique. Ce filtrage est réalisé dans un domaine de trames d'ondelettes discrètes, mono- et bidimensionnelles, sous contraintes de parcimonie et de variation lente des filtres adaptatifs. Ceci est intéressant en réflexion sismique, car les méthodes standard peuvent produire des filtres très mal conditionnés, du fait notamment du caractère passe-bande des données sismiques. Dans ce travail, une formulation variationnelle des problèmes de réflexions multiples est proposée. Nous utilisons des algorithmes proximaux, dont la convergence est garantie lorsqu'il s'agit d'optimiser dans un cadre convexe. L'avantage de ces approches est l'utilisation d'une régularisation sophistiquée, permettant de considérer la parcimonie à la fois a) dans le domaine d'ondelettes, b) via des a priori sur les filtres pour lesquels nous avons utilisé différentes fonctions de régularisation (norme l1, l2, mixte l1-2 et nucléaire). Notre méthode vise à étendre et améliorer certains aspects de la méthode proposée par S. Ventosa en collaboration avec CGG en 2012, et testée avec succès sur plusieurs campagnes sismiques. Les résultats que nous avons obtenus démontrent la performance de notre méthode non seulement sur des données synthétiques bruitées mais également sur des données réelles. Nous nous intéressons ensuite au problème de déconvolution aveugle. En géophysique, un modèle simplifié de la Terre souvent utilisé fait l'hypothèse d'un nombre de couches localement parallèles, chacune avec des propriétés constantes. Mais la vitesse, la densité ou les deux peuvent varier d'une couche à l'autre. L'impédance acoustique est calculée pour chaque couche ; puis les coefficients de réflexion pour une incidence normale sont calculés aux endroits où il y a des changements d'impédance acoustique. Chaque changement d'impédance acoustique opère une modification d'amplitude et de polarisation liée aux coefficients de réflexion. Ainsi, la séquence de réflectivité (réponse impulsionnelle) est convoluée avec la forme d'onde descendante pour donner une trace sismique. Ce problème constitue un contexte de déconvolution aveugle où l'on recherche un signal inconnu, convolué avec une forme d'onde elle aussi inconnue en présence de bruit additif. La déconvolution requiert souvent d'introduire des hypothèses complémentaires sous forme de pénalisation, notamment non convexe. L'ambiguïté d'échelle en déconvolution aveugle suggère l'usage de fonctions de contraste invariantes en échelle. Dans cette thèse, nous proposons un algorithme de minimisation alternée, de type explicite-implicite à métrique variable. Il traite une approximation lisse du rapport l1/l2 (SOOT pour "Smoothed One-Over-Two penalty") pour des données réelles signées. Nous étudions les propriétés de convergence de la méthode proposée, basées sur l'inégalité de Kurdyka-Lojasiewicz. Les performances de cette nouvelle approche sont illustrées à travers un exemple en déconvolution aveugle de données sismiques, mais aussi sur des images / This thesis deals with two different problems within the framework of convex and non convex optimization. The first one is an application to multiple removal in seismic data with adaptive filters and the second one is an application to blind deconvolution problem that produces characteristics closest to the Earth layers. More precisely : unveiling meaningful geophysical information from seismic data requires to deal with both random and structured “noises”. As their amplitude may be greater than signals of interest (primaries), additional prior information is especially important in performing efficient signal separation. We address here the problem of multiple reflections, caused by wave-field bouncing between layers. Since only approximate models of these phenomena are available, we propose a flexible framework for time-varying adaptive filtering of seismic signals, using sparse representations, based on inaccurate templates. We recast the joint estimation of adaptive filters and primaries in a new convex variational formulation. This approach allows us to incorporate plausible knowledge about noise statistics, datas parsity and slow filter variation in parsimony-promoting wavelet transforms. The designed primal-dual algorithm solves a constrained minimization problem that alleviates standard regularization issues in finding hyper parameters. The approach demonstrates significantly good performance in low signal-to-noise ratio conditions, both for simulatedand real field seismic data. In seismic exploration, a seismic signal (e.g. primary signal) is often represented as the results of a convolution between the “seismic wavelet” and the reflectivity series. The second goal of this thesis is to deconvolve them from the seismic signal which is presented in Chapter 6. The main idea of this work is to use an additional premise that the reflections occur as sparsely restricted, for which a study on the “sparsity measure”is considered. Some well known methods that fall in this category are proposed such as[Sacchi et al., 1994; Sacchi, 1997]. We propose a new penalty based on a smooth approximation of the l1/l2 function that makes a difficult non convex minimization problem. We develop a proximal-based algorithm to solve variational problems involving this function and we derive theoretical convergence results. We demonstrate the effectiveness of our method through a comparison with a recent alternating optimization strategy dealing with the exact l1/l2 term
2

Déconvolution d'images en radioastronomie centimétrique pour l'exploitation des nouveaux interféromètres radio : caractérisation du milieu non thermique des amas de galaxies / Deconvolution of images in centimeter-band radio astronomy for the exploitation of new radio interferometers : characterization of non thermal components in galaxy clusters

Dabbech, Arwa 28 April 2015 (has links)
Dans le cadre de la préparation du Square Kilometre Array (SKA), le plus large radio interféromètre au monde, de nouveaux défis de traitement d'images sont à relever. En effet, les données fournies par SKA auront un débit énorme, nécessitant ainsi un traitement en temps réel. En outre, grâce à sa résolution et sa sensibilité sans précédent, les observations seront dotées d'une très forte dynamique sur des champs de vue très grands. De nouvelles méthodes de traitement d'images robustes, efficaces et automatisées sont alors exigées. L'objectif de la thèse consiste à développer une nouvelle méthode permettant la restauration du modèle de l'image du ciel à partir des observations. La méthode est conçue pour l'estimation des images de très forte dynamique avec une attention particulière à restaurer les émissions étendues et faibles en intensité, souvent noyées dans les lobes secondaires de la PSF et le bruit. L'approche proposée est basée sur les représentations parcimonieuses, nommée MORESANE. L'image du ciel est modélisée comme étant la superposition de sources, qui constitueront les atomes d'un dictionnaire de synthèse inconnu, ce dernier sera estimé par des a priori d'analyses. Les résultats obtenus sur des simulations réalistes montrent que MORESANE est plus performant que les outils standards et très compétitifs avec les méthodes récemment proposées dans la littérature. MORESANE est appliqué sur des simulations d'observations d'amas de galaxies avec SKA1 afin d'investiguer la détectabilité du milieu non thermique intra-amas. Nos résultats indiquent que cette émission, avec SKA, sera étudiée jusqu'à l'époque de la formation des amas de galaxies massifs. / Within the framework of the preparation for the Square Kilometre Array (SKA), that is the world largest radio telescope, new imaging challenges has to be conquered. The data acquired by SKA will have to be processed on real time because of their huge rate. In addition, thanks to its unprecedented resolution and sensitivity, SKA images will have very high dynamic range over wide fields of view. Hence, there is an urgent need for the design of new imaging techniques that are robust and efficient and fully automated. The goal of this thesis is to develop a new technique aiming to reconstruct a model image of the radio sky from the radio observations. The method have been designed to estimate images with high dynamic range with a particular attention to recover faint extended emission usually completely buried in the PSF sidelobes of the brighter sources and the noise. We propose a new approach, based on sparse representations, called MORESANE. The radio sky is assumed to be a summation of sources, considered as atoms of an unknown synthesis dictionary. These atoms are learned using analysis priors from the observed image. Results obtained on realistic simulations show that MORESANE is very promising in the restoration of radio images; it is outperforming the standard tools and very competitive with the newly proposed methods in the literature. MORESANE is also applied on simulations of observations using the SKA1 with the aim to investigate the detectability of the intracluster non thermal component. Our results indicate that these diffuse sources, characterized by very low surface brightness will be investigated up to the epoch of massive cluster formation with the SKA.
3

Dictionary learning for pattern classification in medical imaging / Apprentissage de dictionnaires pour la reconnaissance de motifs en imagerie médicale

Deshpande, Hrishikesh 08 July 2016 (has links)
La plupart des signaux naturels peuvent être représentés par une combinaison linéaire de quelques atomes dans un dictionnaire. Ces représentations parcimonieuses et les méthodes d'apprentissage de dictionnaires (AD) ont suscité un vif intérêt au cours des dernières années. Bien que les méthodes d'AD classiques soient efficaces dans des applications telles que le débruitage d'images, plusieurs méthodes d'AD discriminatifs ont été proposées pour obtenir des dictionnaires mieux adaptés à la classification. Dans ce travail, nous avons montré que la taille des dictionnaires de chaque classe est un facteur crucial dans les applications de reconnaissance des formes lorsqu'il existe des différences de variabilité entre les classes, à la fois dans le cas des dictionnaires classiques et des dictionnaires discriminatifs. Nous avons validé la proposition d'utiliser différentes tailles de dictionnaires, dans une application de vision par ordinateur, la détection des lèvres dans des images de visages, ainsi que par une application médicale plus complexe, la classification des lésions de scléroses en plaques (SEP) dans des images IRM multimodales. Les dictionnaires spécifiques à chaque classe sont appris pour les lésions et les tissus cérébraux sains. La taille du dictionnaire pour chaque classe est adaptée en fonction de la complexité des données. L'algorithme est validé à l'aide de 52 séquences IRM multimodales de 13 patients atteints de SEP. / Most natural signals can be approximated by a linear combination of a few atoms in a dictionary. Such sparse representations of signals and dictionary learning (DL) methods have received a special attention over the past few years. While standard DL approaches are effective in applications such as image denoising or compression, several discriminative DL methods have been proposed to achieve better image classification. In this thesis, we have shown that the dictionary size for each class is an important factor in the pattern recognition applications where there exist variability difference between classes, in the case of both the standard and discriminative DL methods. We validated the proposition of using different dictionary size based on complexity of the class data in a computer vision application such as lips detection in face images, followed by more complex medical imaging application such as classification of multiple sclerosis (MS) lesions using MR images. The class specific dictionaries are learned for the lesions and individual healthy brain tissues, and the size of the dictionary for each class is adapted according to the complexity of the underlying data. The algorithm is validated using 52 multi-sequence MR images acquired from 13 MS patients.
4

Cardiac motion estimation in ultrasound images using a sparse representation and dictionary learning / Estimation du mouvement cardiaque en imagerie ultrasonore par représentation parcimonieuse et apprentissage de dictionnaire

Ouzir, Nora 16 October 2018 (has links)
Les maladies cardiovasculaires sont de nos jours un problème de santé majeur. L'amélioration des méthodes liées au diagnostic de ces maladies représente donc un réel enjeu en cardiologie. Le coeur étant un organe en perpétuel mouvement, l'analyse du mouvement cardiaque est un élément clé pour le diagnostic. Par conséquent, les méthodes dédiées à l'estimation du mouvement cardiaque à partir d'images médicales, plus particulièrement en échocardiographie, font l'objet de nombreux travaux de recherches. Cependant, plusieurs difficultés liées à la complexité du mouvement du coeur ainsi qu'à la qualité des images échographiques restent à surmonter afin d'améliorer la qualité et la précision des estimations. Dans le domaine du traitement d'images, les méthodes basées sur l'apprentissage suscitent de plus en plus d'intérêt. Plus particulièrement, les représentations parcimonieuses et l'apprentissage de dictionnaires ont démontré leur efficacité pour la régularisation de divers problèmes inverses. Cette thèse a ainsi pour but d'explorer l'apport de ces méthodes, qui allient parcimonie et apprentissage, pour l'estimation du mouvement cardiaque. Trois principales contributions sont présentées, chacune traitant différents aspects et problématiques rencontrées dans le cadre de l'estimation du mouvement en échocardiographie. Dans un premier temps, une méthode d'estimation du mouvement cardiaque se basant sur une régularisation parcimonieuse est proposée. Le problème d'estimation du mouvement est formulé dans le cadre d'une minimisation d'énergie, dont le terme d'attache aux données est construit avec l'hypothèse d'un bruit de Rayleigh multiplicatif. Une étape d'apprentissage de dictionnaire permet une régularisation exploitant les propriétés parcimonieuses du mouvement cardiaque, combinée à un terme classique de lissage spatial. Dans un second temps, une méthode robuste de flux optique est présentée. L'objectif de cette approche est de robustifier la méthode d'estimation développée au premier chapitre de manière à la rendre moins sensible aux éléments aberrants. Deux régularisations sont mises en oeuvre, imposant d'une part un lissage spatial et de l'autre la parcimonie des champs de mouvements dans un dictionnaire approprié. Afin d'assurer la robustesse de la méthode vis-à-vis des anomalies, une stratégie de minimisation récursivement pondérée est proposée. Plus précisément, les fonctions employées pour cette pondération sont basées sur la théorie des M-estimateurs. Le dernier travail présenté dans cette thèse, explore une méthode d'estimation du mouvement cardiaque exploitant une régularisation parcimonieuse combinée à un lissage à la fois dans les domaines spatial et temporel. Le problème est formulé dans un cadre général d'estimation de flux optique. La régularisation temporelle proposée impose des trajectoires de mouvement lisses entre images consécutives. De plus, une méthode itérative d'estimation permet d'incorporer les trois termes de régularisations, tout en rendant possible le traitement simultané d'un ensemble d'images. Dans cette thèse, les contributions proposées sont validées en employant des images synthétiques et des simulations réalistes d'images ultrasonores. Ces données avec vérité terrain permettent d'évaluer la précision des approches considérées, et de souligner leur compétitivité par rapport à des méthodes de l'état-del'art. Pour démontrer la faisabilité clinique, des images in vivo de patients sains ou atteints de pathologies sont également considérées pour les deux premières méthodes. Pour la dernière contribution de cette thèse, i.e., exploitant un lissage temporel, une étude préliminaire est menée en utilisant des données de simulation. / Cardiovascular diseases have become a major healthcare issue. Improving the diagnosis and analysis of these diseases have thus become a primary concern in cardiology. The heart is a moving organ that undergoes complex deformations. Therefore, the quantification of cardiac motion from medical images, particularly ultrasound, is a key part of the techniques used for diagnosis in clinical practice. Thus, significant research efforts have been directed toward developing new cardiac motion estimation methods. These methods aim at improving the quality and accuracy of the estimated motions. However, they are still facing many challenges due to the complexity of cardiac motion and the quality of ultrasound images. Recently, learning-based techniques have received a growing interest in the field of image processing. More specifically, sparse representations and dictionary learning strategies have shown their efficiency in regularizing different ill-posed inverse problems. This thesis investigates the benefits that such sparsity and learning-based techniques can bring to cardiac motion estimation. Three main contributions are presented, investigating different aspects and challenges that arise in echocardiography. Firstly, a method for cardiac motion estimation using a sparsity-based regularization is introduced. The motion estimation problem is formulated as an energy minimization, whose data fidelity term is built using the assumption that the images are corrupted by multiplicative Rayleigh noise. In addition to a classical spatial smoothness constraint, the proposed method exploits the sparse properties of the cardiac motion to regularize the solution via an appropriate dictionary learning step. Secondly, a fully robust optical flow method is proposed. The aim of this work is to take into account the limitations of ultrasound imaging and the violations of the regularization constraints. In this work, two regularization terms imposing spatial smoothness and sparsity of the motion field in an appropriate cardiac motion dictionary are also exploited. In order to ensure robustness to outliers, an iteratively re-weighted minimization strategy is proposed using weighting functions based on M-estimators. As a last contribution, we investigate a cardiac motion estimation method using a combination of sparse, spatial and temporal regularizations. The problem is formulated within a general optical flow framework. The proposed temporal regularization enforces smoothness of the motion trajectories between consecutive images. Furthermore, an iterative groupewise motion estimation allows us to incorporate the three regularization terms, while enabling the processing of the image sequence as a whole. Throughout this thesis, the proposed contributions are validated using synthetic and realistic simulated cardiac ultrasound images. These datasets with available groundtruth are used to evaluate the accuracy of the proposed approaches and show their competitiveness with state-of-the-art algorithms. In order to demonstrate clinical feasibility, in vivo sequences of healthy and pathological subjects are considered for the first two methods. A preliminary investigation is conducted for the last contribution, i.e., exploiting temporal smoothness, using simulated data.
5

Déconvolution Multicanale et Détection de Sources en utilisant des représentations parcimonieuses : application au projet Fermi

Schmitt, Jeremy 07 December 2011 (has links) (PDF)
Ce mémoire de thèse présente de nouvelles méthodologies pour l'analyse de données Poissoniennes sur la sphère, dans le cadre de la mission Fermi. Les objectifs principaux de la mission Fermi, l'étude du fond diffus galactique et l'établissement du catalogue de source, sont com pliqués par la faiblesse du flux de photons et les effets de l'instrument de mesure. Ce mémoire introduit une nouvelle représentation mutli-échelles des données Poissoniennes sur la sphère, la Transformée Stabilisatrice de Variance Multi-Echelle sur la Sphère (MS-VSTS), consistant à combiner une transformée multi-échelles sur la sphère (ondelettes, curvelets), avec une transformée stabilisatrice de variance (VST). Cette méthode est appliquée à la suppression du bruit de Poisson mono et multicanale, à l'interpolation de données manquantes, à l'extraction d'un modèle de fond et à la déconvolution multicanale. Enfin, ce mémoire aborde le problème de la séparation de composantes en utilisant des représentations parcimonieuses (template fitting).
6

Classification de vocalises de mammifères marins en environnement sismique / Recognition of marine mammal vocalizations in seismic environment

Guilment, Thomas 21 June 2018 (has links)
En partenariat avec l’entreprise Sercel, la thèse concerne la mise en œuvre d’algorithmes de reconnaissance des sons émis par les mysticètes (baleines à fanons). Cessons peuvent être étudiés grâce aux systèmes de surveillance par acoustique passive. L’entreprise Sercel, par ses activités sismiques liées à la prospection pétrolière, a son propre logiciel pour détecter et localiser les sources d’énergie sonores sous-marines. Le travail de la thèse consiste dès lors à ajouter un module de reconnaissance pour identifier si l'énergie détectée et localisée correspond bien à un éventuel mysticète. Les campagnes de tirs sismiques étant onéreuses, la méthode utilisée doit pouvoir réduire la probabilité de fausse alarme, la reconnaissance pouvant infirmer la détection. La méthode proposée est basée sur l’apprentissage de dictionnaire. Elle est dynamique, modulaire, ne dépend que de peu de paramètres et est robuste aux fausses alarmes. Une expérimentation sur cinq types de vocalises est présentée. Nous obtenons un rappel moyen de 92.1 % tout en rejetant 97.3 % des bruits (persistants et transitoires). De plus, un coefficient de confiance est associé à chaque reconnaissance et permet de réaliser de l’apprentissage incrémental semi-supervisé. Enfin, nous proposons une méthode capable de gérer la détection et la reconnaissance conjointement. Ce « détecteur multiclasses » respecte au mieux les contraintes de gestion des fausses alarmes et permet d’identifier plusieurs types de vocalises au même instant. Cette méthode est bien adaptée au contexte industriel pour lequel elle est dédiée. Elle ouvre également des perspectives très prometteuses dans le contexte bioacoustique. / In partnership with Sercel, the thesis concerns the implementation of algorithms for recognizing the sounds emitted by mysticetes (baleen whales). These sounds can be studiedusing passive acoustic monitoring systems. Sercel, through its seismic activities related to oïl exploration, has its own software to detect and locate underwater sound energy sources. The thesis work therefore consists in adding a recognition module to identify if the detected andlocalized energy corresponds to a possible mysticete. Since seismic shooting campaigns areexpensive, the method used must be able to reduce the probability of false alarms, as recognitioncan invalidate detection. The proposed method is based on dictionary learning. It is dynamic, modular, depends on few parameters and is robust to false alarms. An experiment on five types of vocalizations is presented. We obtain an average recall of 92.1% while rejecting 97.3% of the noises (persistent and transient). In addition, a confidence coefficient is associated with each recognition and allows semi-supervised incremental learning to be achieved. Finally, we propose a method capable of managing detection and recognition together. This "multiclassdetector" best respects the constraints of false alarm management and allows several types of vocalizations to be identified at the same time. This method is well adapted to the industrial context for which it is dedicated. It also opens up very promising prospects in the bioacoustic context.
7

Echantillonnage compressé le long de trajectoires physiquement plausibles en IRM / Compressed sensing along physically plausible sampling trajectories in MRI

Chauffert, Nicolas 28 September 2015 (has links)
L'imagerie par résonance magnétique (IRM) est une technique d'imagerie non invasive et non ionisante qui permet d'imager et de discriminer les tissus mous grâce à une bonne sensibilité de contraste issue de la variation de paramètres physiques (T$_1$, T$_2$, densité de protons) spécifique à chaque tissu. Les données sont acquises dans l'espace-$k$, correspondant aux fréquences spatiales de l'image. Des contraintes physiques et matérielles contraignent le mode de fonctionnement des gradients de champ magnétique utilisés pour acquérir les données. Ainsi, ces dernières sont obtenues séquentiellement le long de trajectoires assez régulières (dérivée et dérivée seconde bornées). En conséquence, la durée d'acquisition augmente avec la résolution recherchée de l'image. Accélérer l'acquisition des données est crucial pour réduire la durée d'examen et ainsi améliorer le confort du sujet, diminuer les coûts, limiter les distorsions dans l'image~(e.g., dues au mouvement), ou encore augmenter la résolution temporelle en IRM fonctionnelle. L'échantillonnage compressif permet de sous-échantillonner l'espace-$k$, et de reconstruire une image de bonne qualité en utilisant une hypothèse de parcimonie de l'image dans une base d'ondelettes. Les théories d'échantillonnage compressif s'adaptent mal à l'IRM, même si certaines heuristiques ont permis d'obtenir des résultats prometteurs. Les problèmes rencontrés en IRM pour l'application de cette théorie sont i) d'une part, les bases d'acquisition~(Fourier) et de représentation~(ondelettes) sont cohérentes ; et ii) les schémas actuellement couverts par la théorie sont composés de mesures isolées, incompatibles avec l'échantillonnage continu le long de segments ou de courbes. Cette thèse vise à développer une théorie de l'échantillonnage compressif applicable à l'IRM et à d'autres modalités. D'une part, nous proposons une théorie d'échantillonnage à densité variable pour répondre au premier point. Les échantillons les plus informatifs ont une probabilité plus élevée d'être mesurés. D'autre part, nous proposons des schémas et concevons des trajectoires qui vérifient les contraintes d'acquisition tout en parcourant l'espace-$k$ avec la densité prescrite dans la théorie de l'échantillonnage à densité variable. Ce second point étant complexe, il est abordé par une séquence de contributions indépendantes. D'abord, nous proposons des schémas d'échantillonnage à densité variables le long de courbes continues~(marche aléatoire, voyageur de commerce). Ensuite, nous proposons un algorithme de projection sur l'espace des contraintes qui renvoie la courbe physiquement plausible la plus proche d'une courbe donnée~(e.g., une solution du voyageur de commerce). Nous donnons enfin un algorithme de projection sur des espaces de mesures qui permet de trouver la projection d'une distribution quelconque sur l'espace des mesures porté par les courbes admissibles. Ainsi, la courbe obtenue est physiquement admissible et réalise un échantillonnage à densité variable. Les résultats de reconstruction obtenus en simulation à partir de cette méthode dépassent ceux associées aux trajectoires d'acquisition utilisées classiquement~(spirale, radiale) de plusieurs décibels (de l'ordre de 3~dB) et permettent d'envisager une implémentation prochaine à 7~Tesla notamment dans le contexte de l'imagerie anatomique haute résolution. / Magnetic Resonance Imaging~(MRI) is a non-invasive and non-ionizing imaging technique that provides images of body tissues, using the contrast sensitivity coming from the magnetic parameters (T$_1$, T$_2$ and proton density). Data are acquired in the $k$-space, corresponding to spatial Fourier frequencies. Because of physical constraints, the displacement in the $k$-space is subject to kinematic constraints. Indeed, magnetic field gradients and their temporal derivative are upper bounded. Hence, the scanning time increases with the image resolution. Decreasing scanning time is crucial to improve patient comfort, decrease exam costs, limit the image distortions~(eg, created by the patient movement), or decrease temporal resolution in functionnal MRI. Reducing scanning time can be addressed by Compressed Sensing~(CS) theory. The latter is a technique that guarantees the perfect recovery of an image from undersampled data in $k$-space, by assuming that the image is sparse in a wavelet basis. Unfortunately, CS theory cannot be directly cast to the MRI setting. The reasons are: i) acquisition~(Fourier) and representation~(wavelets) bases are coherent and ii) sampling schemes obtained using CS theorems are composed of isolated measurements and cannot be realistically implemented by magnetic field gradients: the sampling is usually performed along continuous or more regular curves. However, heuristic application of CS in MRI has provided promising results. In this thesis, we aim to develop theoretical tools to apply CS to MRI and other modalities. On the one hand, we propose a variable density sampling theory to answer the first inpediment. The more the sample contains information, the more it is likely to be drawn. On the other hand, we propose sampling schemes and design sampling trajectories that fulfill acquisition constraints, while traversing the $k$-space with the sampling density advocated by the theory. The second point is complex and is thus addressed step by step. First, we propose continuous sampling schemes based on random walks and on travelling salesman~(TSP) problem. Then, we propose a projection algorithm onto the space of constraints that returns the closest feasible curve of an input curve~(eg, a TSP solution). Finally, we provide an algorithm to project a measure onto a set of measures carried by parameterizations. In particular, if this set is the one carried by admissible curves, the algorithm returns a curve which sampling density is close to the measure to project. This designs an admissible variable density sampler. The reconstruction results obtained in simulations using this strategy outperform existing acquisition trajectories~(spiral, radial) by about 3~dB. They permit to envision a future implementation on a real 7~T scanner soon, notably in the context of high resolution anatomical imaging.
8

Décompositions parcimonieuses : approches Bayésiennes et application à la compression d'image

Drémeau, Angélique 19 November 2010 (has links) (PDF)
Cette thèse s'intéresse à différentes techniques de compression d'image combinant à la fois des aspects Bayésiens et des aspects ”décompositions parcimonieuses”. Deux types de compression sont en particulier examinés. Le codage par transformation, d'abord, est traité sous l'angle de l'optimisation de la transformation. L'étude de bases prédéfinies puis apprises par un algorithme de la littérature constitue une introduction à la conception d'un nouvel algorithme d'apprentissage Bayésien, favorisant la parcimonie de la décomposition. Le codage prédictif ensuite est abordé. Inspiré de contributions récentes s'appuyant sur des décompositions parcimonieuses, un nouvel algorithme de prédiction Bayésien reposant sur un mélange de décompositions parcimonieuses est proposé. Enfin, ces travaux ont permis de mettre en évidence l'intérêt de structurer la parcimonie des décompositions. Par exemple, une pondération des atomes de la décomposition peut être envisagée via l'utilisation d'un modèle Bernoulli-Gaussien de paramètres différents. Ce modèle est considéré dans une dernière partie, pour le développement d'algorithmes de décompositions parcimonieuses.
9

Reconstruction parcimonieuse de la carte de masse de matière noire par effet de lentille gravitationnelle / Sparse reconstruction of the dark matter mass map from weak gravitational lensing

Lanusse, Francois 20 November 2015 (has links)
L'effet de lentille gravitationnelle, qui se traduit par une deformation des images nous parvenant de galaxies lointaines, constitue l'une des techniques les plus prometteuse pour répondre aux nombreuses questions portant sur la nature de l'énergie sombre et de la matière noire. Cet effet de lentille étant sensible à la masse totale, il permet de sonder directement la distribution de matière noire, qui resterait autrement invisible. En mesurant la forme d'un grand nombre de galaxies lointaines, il est possible d'estimer statistiquement les déformations causées par l'effet de lentille gravitationnelles puis d'en inférer la distribution de masse à l'origine de ces deformations. La reconstruction de ces cartes de masses constitue un problème inverse qui se trouve être mal posé dans un certain nombre de situations d'interêt, en particulier lors de la reconstruction de la carte de masse aux petites échelles ou en trois dimensions. Dans ces situations, il devient impossible de reconstruire une carte sans l'ajout d'information a priori.Une classe particulière de méthodes, basées sur un a priori de parcimonie, s'est révélé remarquablement efficace pour résoudre des problèmes inverses similaires pour un large champ d'applications tels que la géophysique et l'imagerie médicale. Le but principal de cette these est donc d'adapter ces techniques de régularisation parcimonieuses au problème de la cartographie de la matière noire afin de developper une nouvelle generation de méthodes. Nous développons en particulier de nouveaux algorithmes permettant la reconstruction de carte masses bi-dimensionnelles de haute resolution ainsi que de cartes de masses tri-dimensionnelles. Nous appliquons de plus les mêmes méthodes de régularisation parcimonieuse au problème de la reconstruction du spectre de puissance des fluctuations primordiales de densités à partir de mesures du fond diffus cosmologique, ce qui constitue un problème inverse particulièrement difficile a résoudre. Nous développons un nouvel algorithme pour résoudre ce problème, que nous appliquons aux données du satellite Planck.Enfin, nous investiguons de nouvelles méthodes pour l'analyse de relevés cosmologiques exprimés en coordonnées sphériques. Nous développons une nouvelle transformée en ondelettes pour champs scalaires exprimés sur la boulle 3D et nous comparons différentes méthodes pour l'analyse cosmologique de relevés de galaxies spectroscopiques. / Gravitational lensing, that is the distortion of the images of distant galaxies by intervening massive objects, has been identified as one of the most promising probes to help answer questions relative to the nature of dark matter and dark energy. As the lensing effect is caused by the total matter content, it can directly probe the distribution of the otherwise invisible dark matter. By measuring the shapes of distant galaxies and statistically estimating the deformations caused by gravitational lensing, it is possible to reconstruct the distribution of the intervening mass. This mass-mapping process can be seen as an instance of a linear inverse problem, which can be ill-posed in many situations of interest, especially when mapping the dark matter on small angular scales or in three dimensions. As a result, recovering a meaningful mass-map in these situations is not possible without prior information. In recent years, a class of methods based on a so-called sparse prior has proven remarkably successful at solving similar linear inverse problems in a wide range of fields such as medical imaging or geophysics. The primary goal of this thesis is to apply these sparse regularisation techniques to the gravitational lensing problem in order to build next-generation dark matter mass-mapping tools. We propose in particular new algorithms for the reconstruction of high-resolution 2D mass-maps and 3D mass-maps and demonstrate in both cases the effectiveness of the sparse prior. We also apply the same sparse methodologies to the reconstruction the primordial density fluctuation power spectrum from measurements of the Cosmic Microwave Background which constitutes another notoriously difficult inverse problem. We apply the resulting algorithm to reconstruct the primordial power spectrum using data from the Planck satellite. Finally, we investigate new methodologies for the analysis of cosmological surveys in spherical coordinates. We develop a new wavelet transform for the analysis of scalar fields on the 3D ball. We also conduct a comparison of methods for the 3D analysis of spectroscopic galaxy survey.
10

Représenter pour suivre : exploitation de représentations parcimonieuses pour le suivi multi-objets / Representations for tracking : exploiting sparse representations for multi-object tracking

Fagot-Bouquet, Loïc Pierre 20 March 2017 (has links)
Le suivi multi-objets, malgré les avancées récentes en détection d'objets, présente encore plusieurs difficultés spécifiques et reste ainsi une problématique difficile. Au cours de cette thèse nous proposons d'examiner l'emploi de représentations parcimonieuses au sein de méthodes de suivi multi-objets, dans le but d'améliorer les performances de ces dernières. La première contribution de cette thèse consiste à employer des représentations parcimonieuses collaboratives dans un système de suivi en ligne pour distinguer au mieux les cibles. Des représentations parcimonieuses structurées sont ensuite considérées pour s'adapter plus spécifiquement aux approches de suivi à fenêtre glissante. Une dernière contribution consiste à employer des dictionnaires denses, prenant en considération un grand nombre de positions non détectées au sein des images, de manière à être plus robuste vis-à-vis de la performance du détecteur d'objets employé. / Despite recent advances in object detection, multi-object tracking still raises some specific issues and therefore remains a challenging problem. In this thesis, we propose to investigate the use of sparse representations within multi-object tracking approaches in order to gain in performances. The first contribution of this thesis consists in designing an online tracking approach that takes advantage of collaborative sparse representations to better distinguish between the targets. Then, structured sparse representations are considered in order to be more suited to traking approaches based on a sliding window. In order to rely less on the object detector quality, we consider for the last contribution of this thesis to use dense dictionaries that are taking into account a large number of undetected locations inside each frame.

Page generated in 0.4457 seconds