• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • Tagged with
  • 3
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Echantillonnage compressé le long de trajectoires physiquement plausibles en IRM / Compressed sensing along physically plausible sampling trajectories in MRI

Chauffert, Nicolas 28 September 2015 (has links)
L'imagerie par résonance magnétique (IRM) est une technique d'imagerie non invasive et non ionisante qui permet d'imager et de discriminer les tissus mous grâce à une bonne sensibilité de contraste issue de la variation de paramètres physiques (T$_1$, T$_2$, densité de protons) spécifique à chaque tissu. Les données sont acquises dans l'espace-$k$, correspondant aux fréquences spatiales de l'image. Des contraintes physiques et matérielles contraignent le mode de fonctionnement des gradients de champ magnétique utilisés pour acquérir les données. Ainsi, ces dernières sont obtenues séquentiellement le long de trajectoires assez régulières (dérivée et dérivée seconde bornées). En conséquence, la durée d'acquisition augmente avec la résolution recherchée de l'image. Accélérer l'acquisition des données est crucial pour réduire la durée d'examen et ainsi améliorer le confort du sujet, diminuer les coûts, limiter les distorsions dans l'image~(e.g., dues au mouvement), ou encore augmenter la résolution temporelle en IRM fonctionnelle. L'échantillonnage compressif permet de sous-échantillonner l'espace-$k$, et de reconstruire une image de bonne qualité en utilisant une hypothèse de parcimonie de l'image dans une base d'ondelettes. Les théories d'échantillonnage compressif s'adaptent mal à l'IRM, même si certaines heuristiques ont permis d'obtenir des résultats prometteurs. Les problèmes rencontrés en IRM pour l'application de cette théorie sont i) d'une part, les bases d'acquisition~(Fourier) et de représentation~(ondelettes) sont cohérentes ; et ii) les schémas actuellement couverts par la théorie sont composés de mesures isolées, incompatibles avec l'échantillonnage continu le long de segments ou de courbes. Cette thèse vise à développer une théorie de l'échantillonnage compressif applicable à l'IRM et à d'autres modalités. D'une part, nous proposons une théorie d'échantillonnage à densité variable pour répondre au premier point. Les échantillons les plus informatifs ont une probabilité plus élevée d'être mesurés. D'autre part, nous proposons des schémas et concevons des trajectoires qui vérifient les contraintes d'acquisition tout en parcourant l'espace-$k$ avec la densité prescrite dans la théorie de l'échantillonnage à densité variable. Ce second point étant complexe, il est abordé par une séquence de contributions indépendantes. D'abord, nous proposons des schémas d'échantillonnage à densité variables le long de courbes continues~(marche aléatoire, voyageur de commerce). Ensuite, nous proposons un algorithme de projection sur l'espace des contraintes qui renvoie la courbe physiquement plausible la plus proche d'une courbe donnée~(e.g., une solution du voyageur de commerce). Nous donnons enfin un algorithme de projection sur des espaces de mesures qui permet de trouver la projection d'une distribution quelconque sur l'espace des mesures porté par les courbes admissibles. Ainsi, la courbe obtenue est physiquement admissible et réalise un échantillonnage à densité variable. Les résultats de reconstruction obtenus en simulation à partir de cette méthode dépassent ceux associées aux trajectoires d'acquisition utilisées classiquement~(spirale, radiale) de plusieurs décibels (de l'ordre de 3~dB) et permettent d'envisager une implémentation prochaine à 7~Tesla notamment dans le contexte de l'imagerie anatomique haute résolution. / Magnetic Resonance Imaging~(MRI) is a non-invasive and non-ionizing imaging technique that provides images of body tissues, using the contrast sensitivity coming from the magnetic parameters (T$_1$, T$_2$ and proton density). Data are acquired in the $k$-space, corresponding to spatial Fourier frequencies. Because of physical constraints, the displacement in the $k$-space is subject to kinematic constraints. Indeed, magnetic field gradients and their temporal derivative are upper bounded. Hence, the scanning time increases with the image resolution. Decreasing scanning time is crucial to improve patient comfort, decrease exam costs, limit the image distortions~(eg, created by the patient movement), or decrease temporal resolution in functionnal MRI. Reducing scanning time can be addressed by Compressed Sensing~(CS) theory. The latter is a technique that guarantees the perfect recovery of an image from undersampled data in $k$-space, by assuming that the image is sparse in a wavelet basis. Unfortunately, CS theory cannot be directly cast to the MRI setting. The reasons are: i) acquisition~(Fourier) and representation~(wavelets) bases are coherent and ii) sampling schemes obtained using CS theorems are composed of isolated measurements and cannot be realistically implemented by magnetic field gradients: the sampling is usually performed along continuous or more regular curves. However, heuristic application of CS in MRI has provided promising results. In this thesis, we aim to develop theoretical tools to apply CS to MRI and other modalities. On the one hand, we propose a variable density sampling theory to answer the first inpediment. The more the sample contains information, the more it is likely to be drawn. On the other hand, we propose sampling schemes and design sampling trajectories that fulfill acquisition constraints, while traversing the $k$-space with the sampling density advocated by the theory. The second point is complex and is thus addressed step by step. First, we propose continuous sampling schemes based on random walks and on travelling salesman~(TSP) problem. Then, we propose a projection algorithm onto the space of constraints that returns the closest feasible curve of an input curve~(eg, a TSP solution). Finally, we provide an algorithm to project a measure onto a set of measures carried by parameterizations. In particular, if this set is the one carried by admissible curves, the algorithm returns a curve which sampling density is close to the measure to project. This designs an admissible variable density sampler. The reconstruction results obtained in simulations using this strategy outperform existing acquisition trajectories~(spiral, radial) by about 3~dB. They permit to envision a future implementation on a real 7~T scanner soon, notably in the context of high resolution anatomical imaging.
2

L'échantillonnage spatio-chromatique dans la rétine humaine et les caméras numériques

Chaix De Lavarène, Brice 22 November 2007 (has links) (PDF)
Il est aujourd'hui établi que la vision des couleurs chez l'homme est permise par la présence de trois types de photorécepteurs, sensibles respectivement aux courtes, moyennes et grandes longueurs d'onde de la lumière. La présence de ces trois classes d'échantillonneurs induit un espace perceptif des couleurs tridimensionnel. Par ailleurs, les expériences psycho-physiques montrent que le système visuel humain construit trois voies perceptives à partir de l'image échantillonnée au niveau des cônes. L'une contient l'information achromatique, appelée lumi- nance, et les deux autres véhiculent les informations d'oppositions de couleurs rouge moins vert et bleu moins jaune. Cependant, le système visuel est confronté à un problème de taille puisqu'à chaque position spatiale de la rétine, un seul cône est présent. Chaque cône mesure, par conséquent, à la fois l'information de luminance et l'information de couleur. Le mécanisme permettant le passage de cette information rétinienne ambiguë à trois voies perceptives distinctes est encore mal compris, en particulier dans le cas d'un arrangement irrégulier des cônes, tel que c'est le cas dans la rétine. Nous proposons un modèle d'estimation de la luminance et des oppositions de couleurs s'appliquant quel que soit l'arrangement spatial des photorécepteurs, et discutons de ses impli- cations pour le traitement rétinien de la couleur. Ce modèle s'applique également au domaine des caméras numériques dites "mono-capteur", ces dernières étant confrontées à la même pro- blématique d'échantillonnage spatio-chromatique que la rétine.
3

ESTIMATION QUANTITATIVE DES PRECIPITATIONS PAR RADAR METEOROLOGIQUE : INFERENCE DE LA STRUCTURE VERTICALE DES PLUIES, MODELISATION DES ERREURS RADAR-PLUVIOMETRES.

Kirstetter, P.E. 23 September 2008 (has links) (PDF)
L'AMÉLIORATION DES TECHNIQUES D'OBSERVATION DES PRÉCIPITATIONS À L'ÉCHELLE RÉGIONALE EST L'UN DES ENJEUX FORTS DE L'OBSERVATOIRE HYDROMÉTÉOROLOGIQUE MÉDITERRANÉEN CÉVENNES-VIVARAIS. SUITE À UNE PREMIÈRE EXPÉRIMENTATION RÉALISÉE À BOLLÈNE À L'AUTOMNE 2002, LES DONNÉES RECUEILLIES PAR LE RADAR MÉTÉOROLOGIQUE OPÉRATIONNEL DE BOLLÈNE DU RÉSEAU ARAMIS ONT SERVI DE SUPPORT À UNE CHAÎNE D'ALGORITHMES MISE AU POINT POUR L'ESTIMATION QUANTITATIVE DES PRÉCIPITATIONS AU SOL. <br />NOTRE CONTRIBUTION À CES TRAITEMENTS CONCERNE PARTICULIÈREMENT UNE SOURCE D'ERREUR POUR LA MESURE DES PRÉCIPITATIONS PAR RADAR MÉTÉOROLOGIQUE : L'HÉTÉROGÉNÉITÉ VERTICALE DES PRÉCIPITATIONS. NOUS NOUS PLAÇONS DANS LA CONTINUITÉ DE LA MÉTHODE À BASE STATISTIQUE D'IDENTIFICATION DU PROFIL VERTICAL DE RÉFLECTIVITÉ PAR INVERSION PROPOSÉE PAR ANDRIEU ET CREUTIN (1995). NOUS AVONS ÉTENDU CETTE MÉTHODE AU CAS DE SUPPORTS GÉOGRAPHIQUES ÉVOLUTIFS DANS LE TEMPS AFIN DE CONSIDÉRER LE TYPE DE PRÉCIPITATIONS (CONVECTIF, STRATIFORME). <br />L'ÉVALUATION DES TRAITEMENTS, PAR LA CARACTÉRISATION DE L'INCERTITUDE DE L'ESTIMATION DE PLUIE PAR RADAR, EST UN ASPECT IMPORTANT DU TRAVAIL. NOUS AVONS DÉVELOPPÉ UNE TECHNIQUE BASÉE SUR LA GÉOSTATISTIQUE POUR ÉTABLIR UNE PLUIE DE RÉFÉRENCE À PARTIR DE DONNÉES PLUVIOMÉTRIQUES. NOUS AVONS ÉGALEMENT DÉVELOPPÉ UN MODÈLE POUR CARACTÉRISER LA STRUCTURE STATISTIQUE DES ERREURS AINSI QUE LEUR STRUCTURE SPATIO-TEMPORELLE. <br />NOUS AVONS ENFIN DÉVELOPPÉ UNE APPROCHE D'IDENTIFICATION DU PVR À BASE PHYSIQUE. EN DIMINUANT LE NOMBRE DE PARAMÈTRE PAR RAPPORT À LA MÉTHODE INITIALE ET EN INTRODUISANT DES CONTRAINTES PLUS PHYSIQUES, CETTE APPROCHE VISE À AMÉLIORER LA ROBUSTESSE D'IDENTIFICATION DU PVR.

Page generated in 0.0196 seconds