• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 114
  • 77
  • 11
  • 2
  • Tagged with
  • 211
  • 91
  • 46
  • 33
  • 33
  • 33
  • 33
  • 32
  • 32
  • 30
  • 26
  • 25
  • 24
  • 23
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Analyse d'image hyperspectrale / Hyperspectral Image Analysis

Faivre, Adrien 14 December 2017 (has links)
Les travaux de thèse effectués dans le cadre de la convention Cifre conclue entrele laboratoire de mathématiques de Besançon et Digital Surf, entreprise éditrice dulogiciel d’analyse métrologique Mountains, portent sur les techniques d’analyse hyperspectrale.Sujet en plein essor, ces méthodes permettent d’exploiter des imagesissues de micro-spectroscopie, et en particulier de spectroscopie Raman. Digital Surfambitionne aujourd’hui de concevoir des solutions logicielles adaptées aux imagesproduites par ces appareils. Ces dernières se présentent sous forme de cubes de valeurs,où chaque pixel correspond à un spectre. La taille importante de ces données,appelées images hyperspectrales en raison du nombre important de mesures disponiblespour chaque spectre, obligent à repenser certains des algorithmes classiquesd’analyse d’image.Nous commençons par nous intéresser aux techniques de partitionnement de données.L’idée est de regrouper dans des classes homogènes les différents spectres correspondantà des matériaux similaires. La classification est une des techniques courammentutilisée en traitement des données. Cette tâche fait pourtant partie d’unensemble de problèmes réputés trop complexes pour une résolution pratique : les problèmesNP-durs. L’efficacité des différentes heuristiques utilisées en pratique était jusqu’àrécemment mal comprise. Nous proposons des argument théoriques permettantde donner des garanties de succès quand les groupes à séparer présentent certainespropriétés statistiques.Nous abordons ensuite les techniques de dé-mélange. Cette fois, il ne s’agit plus dedéterminer un ensemble de pixels semblables dans l’image, mais de proposer une interprétationde chaque pixel comme un mélange linéaire de différentes signatures spectrales,sensées émaner de matériaux purs. Cette déconstruction de spectres compositesse traduit mathématiquement comme un problème de factorisation en matrices positives.Ce problème est NP-dur lui aussi. Nous envisageons donc certaines relaxations,malencontreusement peu convaincantes en pratique. Contrairement au problème declassification, il semble très difficile de donner de bonnes garanties théoriques sur laqualité des résultats proposés. Nous adoptons donc une approche plus pragmatique,et proposons de régulariser cette factorisation en imposant des contraintes sur lavariation totale de chaque facteur.Finalement, nous donnons un aperçu d’autres problèmes d’analyse hyperspectralerencontrés lors de cette thèse, problèmes parmi lesquels figurent l’analyse en composantesindépendantes, la réduction non-linéaire de la dimension et la décompositiond’une image par rapport à une librairie regroupant un nombre important de spectresde référence. / This dissertation addresses hyperspectral image analysis, a set of techniques enabling exploitation of micro-spectroscopy images. Images produced by these sensors constitute cubic arrays, meaning that every pixel in the image is actually a spectrum.The size of these images, which is often quite large, calls for an upgrade for classical image analysis algorithms.We start out our investigation with clustering techniques. The main idea is to regroup every spectrum contained in a hyperspectralimage into homogeneous clusters. Spectrums taken across the image can indeed be generated by similar materials, and hence display spectral signatures resembling each other. Clustering is a commonly used method in data analysis. It belongs nonetheless to a class of particularly hard problems to solve, named NP-hard problems. The efficiency of a few heuristics used in practicewere poorly understood until recently. We give theoretical arguments guaranteeing success when the groups studied displaysome statistical property.We then study unmixing techniques. The objective is no longer to decide to which class a pixel belongs, but to understandeach pixel as a mix of basic signatures supposed to arise from pure materials. The mathematical underlying problem is again NP-hard.After studying its complexity, and suggesting two lengthy relaxations, we describe a more practical way to constrain the problemas to obtain regularized solutions.We finally give an overview of other hyperspectral image analysis methods encountered during this thesis, amongst whomare independent component analysis, non-linear dimension reduction, and regression against a spectrum library.
162

Étude numérique et asymptotique d'une approche couplée pour la simulation de la propagation de feux de forêt avec l'effet du vent en terrain complexe

Proulx, Louis-Xavier 08 1900 (has links)
No description available.
163

Chaos dynamique dans le problème à trois corps restreint / Dynamical chaos in the restricted three body problem

Rollin, Guillaume 02 November 2015 (has links)
Capture-évolution-éjection de particules par des systèmes binaires (étoile-planète, étoile binaire, étoile-trou noir supermassif, trou noir binaire, ...). Dans une première partie, en utilisant une généralisation de l'application de Kepler, nous décrivons, au travers du cas de 1P/Halley, la dynamique chaotique des comètes dans le système solaire. Le système binaire, alors considéré, est composé du Soleil et de Jupiter. L'application symplectique utilisée permet de rendre compte des différentes caractéristiques de la dynamique : trajectoires chaotiques, îlots invariants de KAM associés aux résonances avec le mouvement orbital de Jupiter,... Nous avons déterminé de façon exacte et semi-analytique l'énergie échangée (fonction kick) entre le système solaire et la comète de Halley à chaque passage au périhélie. Cette fonction kick est la somme des contributions des problèmes à trois corps Soleil-planète-comète associés aux 8 planètes du système solaire. Nous avons montré que chacune de ces contributions peut être décomposée en un terme keplerien associé au potentiel gravitationnel de la planète et un terme dipolaire dû au mouvement du soleil autour du centre de masse du système solaire. Dans une deuxième partie, nous avons utilisé la généralisation de l'application de Kepler pour étudier la capture de particules de matière noire au sein des systèmes binaires. La section efficace de capture a été calculée et montre que la capture à longue portée est bien plus efficace que la capture due aux rencontres proches. Nous montrons également l'importance de la vitesse de rotation du système binaire dans le processus de capture. Notamment, un système binaire en rotation ultrarapide accumulera en son sein une densité de matière jusqu'à 10^4 fois celle du flot de matière le traversant. Dans la dernière partie, en intégrant les équations du mouvement du problème à trois corps restreint plan, nous avons étudié l'éjection des particules capturées par un système binaire. Dans le cas d'un système binaire dont les deux corps sont de masses comparables, alors que la majorité des particules sont éjectées immédiatement, nous montrons, sur les sections de Poincaré, que la trace des particules restant indéfiniment aux abords du système binaire forme une structure fractale caractéristique d'un répulseur étrange associé à un système chaotique ouvert. Cette structure fractale, également présente dans l'espace réel, a une forme de spirale à deux bras partageant des similitudes avec les structures spiralées des galaxies comme la nôtre. / This work is devoted to the study of the restricted 3-body problem and particularly to the capture-evolution-ejection process of particles by binary systems (star-planet, binary star, star-supermassive black hole, binary black hole, ...). First, using a generalized Kepler map, we describe, through the case of 1P/Halley, the chaotic dynamics of comets in the Solar System. The here considered binary system is the couple Sun-Jupiter. The symplectic application we use allows us to depict the main characteristics of the dynamics: chaotic trajectories, KAM islands associated to resonances with Jupiter orbital motion, ... We determine exactly and semi-analytically the exchange of energy (kick function) between the Solar System and 1P/Halley at its passage at perihelion. This kick function is the sum of the contributions of 3-body problems Sun-planet-comet associated to the eight planets. We show that each one of these contributions can be split in a keplerian term associated to the planet gravitational potential and a dipolar term due to the Sun movement around Solar System center of mass. We also use the generalized Kepler map to study the capture of dark matter particles by binary systems. We derive the capture cross section showing that long range capture is far more efficient than close encounter induced capture. We show the importance of the rotation velocity of the binary in the capture process. Particularly, a binary system with an ultrafast rotation velocity accumulates a density of captured matter up to 10^4 times the density of the incoming flow of matter. Finally, by direct integration of the planar restricted 3-body problem equations of motion, we study the ejection of particles initially captured by a binary system. In the case of a binary with two components of comparable masses, although almost all the particles are immediately ejected, we show, on Poincaré sections, that the trace of remaining particles in the vicinity of the binary form a fractal structure associated to a strange repeller associated to chaotic open systems. This fractal structure, also present in real space, has a shape of two arm spiral sharing similarities with spiral structures observed in galaxies such as the Milky Way.
164

Renormalisation dans les algèbres de HOPF graduées connexes / Renormalization in connected graded Hopf algebras

Belhaj Mohamed, Mohamed 29 November 2014 (has links)
Dans cette thèse, nous nous intéressons à la renormalisation de Connes et Kreimer dans le contexe des algèbres de Hopf de graphes de Feynman spécifiés. Nous construisons une structure d'algèbre de Hopf $\mathcal{H}_\mathcal{T}$ sur l'espace des graphes de Feynman spécifié d'une théorie quantique des champs $\mathcal{T}$. Nous définissons encore un dédoublement $\wt\mathcal{D}_\mathcal{T}$ de la bigèbre de graphes de Feynman spécifiés, un produit de convolution \divideontimes et un groupe de caractères de cette algèbre de Hopf à valeurs dans une algèbre commutative qui prend en compte la dépendance en les moments extérieurs. Nous mettons en place alors la renormalisation décrite par A. Connes et D. Kreimer et la décomposition de Birkhoff pour deux schémas de renormalisation : le schéma minimal de renormalisation et le schéma de développement de Taylor. Nous rappelons la définition des intégrales de Feynman associées à un graphe. Nous montrons que ces intégrales sont holomorphes en une variable complexe D dans le cas des fonctions de Schwartz, et qu'elles s'étendent en une fonction méromorphe dans le cas des fonctions de types Feynman. Nous pouvons alors déterminer les parties finies de ces intégrales en utilisant l'algorithme BPHZ après avoir appliqué la procédure de régularisation dimensionnelle. / In this thesis, we study the renormalization of Connes-Kreimer in the contex of specified Feynman graphs Hopf algebra. We construct a Hopf algebra structure $\mathcal{H}_\mathcal{T}$ on the space of specified Feynman graphs of a quantum field theory $\mathcal{T}$. We define also a doubling procedure for the bialgebra of specified Feynman graphs, a convolution product and a group of characters of this Hopf algebra with values in some suitable commutative algebra taking momenta into account. We then implement the renormalization described by A. Connes and D. Kreimer and the Birkhoff decomposition for two renormalization schemes: the minimal subtraction scheme and the Taylor expansion scheme.We recall the definition of Feynman integrals associated with a graph. We prove that these integrals are holomorphic in a complex variable D in the case oh Schwartz functions, and that they extend in a meromorphic functions in the case of a Feynman type functions. Finally, we determine the finite parts of Feynman integrals using the BPHZ algorithm after dimensional regularization procedure.
165

Méthodes mathématiques d’analyse d’image pour les études de population transversales et longitudinales / Mathematical methods of image analysis for cross-sectional and longitudinal population studies

Fiot, Jean-Baptiste 17 September 2013 (has links)
En médecine, les analyses de population à grande échelle ont pour but d’obtenir des informations statistiques pour mieux comprendre des maladies, identifier leurs facteurs de risque, développer des traitements préventifs et curatifs et améliorer la qualité de vie des patients.Dans cette thèse, nous présentons d’abord le contexte médical de la maladie d’Alzheimer, rappelons certains concepts d’apprentissage statistique et difficultés rencontrées lors de l’application en imagerie médicale. Dans la deuxième partie,nous nous intéressons aux analyses transversales, c-a-d ayant un seul point temporel.Nous présentons une méthode efficace basée sur les séparateurs à vaste marge (SVM)permettant de classifier des lésions dans la matière blanche. Ensuite, nous étudions les techniques d’apprentissage de variétés pour l’analyse de formes et d’images, et présentons deux extensions des Laplacian eigenmaps améliorant la représentation de patients en faible dimension grâce à la combinaison de données d’imagerie et cliniques. Dans la troisième partie, nous nous intéressons aux analyses longitudinales, c-a-d entre plusieurs points temporels. Nous quantifions les déformations des hippocampus de patients via le modèle des larges déformations par difféomorphismes pour classifier les évolutions de la maladie. Nous introduisons de nouvelles stratégies et des régularisations spatiales pour la classification et l’identification de marqueurs biologiques. / In medicine, large scale population analysis aim to obtain statistical information in order to understand better diseases, identify their risk factors, develop preventive and curative treatments and improve the quality of life of the patients.In this thesis, we first introduce the medical context of Alzheimer’s disease, recall some concepts of statistical learning and the challenges that typically occurwhen applied in medical imaging. The second part focus on cross-sectional studies,i.e. at a single time point. We present an efficient method to classify white matter lesions based on support vector machines. Then we discuss the use of manifoldlearning techniques for image and shape analysis. Finally, we present extensions ofLaplacian eigenmaps to improve the low-dimension representations of patients usingthe combination of imaging and clinical data. The third part focus on longitudinalstudies, i.e. between several time points. We quantify the hippocampus deformations of patients via the large deformation diffeomorphic metric mapping frameworkto build disease progression classifiers. We introduce novel strategies and spatialregularizations for the classification and identification of biomarkers.
166

L'établissement du contenu du droit aplicable en matière d'arbitrage international / Establishment of the content of applicable law in international arbitration

Abid, Chiraz 20 November 2017 (has links)
Le rôle que joue le tribunal arbitral dans l'établissement du contenu du droit applicable n'est pas déterminé dans la plupart des législations d'arbitrage. Cette défaillance du cadre légal conduit à l'interprétation du principe jura novit curia en matière d'arbitrage international. Certes, une transposition pure et simple dans cette matière dudit principe, tel qu'il est appliqué devant les tribunaux étatiques, n'est pas sans difficulté. Néanmoins, en vue de consolider la confiance des parties dans la justice arbitrale et améliorer sa qualité, le tribunal arbitral doit avoir un rôle prépondérant vis-à-vis du droit applicable. En outre, l'office de l'arbitre doit intégrer l'emprise croissante des principes procéduraux fondamentaux. L'administration de la preuve juridique durant l'instance arbitrale s'accomplit à travers différents outils et méthodes. Ces derniers sont, de nos jours, très harmonisés dans les différentes législations et ce grâce à l'effort considérable déployé par les différentes institutions d'arbitrage. Néanmoins, en dépit de leur utilisation fréquente, de leur évolution croissante et leurs avantages indéniables, certains inconvénients persistent et contredisent parfois les besoins d'efficacité et de célérité recherchés par les compromettants. D'autres méthodes, spécifiques pour la preuve juridique, devraient émerger pour une meilleure administration de la justice. Il ne faut toutefois pas privilégier simplement une solution rapide du litige. Il faut qu'elle soit également acceptable et juste aux yeux des parties. Un outil de contrôle de la phase post-arbitrale, qui vise à vérifier si le contenu «censé» établi du droit applicable est correctement appliqué par l'arbitre aux faits de l'espèce, doit pouvoir exister et être efficace. Une telle mesure doit cependant être respectueuse du principe de non révision au fond des sentences. / The role of the arbital tribunal in the establishment of the content of the applicable law on the merits is not envisaged in most of the arbitration statutes. This brings us to examine the principle ''jura novit curia" and the opportunity of its application to international arbitration. Applying this principle in the same way it is applied before state courts to international arbitration has led to several difficulties. However in order to encourage the parties to resort to arbitration and to increase their trust in this conflict resolution mechanism, the arbitrator must be actively involved in the establishment of the content of the applicable law. Moreover, the "ex officia" attributions of the arbitrator should always comply with the due process principles. The administration of the proof of the applicable law during an arbitration procedure is nowadays standardized in most of the different law systems, due to the continuous efforts of the arbitration institutions. However, and despite the numerous advantages of the current methods of establishment of the applicable law, many difficulties are still encountered, which is diminishing the efficiency and the celerity expected by the parties from the arbitration process. Therefore, news methods should be developed, without however compromising the quality of the justice rendered: a post arbitral control must be implemented in order to verify whether the arbitrator has correctly applied the law on the merits "as previously established" to the case at hand, while respecting the principle of non review of the award on the merits.
167

Estimation par méthodes inverses des profils d’émission des machines à bois électroportatives / Emission profiles characterization by inverse method for hand-held wood working machines

Chata, Florent 27 November 2015 (has links)
Cette thèse est dédiée à l'estimation de l'intensité d'une source de polluant de type particulaire par inversion de signaux de concentration mesurés avec un nombre fini de capteurs placés loin de la source. Cette méthode d'estimation inclut deux étapes distinctes. La première étape consiste à déterminer les paramètres du modèle d'inversion en utilisant une source d'aérosol connue et les mesures de concentration en particules correspondantes. Dans une seconde étape, une source d'aérosol inconnue est reconstruite à partir de l'inversion du modèle et des mesures de la concentration. Ce manuscrit traite dans un premier temps du cas stationnaire. L'approche théorique exposée permet de proposer un placement optimal des capteurs en plus de la méthode d'estimation de la source. Dans un second temps, on considère le cas où la source inconnue d'aérosol est instationnaire. La méthode d'estimation repose sur une approche convolutive du système, en introduisant la notion d'impédance source/capteur. Après une présentation de la technique d'inversion propre à la méthode d'estimation, elle est appliquée expérimentalement au cas des machines à bois éléctroportatives, dans le but de les discriminer en fonction de leur caractère émissif / This thesis is dedicated to the determination of unknown aerosol sources emission profiles from aerosol concentration measurements in the far-field. This procedure includes two distinct steps. The first step consists in determining the model linking the aerosol source and the concentration measurements using a known source of aerosols and the corresponding dust measurements. In a second step, the unknown source of aerosols is reconstructed by inverting the model for the measured aerosol concentrations. This manuscript deals in a first time with the stationary case. The exposed theoretical approach allows to suggest an optimal sensors placement in addition to the source estimation method. In a second time, we consider the case where the unknown aerosol source is unsteady. The estimation method is then based on a convolutive system approach, introducing the concept of source/sensor impedance. After a presentation of the numerical inversion technique, the method is applied experimentally to the real case of hand-held wood working machines so as to classify the machines with respect to their emission rate
168

Régularisations de faible complexité pour les problèmes inverses / Low Complexity Regularization of Inverse Problems

Vaiter, Samuel 10 July 2014 (has links)
Cette thèse se consacre aux garanties de reconstruction et de l’analyse de sensibilité de régularisation variationnelle pour des problèmes inverses linéaires bruités. Il s’agit d’un problème d’optimisation convexe combinant un terme d’attache aux données et un terme de régularisation promouvant des solutions vivant dans un espace dit de faible complexité. Notre approche, basée sur la notion de fonctions partiellement lisses, permet l’étude d’une grande variété de régularisations comme par exemple la parcimonie de type analyse ou structurée, l’anti-Parcimonie et la structure de faible rang. Nous analysons tout d’abord la robustesse au bruit, à la fois en termes de distance entre les solutions et l’objet original, ainsi que la stabilité de l’espace modèle promu.Ensuite, nous étudions la stabilité de ces problèmes d’optimisation à des perturbations des observations. A partir d’observations aléatoires, nous construisons un estimateur non biaisé du risque afin d’obtenir un schéma de sélection de paramètre. / This thesis is concerned with recovery guarantees and sensitivity analysis of variational regularization for noisy linear inverse problems. This is cast as aconvex optimization problem by combining a data fidelity and a regularizing functional promoting solutions conforming to some notion of low complexity related to their non-Smoothness points. Our approach, based on partial smoothness, handles a variety of regularizers including analysis/structured sparsity, antisparsity and low-Rank structure. We first give an analysis of thenoise robustness guarantees, both in terms of the distance of the recovered solutions to the original object, as well as the stability of the promoted modelspace. We then turn to sensivity analysis of these optimization problems to observation perturbations. With random observations, we build un biased estimator of the risk which provides a parameter selection scheme.
169

Méthodes rapides de traitement d’images hyperspectrales. Application à la caractérisation en temps réel du matériau bois / Fast methods for hyperspectral images processing. Application to the real-time characterization of wood material

Nus, Ludivine 12 December 2019 (has links)
Cette thèse aborde le démélange en-ligne d’images hyperspectrales acquises par un imageur pushbroom, pour la caractérisation en temps réel du matériau bois. La première partie de cette thèse propose un modèle de mélange en-ligne fondé sur la factorisation en matrices non-négatives. À partir de ce modèle, trois algorithmes pour le démélange séquentiel en-ligne, fondés respectivement sur les règles de mise à jour multiplicatives, le gradient optimal de Nesterov et l’optimisation ADMM (Alternating Direction Method of Multipliers) sont développés. Ces algorithmes sont spécialement conçus pour réaliser le démélange en temps réel, au rythme d'acquisition de l'imageur pushbroom. Afin de régulariser le problème d’estimation (généralement mal posé), deux sortes de contraintes sur les endmembers sont utilisées : une contrainte de dispersion minimale ainsi qu’une contrainte de volume minimal. Une méthode pour l’estimation automatique du paramètre de régularisation est également proposée, en reformulant le problème de démélange hyperspectral en-ligne comme un problème d’optimisation bi-objectif. Dans la seconde partie de cette thèse, nous proposons une approche permettant de gérer la variation du nombre de sources, i.e. le rang de la décomposition, au cours du traitement. Les algorithmes en-ligne préalablement développés sont ainsi modifiés, en introduisant une étape d’apprentissage d’une bibliothèque hyperspectrale, ainsi que des pénalités de parcimonie permettant de sélectionner uniquement les sources actives. Enfin, la troisième partie de ces travaux consiste en l’application de nos approches à la détection et à la classification des singularités du matériau bois. / This PhD dissertation addresses the problem of on-line unmixing of hyperspectral images acquired by a pushbroom imaging system, for real-time characterization of wood. The first part of this work proposes an on-line mixing model based on non-negative matrix factorization. Based on this model, three algorithms for on-line sequential unmixing, using multiplicative update rules, the Nesterov optimal gradient and the ADMM optimization (Alternating Direction Method of Multipliers), respectively, are developed. These algorithms are specially designed to perform the unmixing in real time, at the pushbroom imager acquisition rate. In order to regularize the estimation problem (generally ill-posed), two types of constraints on the endmembers are used: a minimum dispersion constraint and a minimum volume constraint. A method for the unsupervised estimation of the regularization parameter is also proposed, by reformulating the on-line hyperspectral unmixing problem as a bi-objective optimization. In the second part of this manuscript, we propose an approach for handling the variation in the number of sources, i.e. the rank of the decomposition, during the processing. Thus, the previously developed on-line algorithms are modified, by introducing a hyperspectral library learning stage as well as sparse constraints allowing to select only the active sources. Finally, the third part of this work consists in the application of these approaches to the detection and the classification of the singularities of wood.
170

Modélisation avancée du signal dMRI pour la caractérisation de la microstructure tissulaire / Advanced dMRI signal modeling for tissue microstructure characterization

Fick, Rutger 10 March 2017 (has links)
Cette thèse est dédiée à améliorer la compréhension neuro-scientifique à l'aide d'imagerie par résonance magnétique de diffusion (IRMd). Nous nous concentrons sur la modélisation du signal de diffusion et l'estimation par IRMd des biomarqueurs liés à la microstructure, appelé «Microstructure Imaging». Cette thèse est organisée en trois parties. Dans partie I nous commençons par la base de l'IRMd et un aperçu de l'anisotropie en diffusion. Puis nous examinons la plupart des modèles de microstructure utilisant PGSE, en mettant l'accent sur leurs hypothèses et limites, suivi par une validation par l'histologie de la moelle épinière de leur estimation. La partie II présente nos contributions à l'imagerie en 3D et à l’estimation de microstructure. Nous proposons une régularisation laplacienne de la base fonctionnelle MAP, ce qui nous permet d'estimer de façon robuste les indices d'espace q liés au tissu. Nous appliquons cette approche aux données du Human Connectome Project, où nous l'utilisons comme prétraitement pour d'autres modèles de microstructure. Enfin, nous comparons les biomarqueurs dans une étude ex-vivo de rats Alzheimer à différents âges. La partie III présente nos contributions au représentation de l’espace qt - variant sur l'espace q 3D et le temps de diffusion. Nous présentons une approche initiale qui se concentre sur l'estimation du diamètre de l'axone depuis l'espace qt. Nous terminons avec notre approche finale, où nous proposons une nouvelle base fonctionnelle régularisée pour représenter de façon robuste le signal qt, appelé qt-IRMd. Ce qui permet l'estimation des indices d’espace q dépendants du temps, quantifiant la dépendance temporelle du signal IRMd. / This thesis is dedicated to furthering neuroscientific understanding of the human brain using diffusion-sensitized Magnetic Resonance Imaging (dMRI). Within dMRI, we focus on the estimation and interpretation of microstructure-related markers, often referred to as ``Microstructure Imaging''. This thesis is organized in three parts. Part I focuses on understanding the state-of-the-art in Microstructure Imaging. We start with the basic of diffusion MRI and a brief overview of diffusion anisotropy. We then review and compare most state-of-the-art microstructure models in PGSE-based Microstructure Imaging, emphasizing model assumptions and limitations, as well as validating them using spinal cord data with registered ground truth histology. In Part II we present our contributions to 3D q-space imaging and microstructure recovery. We propose closed-form Laplacian regularization for the recent MAP functional basis, allowing robust estimation of tissue-related q-space indices. We also apply this approach to Human Connectome Project data, where we use it as a preprocessing for other microstructure models. Finally, we compare tissue biomarkers in a ex-vivo study of Alzheimer rats at different ages. In Part III, we present our contributions to representing the qt-space - varying over 3D q-space and diffusion time. We present an initial approach that focuses on 3D axon diameter estimation from the qt-space. We end with our final approach, where we propose a novel, regularized functional basis to represent the qt-signal, which we call qt-dMRI. Our approach allows for the estimation of time-dependent q-space indices, which quantify the time-dependence of the diffusion signal.

Page generated in 0.091 seconds