• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 21
  • 18
  • 2
  • Tagged with
  • 40
  • 18
  • 9
  • 8
  • 8
  • 8
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Interpolation des données en imagerie cardiaque par résonance magnétique du tenseur de diffusion

Yang, Feng 15 January 2011 (has links) (PDF)
L'un des problèmes fondamentaux de l'imagerie cardiaque par résonance magnétique du tenseur de diffusion (IRM-TD) est sa faible résolution spatiale, à cause des limitations matérielles des scanners IRM actuels. L'objectif principal de ce travail de thèse est de développer de nouvelles approches pour améliorer la résolution des données d'IRM-TD afin de mieux représenter l'architecture myocardique du coeur humain et de la comparer avec des résultats issus d'autres techniques d'investigation telles que l'imagerie par lumière polarisée. Dans ce cadre, le travail porte sur trois parties principales. La première concerne le développement d'une nouvelle approche pour l'interpolation des champs de vecteurs propres principaux issus de l'IRM-TD cardiaque humaine. Cette approche consiste d'abord à supprimer les vecteurs corrompus par le bruit au lieu de débruiter de manière uniforme le champ entier de vecteurs, et ensuite à interpoler le champ de vecteurs en utilisant la modèle Thin-Plate-Spline (TPS) afin d'exploiter la corrélation entre les composantes du vecteur. La deuxième partie concerne une nouvelle famille de méthodes d'interpolation pour les champs de tenseurs, basée soit sur les angles d'Euler soit sur le quaternion. Ces méthodes exploitent les caractéristiques du tenseur et préservent les paramètres de tenseurs, tels que le déterminant du tenseur, l'anisotropie fractionnelle (FA) et la diffusivité moyenne (MD). En outre, cette partie compare les principales approches d'interpolation au niveau des images pondérées en diffusion et des champs de tenseurs, et les résultats montrent qu'il serait préférable d'effectuer l'interpolation des données d'IRM-TD au niveau des champs de tenseurs. La troisième partie étudie le changement des paramètres MD et FA après un infarctus du myocarde chez les cochons, et l'influence des méthodes d'interpolation sur ces paramètres dans la zone infarctus et la zone distante. Les résultats montrent que la zone infarctus présente une diminution significative de FA et une augmentation significative de MD, comparée avec la zone distante, et que les méthodes d'interpolations du tenseur ont plus d'influence sur FA que sur MD, ce qui suggère que l'interprétation de ces paramètres cliniques après l'interpolation doive être prise avec précaution.
32

Adaptation de maillages pour des schémas numériques d'ordre très élevé

Mbinky, Estelle 20 December 2013 (has links) (PDF)
L'adaptation de maillages est un processus itératif qui consiste à changer localement la taille et l'orientation du maillage en fonction du comportement de la solution physique étudiée. Les méthodes d'adaptation de maillages ont prouvé qu'elles pouvaient être extrêmement efficaces en réduisant significativement la taille des maillages pour une précision donnée et en atteignant rapidement une convergence asymptotique d'ordre 2 pour des problèmes contenant des singularités lorsqu'elles sont couplées à des méthodes numériques d'ordre élevé. Dans les techniques d'adaptation de maillages basées sur les métriques, deux approches ont été proposées: les méthodes multi-échelles basées sur un contrôle de l'erreur d'interpolation en norme Lp et les méthodes ciblées à une fonctionnelle qui contrôle l'erreur d'approximation sur une fonctionnelle d'intérêt via l'utilisation de l'état adjoint. Cependant, avec l'émergence de méthodes numériques d'ordre très élevé telles que la méthode de Galerkin discontinue, il devient nécessaire de prendre en compte l'ordre du schéma numérique dans le processus d'adaptation de maillages. Il est à noter que l'adaptation de maillages devient encore plus cruciale pour de tels schémas car ils ne convergent qu'à l'ordre 1 dans les singularités de l'écoulement. Par conséquent, le raffinement du maillage au niveau des singularités de la solution doit être d'autant plus important que l'ordre de la méthode est élevé. L'objectif de cette thèse sera d'étendre les résultats numériques et théoriques obtenus dans le cas de l'adaptation pour des solutions linéaires par morceaux à l'adaptation pour des solutions d'ordre élevé polynomiales par morceaux. Ces solutions sont représentées sur le maillage par des éléments finis de Lagrange d'ordre k ≥ 2. Cette thèse portera sur la modélisation de l'erreur d'interpolation locale, polynôme homogène de degré k ≥ 3 dans le formalisme du maillage continu. Or, les méthodes d'adaptation de maillages basées sur les métriques nécessitent que le modèle d'erreur soit une forme quadratique, laquelle fait apparaître intrinsèquement un espace métrique. Pour pouvoir exhiber un tel espace, il est nécessaire de décomposer le polynôme homogène et de l'approcher par une forme quadratique à la puissance k/2. Cette modélisation permet ainsi de révéler un champ de métriques indispensable pour communiquer avec le générateur de maillages. En deux et trois dimensions, des méthodes de décomposition de tenseurs telles que la décomposition de Sylvester nous permettront de décomposer la fonction exacte d'erreur puis d'en déduire le modèle d'erreur quadratique. Ce modèle d'erreur local est ensuite utilisé pour contrôler globalement l'erreur en norme Lp et le maillage optimal est obtenu en minimisant cette erreur. Dans cette thèse, on s'attachera à démontrer la convergence à l'ordre k de la méthode d'adaptation de maillages pour des fonctions analytiques et pour des simulations numériques utilisant des solveurs d'ordre k ≥ 3.
33

Contribution aux décompositions rapides des matrices et tenseurs / Contributions to fast matrix and tensor decompositions

Nguyen, Viet-Dung 16 November 2016 (has links)
De nos jours, les grandes masses de données se retrouvent dans de nombreux domaines relatifs aux applications multimédia, sociologiques, biomédicales, radio astronomiques, etc. On parle alors du phénomène ‘Big Data’ qui nécessite le développement d’outils appropriés pour la manipulation et l’analyse appropriée de telles masses de données. Ce travail de thèse est dédié au développement de méthodes efficaces pour la décomposition rapide et adaptative de tenseurs ou matrices de grandes tailles et ce pour l’analyse de données multidimensionnelles. Nous proposons en premier une méthode d’estimation de sous espaces qui s’appuie sur la technique dite ‘divide and conquer’ permettant une estimation distribuée ou parallèle des sous-espaces désirés. Après avoir démontré l’efficacité numérique de cette solution, nous introduisons différentes variantes de celle-ci pour la poursuite adaptative ou bloc des sous espaces principaux ou mineurs ainsi que des vecteurs propres de la matrice de covariance des données. Une application à la suppression d’interférences radiofréquences en radioastronomie a été traitée. La seconde partie du travail a été consacrée aux décompositions rapides de type PARAFAC ou Tucker de tenseurs multidimensionnels. Nous commençons par généraliser l’approche ‘divide and conquer’ précédente au contexte tensoriel et ce en vue de la décomposition PARAFAC parallélisable des tenseurs. Ensuite nous adaptons une technique d’optimisation de type ‘all-at-once’ pour la décomposition robuste (à la méconnaissance des ordres) de tenseurs parcimonieux et non négatifs. Finalement, nous considérons le cas de flux de données continu et proposons deux algorithmes adaptatifs pour la décomposition rapide (à complexité linéaire) de tenseurs en dimension 3. Malgré leurs faibles complexités, ces algorithmes ont des performances similaires (voire parfois supérieures) à celles des méthodes existantes de la littérature. Au final, ce travail aboutit à un ensemble d’outils algorithmiques et algébriques efficaces pour la manipulation et l’analyse de données multidimensionnelles de grandes tailles. / Large volumes of data are being generated at any given time, especially from transactional databases, multimedia content, social media, and applications of sensor networks. When the size of datasets is beyond the ability of typical database software tools to capture, store, manage, and analyze, we face the phenomenon of big data for which new and smarter data analytic tools are required. Big data provides opportunities for new form of data analytics, resulting in substantial productivity. In this thesis, we will explore fast matrix and tensor decompositions as computational tools to process and analyze multidimensional massive-data. We first aim to study fast subspace estimation, a specific technique used in matrix decomposition. Traditional subspace estimation yields high performance but suffers from processing large-scale data. We thus propose distributed/parallel subspace estimation following a divide-and-conquer approach in both batch and adaptive settings. Based on this technique, we further consider its important variants such as principal component analysis, minor and principal subspace tracking and principal eigenvector tracking. We demonstrate the potential of our proposed algorithms by solving the challenging radio frequency interference (RFI) mitigation problem in radio astronomy. In the second part, we concentrate on fast tensor decomposition, a natural extension of the matrix one. We generalize the results for the matrix case to make PARAFAC tensor decomposition parallelizable in batch setting. Then we adapt all-at-once optimization approach to consider sparse non-negative PARAFAC and Tucker decomposition with unknown tensor rank. Finally, we propose two PARAFAC decomposition algorithms for a classof third-order tensors that have one dimension growing linearly with time. The proposed algorithms have linear complexity, good convergence rate and good estimation accuracy. The results in a standard setting show that the performance of our proposed algorithms is comparable or even superior to the state-of-the-art algorithms. We also introduce an adaptive nonnegative PARAFAC problem and refine the solution of adaptive PARAFAC to tackle it. The main contributions of this thesis, as new tools to allow fast handling large-scale multidimensional data, thus bring a step forward real-time applications.
34

Approche formelle pour la simulation interactive de modèles mixtes / A formal approach for the interactive simulation of mixed models

Faure, Xavier 29 September 2014 (has links)
La simulation interactive du corps humain est un problème crucial en informatique médicale. Les approches sont multiples pour arriver à cet objectif. Diminuer le temps de calcul est le leitmotiv d'un grand nombre de travaux ces dernières années. Pour les recherches qui utilisent des modèles physiques inspirés de la Mécanique des Milieux Continus pour la simulation des objets déformables, ce sont principalement les forces internes et leurs dérivées qui font l'objet d'études pour l'amélioration des performances au niveau du temps de calcul. Nous avons choisi de développer la Méthode des Masses-Tenseurs, modèle physique souvent utilisé pour son bon compromis temps de calcul — précision. Notre première contribution est l'utilisation du calcul formel pour la génération des équations des forces internes et de leurs dérivées. Notre deuxième contribution est la parallélisation de ce modèle physique en calculant les équations générées sur le GPU. Notre troisième contribution est l'extension de ce modèle physique à d'autres types d'éléments : triangle, quadrangle, hexaèdre, prisme et pyramide. Tenir compte des déformations pour utiliser la loi de comportement la plus efficace en temps de calcul lorsque c'est possible, est une stratégie que nous avons mis en place. Dans la même idée, nous prenons en compte la géométrie du modèle à simuler pour utiliser des éléments plus complexes mais en nombre réduit. Pour utiliser ces stratégies, nous avons développé et utilisé des modèles mixtes en loi de comportement et en type d'éléments. Nos travaux se placent dans le contexte du projet ETOILE pour le développement d'un modèle biomécanique du système respiratoire / Interactive simulation of the human body is a crucial issue in medical computer sciences. There are many approaches to reach this goal. Reducing the computation time is the leitmotiv of a large number of efforts in recent years. For researches which use physical models derived from continuum mechanics for the simulation of deformable objects, it is primarily the internal forces and their derivatives which are the subject of study for improving computation time. We chose to develop the Tensor Mass Method, a physical model often used for its good computation time vs accuracy trade-off. Our first contribution is the use of computer algebra to generate the internal forces and their derivatives. Our second contribution is the parallelization of this physical model by computing the generated equations on the GPU. Our third contribution is an extension of this physical model to other elements : triangle, quandrangle , hexahedron, prism and pyramid. Considering deformations to use the most effective constitutive law in terms of computation time whenever possible is a good strategy that we started developing. In the same idea, we take the geometry of the simulated model into account to introduce more complex elements, albeit in reduced numbers. To use these strategies, we have developed mixed models in constitutive laws and elements. Our research was performed in the framework of the ETOILE project, to develop a biomechanical model of the respiratory system
35

Modèles de régression multivariés pour la comparaison de populations en IRM de diffusion / Multivariate regression models for group comparison in diffusion tensor MRI

Bouchon, Alix 28 September 2016 (has links)
L'IRM de diffusion (IRMd) est une modalité d'imagerie qui permet d'étudier in vivo la structure des faisceaux de la substance blanche grâce à la caractérisation des propriétés de diffusion des molécules d'eau dans le cerveau. Les travaux de cette thèse se sont concentrés sur la comparaison de groupes d'individus en IRMd. Le but est d'identifier les zones de la substance blanche dont les propriétés structurelles sont statistiquement différentes entre les deux populations ou significativement corrélées avec certaines variables explicatives. L’enjeu est de pouvoir localiser et caractériser les lésions causées par une pathologie et de comprendre les mécanismes sous-jacents. Pour ce faire, nous avons proposé dans cette thèse des méthodes d'analyse basées voxel reposant sur le Modèle Linéaire Général (MLG) et ses extensions multivariées et sur des variétés, qui permettent d'effectuer des tests statistiques intégrant explicitement des variables explicatives. En IRMd, la diffusion des molécules d'eau peut être modélisée par un tenseur d'ordre deux représenté par une matrice symétrique définie-positive de dimension trois. La principale contribution de cette thèse a été de montrer la plus-value de considérer, dans le MLG, l'information complète du tenseur par rapport à un unique descripteur scalaire caractérisant la diffusion (fraction d’anisotropie ou diffusion moyenne), comme cela est généralement fait dans les études en neuro-imagerie. Plusieurs stratégies d’extension du MLG aux tenseurs ont été comparées, que ce soit en termes d’hypothèse statistique (homoscédasticité vs hétéroscédasticité), de métrique utilisée pour l’estimation des paramètres (Euclidienne, Log-Euclidienne et Riemannienne), ou de prise en compte de l’information du voisinage spatial. Nous avons également étudié l'influence de certains prétraitements comme le filtrage et le recalage. Enfin, nous avons proposé une méthode de caractérisation des zones détectées afin d’en faciliter l’interprétation physiopathologique. Les validations ont été menées sur données synthétiques ainsi que sur une base d’images issues d’une cohorte de patients atteints de Neuromyélite optique de Devic. / Diffusion Tensor MRI (DT-MRI) is an imaging modality that allows to study in vivo the structure of white matter fibers through the characterization of diffusion properties of water molecules in the brain. This work focused on group comparison in DT-MRI. The aim is to identify white matter regions whose structural properties are statistically different between two populations or significantly correlated with some explanatory variables. The challenge is to locate and characterize lesions caused by a disease and to understand the underlying mechanisms. To this end, we proposed several voxel-based strategies that rely on the General Linear Model (GLM) and its multivariate and manifold-based extensions, to perform statistical tests that explicitly incorporate explanatory variables. In DT-MRI, diffusion of water molecules can be modeled by a second order tensor represented by a three dimensional symmetric and positive definite matrix. The main contribution of this thesis was to demonstrate the added value of considering the full tensor information as compared to a single scalar index characterizing some diffusion properties (fractional anisotropy or mean diffusion) in the GLM, as it is usually done in neuroimaging studies. Several strategies for extending the GLM to tensor were compared, either in terms of statistical hypothesis (homoscedasticity vs heteroscedasticity), or metrics used for parameter estimation (Euclidean, Log-Euclidean and Riemannian), or the way to take into account the spatial neighborhood information. We also studied the influence of some pre-processing such as filtering and registration. Finally, we proposed a method for characterizing the detected regions in order to facilitate their physiopathological interpretation. Validations have been conducted on synthetic data as well as on a cohort of patients suffering from Neuromyelitis Optica.
36

Colored discrete spaces : Higher dimensional combinatorial maps and quantum gravity / Espaces discrets colorés : Cartes combinatoires en dimensions supérieures et gravité quantique

Lionni, Luca 08 September 2017 (has links)
On considère, en deux dimensions, une version euclidienne discrète de l’action d’Einstein-Hilbert, qui décrit la gravité en l’absence de matière. À l’intégration sur les géométries se substitue une sommation sur des surfaces triangulées aléatoires. Dans la limite physique de faible gravité, seules les triangulations planaires survivent. Leur limite en distribution, la carte brownienne, est une surface fractale continue dont l’importance dans le contexte de la gravité quantique en deux dimensions a été récemment précisée. Cet espace est interprété comme un espace-temps quantique, obtenu comme limite à grande échelle d’un ensemble statistique de surfaces discrètes aléatoires. En deux dimensions, on peut donc étudier les propriétés fractales de la gravité quantique via une approche discrète. Il est bien connu que les généralisations directes en dimensions supérieures échouent à produire des espace-temps quantiques aux propriétés adéquates : en dimension D>2, la limite en distribution des triangulations qui survivent dans la limite de faible gravité est l’arbre continu aléatoire, ou polymères branchés en physique. Si en deux dimensions on parvient aux mêmes conclusions en considérant non pas des triangulations, mais des surfaces discrètes aléatoires obtenues par recollements de 2p-gones, nous savons depuis peu que ce n’est pas toujours le cas en dimension D>2. L’apparition de nouvelles limites continues dans le cadre de théories de gravité impliquant des espaces discrets aléatoires reste une question ouverte. Nous étudions des espaces obtenus par recollements de blocs élémentaires, comme des polytopes à facettes triangulaires. Dans la limite de faible gravité, seuls les espaces qui maximisent la courbure moyenne survivent. Les identifier est cependant une tâche ardue dans le cas général, pour lequel les résultats sont obtenus numériquement. Afin d’obtenir des résultats analytiques, une coloration des (D-1)-cellules, les facettes, a été introduite. En toute dimension paire, on peut trouver des familles d’espaces discrets colorés de courbure moyenne maximale dans la classe d’universalité des arbres – convergeant vers l’arbre continu aléatoire, des cartes planaires – convergeant vers la carte brownienne, ou encore dans la classe de prolifération des bébé-univers. Cependant, ces résultats sont obtenus en raison de la simplicité de blocs élémentaires dont la structure uni ou bidimensionnelle ne rend pas compte de la riche diversité des blocs colorés en dimensions supérieures. Le premier objectif de cette thèse est donc d’établir des outils combinatoires qui permettraient une étude systématique des blocs élémentaires colorés et des espaces discrets qu’ils génèrent. Le principal résultat de ce travail est l’établissement d’une bijection entre ces espaces et des familles de cartes combinatoires, qui préserve l’information sur la courbure locale. Elle permet l’utilisation de résultats sur les surfaces discrètes et ouvre la voie à une étude systématique des espaces discrets en dimensions supérieures à deux. Cette bijection est appliquée à la caractérisation d’un certain nombre de blocs de petites tailles ainsi qu’à une nouvelle famille infinie. Le lien avec les modèles de tenseurs aléatoires est détaillé. Une attention particulière est donnée à la détermination du nombre maximal de (D-2)-cellules et de l’action appropriée du modèle de tenseurs correspondant. Nous montrons comment utiliser la bijection susmentionnée pour identifier les contributions à un tout ordre du développement en 1/N des fonctions à 2n points du modèle SYK coloré, et appliquons ceci à l’énumération des cartes unicellulaires généralisées – les espaces discrets obtenus par recollement d’un unique bloc élémentaire – selon leur courbure moyenne. Pour tout choix de blocs colorés, nous montrons comment réécrire la théorie d’Einstein-Hilbert discrète correspondante comme un modèle de matrices aléatoires avec traces partielles, dit représentation en champs intermédiaires. / In two dimensions, the Euclidean Einstein-Hilbert action, which describes gravity in the absence of matter, can be discretized over random triangulations. In the physical limit of small Newton's constant, only planar triangulations survive. The limit in distribution of planar triangulations - the Brownian map - is a continuum fractal space which importance in the context of two-dimensional quantum gravity has been made more precise over the last years. It is interpreted as a quantum continuum space-time, obtained in the thermodynamical limit from a statistical ensemble of random discrete surfaces. The fractal properties of two-dimensional quantum gravity can therefore be studied from a discrete approach. It is well known that direct higher dimensional generalizations fail to produce appropriate quantum space-times in the continuum limit: the limit in distribution of dimension D>2 triangulations which survive in the limit of small Newton's constant is the continuous random tree, also called branched polymers in physics. However, while in two dimensions, discretizing the Einstein-Hilbert action over random 2p-angulations - discrete surfaces obtained by gluing 2p-gons together - leads to the same conclusions as for triangulations, this is not always the case in higher dimensions, as was discovered recently. Whether new continuum limit arise by considering discrete Einstein-Hilbert theories of more general random discrete spaces in dimension D remains an open question.We study discrete spaces obtained by gluing together elementary building blocks, such as polytopes with triangular facets. Such spaces generalize 2p-angulations in higher dimensions. In the physical limit of small Newton's constant, only discrete spaces which maximize the mean curvature survive. However, identifying them is a task far too difficult in the general case, for which quantities are estimated throughout numerical computations. In order to obtain analytical results, a coloring of (D-1)-cells has been introduced. In any even dimension, we can find families of colored discrete spaces of maximal mean curvature in the universality classes of trees - converging towards the continuous random tree, of planar maps - converging towards the Brownian map, or of proliferating baby universes. However, it is the simple structure of the corresponding building blocks which makes it possible to obtain these results: it is similar to that of one or two dimensional objects and does not render the rich diversity of colored building blocks in dimensions three and higher.This work therefore aims at providing combinatorial tools which would enable a systematic study of the building blocks and of the colored discrete spaces they generate. The main result of this thesis is the derivation of a bijection between colored discrete spaces and colored combinatorial maps, which preserves the information on the local curvature. It makes it possible to use results from combinatorial maps and paves the way to a systematical study of higher dimensional colored discrete spaces. As an application, a number of blocks of small sizes are analyzed, as well as a new infinite family of building blocks. The relation to random tensor models is detailed. Emphasis is given to finding the lowest bound on the number of (D-2)-cells, which is equivalent to determining the correct scaling for the corresponding tensor model. We explain how the bijection can be used to identify the graphs contributing at any given order of the 1/N expansion of the 2n-point functions of the colored SYK model, and apply this to the enumeration of generalized unicellular maps - discrete spaces obtained from a single building block - according to their mean curvature. For any choice of colored building blocks, we show how to rewrite the corresponding discrete Einstein-Hilbert theory as a random matrix model with partial traces, the so-called intermediate field representation.
37

(Super)symétries des modèles semi-classiques en physique théorique et de la matière condensée.

Ngome Abiaga, Juste Jean-Paul 11 May 2011 (has links) (PDF)
L'algorithme covariant de van Holten, servant à construire des quantités conservées, est présenté avec une attention particulière portée sur les vecteurs de type Runge-Lenz. La dynamique classique des particules portant des charges isospins est passée en revue. Plusieures applications physiques sont considerées. Des champs de type monopôles non-Abéliens, générés par des mouvements nucléaires dans les molécules diatomiques, introduites par Moody, Shapere et Wilczek, sont étudiées. Dans le cas des espaces courbes, le formalisme de van Holten permet de décrire la symétrie dynamique des monopôles Kaluza-Klein généralisés. La procédure est étendue à la supersymétrie et appliquée aux monopôles supersymétriques. Une autre application, concernant l'oscillateur non-commutatif en dimension trois, est également traitée.
38

Identification électromagnétique de petites inclusions enfouies

Gdoura, Souhir 29 September 2008 (has links) (PDF)
L'objet de la thèse est la détection électromagnétique non-itérative de petits objets enfouis. Le problème direct de diffraction est abordé en utilisant une formule asymptotique rigoureuse du champ diffracté par des inclusions dont la taille caractéristique est petite devant la longueur d'onde de leur illumination dans le milieu d'enfouissement. La prise en compte de la diffraction multiple dans le cas de deux inclusions sphériques est abordée grâce à un tenseur de polarisation spécifique qui est calculé dans un système approprié de coordonnées bisphériques. Le modèle de Foldy-Lax est aussi utilisé afin de prendre en compte le couplage entre plusieurs inclusions. Les simulations numériques montrent que cet effet de couplage ne peut être ressenti qu'en leurs voisinages immédiats. Une configuration d'enfouissement en demi-espace est aussi étudiée en détail. Les dyades de Green alors nécessaires sont calculées de manière exacte par "force brutale" numérique. Puis trois méthodes approchées de calcul des intégrales de Sommerfeld qui sont impliquées sont proposées, les simulations montrant qu'elles font gagner un temps de calcul significatif dans le calcul de ces dyades, tout en étant de précision convenable. La prise en compte du couplage entre une sphère et l'interface est aussi investiguée grâce à un tenseur de polarisation adéquat en coordonnées bisphériques (de facto, une des deux sphères dégénère en cette interface). A chaque fois, les champs diffractés simulés par la méthode asymptotique sont comparés à des champs obtenus par la méthode dite des dipôles couplés (CDM). Les résultats montrent que la méthode asymptotique fournit des valeurs du champ diffracté satisfaisantes tant que les tailles des inclusions restent assez petites devant la longueur d'onde. L'algorithme d'imagerie MUSIC est quant à lui utilisé pour détecter ces inclusions à partir de leur matrice de réponse multistatique (MSR) collectée via un réseau plan d'extension limitée de dipôles émetteurs-récepteurs idéaux. L'analyse des valeurs et des vecteurs singuliers de la matrice MSR montre qu'il existe une différence entre les données calculées par la méthode asymptotique et celles calculées par la méthode CDM. Mais cette différence ne persiste pas si l'on considère des données bruitées, même à relativement faible niveau de bruit. Dans les deux cas, MUSIC permet une estimation fiable de la position des inclusions, la notion de "super-localisation" étant en particulier discutée. Une méthode est par ailleurs proposée afin de détecter l'angle d'inclinaison d'un ellipsoïde incliné enfoui.
39

Transport optimal de mesures positives : modèles, méthodes numériques, applications / Unbalanced Optimal Transport : Models, Numerical Methods, Applications

Chizat, Lénaïc 10 November 2017 (has links)
L'objet de cette thèse est d'étendre le cadre théorique et les méthodes numériques du transport optimal à des objets plus généraux que des mesures de probabilité. En premier lieu, nous définissons des modèles de transport optimal entre mesures positives suivant deux approches, interpolation et couplage de mesures, dont nous montrons l'équivalence. De ces modèles découle une généralisation des métriques de Wasserstein. Dans une seconde partie, nous développons des méthodes numériques pour résoudre les deux formulations et étudions en particulier une nouvelle famille d'algorithmes de "scaling", s'appliquant à une grande variété de problèmes. La troisième partie contient des illustrations ainsi que l'étude théorique et numérique, d'un flot de gradient de type Hele-Shaw dans l'espace des mesures. Pour les mesures à valeurs matricielles, nous proposons aussi un modèle de transport optimal qui permet un bon arbitrage entre fidélité géométrique et efficacité algorithmique. / This thesis generalizes optimal transport beyond the classical "balanced" setting of probability distributions. We define unbalanced optimal transport models between nonnegative measures, based either on the notion of interpolation or the notion of coupling of measures. We show relationships between these approaches. One of the outcomes of this framework is a generalization of the p-Wasserstein metrics. Secondly, we build numerical methods to solve interpolation and coupling-based models. We study, in particular, a new family of scaling algorithms that generalize Sinkhorn's algorithm. The third part deals with applications. It contains a theoretical and numerical study of a Hele-Shaw type gradient flow in the space of nonnegative measures. It also adresses the case of measures taking values in the cone of positive semi-definite matrices, for which we introduce a model that achieves a balance between geometrical accuracy and algorithmic efficiency.
40

Interpolation des données en imagerie cardiaque par résonance magnétique du tenseur de diffusion / Interpolation of data in cardiac DT-MRI

Yang, Feng 15 January 2011 (has links)
L'un des problèmes fondamentaux de l'imagerie cardiaque par résonance magnétique du tenseur de diffusion (IRM-TD) est sa faible résolution spatiale, à cause des limitations matérielles des scanners IRM actuels. L'objectif principal de ce travail de thèse est de développer de nouvelles approches pour améliorer la résolution des données d'IRM-TD afin de mieux représenter l'architecture myocardique du coeur humain et de la comparer avec des résultats issus d'autres techniques d'investigation telles que l'imagerie par lumière polarisée. Dans ce cadre, le travail porte sur trois parties principales. La première concerne le développement d'une nouvelle approche pour l'interpolation des champs de vecteurs propres principaux issus de l'IRM-TD cardiaque humaine. Cette approche consiste d'abord à supprimer les vecteurs corrompus par le bruit au lieu de débruiter de manière uniforme le champ entier de vecteurs, et ensuite à interpoler le champ de vecteurs en utilisant la modèle Thin-Plate-Spline (TPS) afin d'exploiter la corrélation entre les composantes du vecteur. La deuxième partie concerne une nouvelle famille de méthodes d'interpolation pour les champs de tenseurs, basée soit sur les angles d'Euler soit sur le quaternion. Ces méthodes exploitent les caractéristiques du tenseur et préservent les paramètres de tenseurs, tels que le déterminant du tenseur, l'anisotropie fractionnelle (FA) et la diffusivité moyenne (MD). En outre, cette partie compare les principales approches d'interpolation au niveau des images pondérées en diffusion et des champs de tenseurs, et les résultats montrent qu'il serait préférable d'effectuer l'interpolation des données d'IRM-TD au niveau des champs de tenseurs. La troisième partie étudie le changement des paramètres MD et FA après un infarctus du myocarde chez les cochons, et l'influence des méthodes d'interpolation sur ces paramètres dans la zone infarctus et la zone distante. Les résultats montrent que la zone infarctus présente une diminution significative de FA et une augmentation significative de MD, comparée avec la zone distante, et que les méthodes d'interpolations du tenseur ont plus d'influence sur FA que sur MD, ce qui suggère que l'interprétation de ces paramètres cliniques après l'interpolation doive être prise avec précaution. / One of fundamental problems in human cardiac diffusion tensor magnetic resonance imaging (DT-MRI) is its poor spatial resolution, due to the hardware limitations of MRI scanners. The main purpose of this PhD work is to develop new approaches to improving the resolution of cardiac DT-MRI data in order to better understand the myocardial architecture of the heart and compare it with results issues from other investigation techniques such as polarized light imaging. Within this framework, the present work is composed of three main parts. The first part concerns a new approach to interpolating primary eigenvector fields from human cardiac DT-MRI using Thin Plate Spline (TPS) model. This approach removes the noise-corrupted vectors rather than denoising the whole vector field in a uniform manner, and uses TPS model in order to exploit the correlation between vector components during interpolation. The second part is dealt with a new category of feature-based methods for diffusion tensor field interpolation using either Euler angles or quaternion. These feature-based methods well preserve tensor parameters, such as tensor determinant, fractional anisotropy (FA) and mean diffusivity (MD) values. In this part are also compared the main interpolation approaches at the level of diffusion weighted images and tensor fields. The results show that the interpolation of DT-MRI data should be performed at the level of tensor fields. The last part investigates changes in MD and FA after myocardial infarction in porcine hearts, and the influence of diffusion tensor interpolation methods on FA and MD in both infarction and remote region. It is found that the infarction region showed significantly decreased FA and increased MD than the remote region, and that diffusion tensor interpolations have more significant influence on FA than on MD, which suggests that precaution should be taken when performing the clinical analysis based on the parameters after diffusion tensor interpolations.

Page generated in 0.0429 seconds