Spelling suggestions: "subject:"homographie"" "subject:"d'homographie""
551 |
Étude multi-échelles des courbes de désaturation capillaire par tomographie RXOughanem, Rezki 20 December 2013 (has links) (PDF)
L'injection de tensioactifs est une méthode très appliquée dans le domaine de la récupération améliorée des hydrocarbures. Cependant, son efficacité repose sur la capacité de ces agents chimiques à mobiliser l'huile résiduelle en diminuant la tension interfaciale entre l'huile et l'eau. Des modèles à l'échelle du réservoir calculent l'efficacité de la récupération d'huile résiduelle par injection de solutions contenant des tensioactifs. Les mécanismes physiques pris en compte dans les modélisations font intervenir la physico-chimie du système roche-fluide et une courbe globale donnant la saturation résiduelle en huile en fonction du nombre capillaire (courbe de désaturation capillaire). Cette donnée est majeure dans le calcul de l'efficacité de récupération d'huile par injection de solutions de tensioactifs. En effet la mobilisation de l'huile résiduelle laissée en place après injection d'eau n'est possible qu'en augmentant considérablement le nombre capillaire. La prédiction de l'efficacité d'un procédé chimique de récupération passe par la compréhension, à l'échelle du pore, du processus de mobilisation des ganglions d'huile suivant la structure poreuse et le nombre capillaire. L'objet de cette thèse est de caractériser la récupération d'huile tertiaire en fonction du nombre capillaire dans diverses roches mouillables à l'eau. Ces courbes permettront de quantifier l'effet de la microstructure, les hétérogénéités du milieu poreux et diverses propriétés pétrophysiques sur la récupération d'huile. Cette thèse permettra aussi de caractériser les différents mécanismes d'action de tensioactifs sur la mobilisation d'huile résiduelle dans le milieu poreux. L'expérimentation par tomographie RX est utilisée. La tomographie RX permettra de caractériser les courbes de désaturation capillaire à l'échelle de Darcy et visualiser localement le déplacement d'huile résiduelle à travers les milieux poreux. Des essais d'écoulement diphasique sous micro-CT permettront d'observer in-situ et d'étudier les interfaces eau/huile et leurs évolutions en 3D au sein du milieu poreux en fonction du nombre capillaire.
|
552 |
Tomographie cardiaque en angiographie rotationnelleMory, Cyril 26 February 2014 (has links) (PDF)
Un C-arm est un appareil d'imagerie médicale par rayons X utilisé en radiologie interventionnelle. La plupart des C-arms modernes sont capables de tourner autour du patient tout en acquérant des images radiographiques, à partir desquelles une reconstruction 3D peut être effectuée. Cette technique est appelée angiographie rotationnelle et est déjà utilisée dans certains centres hospitaliers pour l'imagerie des organes statiques. Cependant son extension à l'imagerie du cœur ou du thorax en respiration libre demeure un défi pour la recherche. Cette thèse a pour objet l'angiographie rotationnelle pour l'analyse du myocarde chez l'homme. Plusieurs méthodes nouvelles y sont proposées et comparées à l'état de l'art, sur des données synthétiques et des données réelles. La première de ces méthodes, la déconvolution par FDK itérative synchronisée à l'ECG, consiste à effacer les artéfacts de stries dans une reconstruction FDK synchronisée à l'ECG par déconvolution. Elle permet d'obtenir de meilleurs résultats que les méthodes existantes basées sur la déconvolution, mais reste insuffisante pour l'angiographie rotationnelle cardiaque chez l'homme. Deux méthodes de reconstruction 3D basées sur l'échantillonnage compressé sont proposées : la reconstruction 3D régularisée par variation totale, et la reconstruction 3D régularisée par ondelettes. Elles sont comparées à la méthode qui constitue l'état de l'art actuel, appelé " Prior Image Constrained Compressed Sensing " (PICCS). Elles permettent d'obtenir des résultats similaires à ceux de PICCS. Enfin, deux méthodes de reconstruction 3D+temps sont présentées. Leurs formulations mathématiques sont légèrement différentes l'une de l'autre, mais elles s'appuient sur les mêmes principes : utiliser un masque pour restreindre le mouvement à la région contenant le cœur et l'aorte, et imposer une solution régulière dans l'espace et dans le temps. L'une de ces méthodes génère des résultats meilleurs, c'est-à-dire à la fois plus nets et plus cohérents dans le temps, que ceux de PICCS
|
553 |
Estimation de la fonction d'entrée en tomographie par émission de positons dynamique : application au fluorodesoxyglucoseJouvie, Camille 06 December 2013 (has links) (PDF)
La tomographie par émission de positons (TEP) est une méthode d'imagerie fonctionnelle, utilisée en particulier lors du développement de nouveaux médicaments et pour imager les tumeurs. En TEP, l'estimation de la concentration plasmatique artérielle d'activité du traceur non métabolisé (nommée " fonction d'entrée ") est nécessaire pour l'extraction des paramètres pharmacocinétiques. Ceux-ci permettent de quantifier le comportement du traceur dans les tissus, ou plus précisément le traitement du traceur par les tissus. Cette thèse constitue une contribution à l'étude de la fonction d'entrée, par l'élaboration d'une méthode d'estimation de la fonction d'entrée peu invasive à partir des images TEP et de prélèvements veineux. L'exemple du traceur FDG (analogue du glucose) dans le cerveau humain a été choisi. La méthode proposée repose sur la modélisation compartimentale de l'organisme : elle déconvolue le modèle à trois compartiments utilisé pour le FDG. L'originalité de la méthode repose sur trois points : l'utilisation d'un grand nombre de régions d'intérêt ; l'utilisation d'un grand nombre de jeux de trois régions d'intérêt différentes; une estimation itérative. Pour la validation de la méthode, un soin particulier a été porté à la simulation d'images TEP (simulation d'acquisition, reconstruction, corrections) de plus en plus réalistes, depuis une image simple simulée avec un simulateur analytique jusqu'à une image la plus proche possible de la réalité, simulée avec simulateur Monte-Carlo. Une chaîne de pré-traitement (segmentation des IRM associés, recalage entre images TEP et IRM et correction de l'effet de volume partiel par une variante de la méthode de Rousset) a ensuite été appliquée à ces images afin d'extraire les cinétiques des régions d'intérêt, données d'entrée de la méthode d'estimation de la fonction d'entrée. L'évaluation de la méthode sur différentes données, simulées et réelles, est présentée, ainsi que l'étude de la sensibilité de la méthode à différents facteurs tels que les erreurs de segmentation, de recalage, de mesure de l'activité des prélèvements sanguins.
|
554 |
Investigating Brain Structure Using Voxel-Based Methods with Magnetic Resonance ImagingStreitbürger, Daniel-Paolo 28 January 2014 (has links) (PDF)
The number of people suffering from neurodegenerative diseases, such as Alzheimer`s disease, increased dramatically over the past centuries and is expected to increase even further within the next years. Based on predictions of the World Health Organization and Alzheimer`s Disease International, 115 million people will suffer from dementia by the year 2050. An additionally increase in other age related neurodegenerative diseases is also forecasted. Quite naturally, neurodegenerative diseases became a focus of attention of governments and health insurances, trying to control the uprising financial burden. Early detection and treatment of neurodegenerative diseases could be an important component in containing this problem. In particular, researchers focused on automatic methods to analyze patients’ imaging data. One way to detect structural changes in magnetic resonance images (MRI) is the voxel-based method approach. It was specifically implemented for various imaging modalities, e.g. T1-weighted images or diffusion tensor imaging (DTI). Voxel-based morphometry (VBM), a method specifically designed to analyze T1-weighted images, has become very popular over the last decade. Investigations using VBM revealed numerous structural brain changes related to, e.g. neurodegeneration, learning induced structural changes or aging. Although voxel-based methods are designed to be robust and reliable structural change detection methods, it is known that they can be influenced by physical and physiological factors. Dehydration, for example, can affect the volume of brain structures and possibly induce a confound in morphometric studies. Therefore, three-dimensional T1-weighted images were acquired of six young and healthy subjects during different states of hydration. Measurements during normal hydration, hyperhydration, and dehydration made it possible to assess consequential volume changes in gray matter (GM), white matter (WM), and cerebrospinal fluid (CSF). The datasets were analyzed using VBM, FreeSurfer and SIENA. A significant decrease of GM and WM volume, associated with dehydration, was found in various brain regions. The most prominent effects were found in temporal and parietal areas, in the left inferior orbito-frontal region, and in the extra-nuclear region. Moreover, we found consistent increases in CSF, an expansion around 6% of the ventricular system affecting both lateral ventricles, i.e. the third and fourth ventricle. Similar degrees of shrinkage in WM volume and increase of the ventricular system have been reported in studies of Alzheimer’s disease during disease progression and in its prestage mild cognitive impairment. Based on these findings, a potential confound in GM and WM or CSF studies due to the subjects’ hydration state cannot be excluded and should be appropriately addressed. These results underline the sensitivity of VBM and might also concern other voxel-based methods, such as Tract-Based Spatial Statistics (TBSS). TBSS was specifically designed for WM analyses and its sensitivity might be helpful for revealing the spatial relation of structural WM changes and related blood serum biomarkers. Two common brain related biomarkers are the glial protein S100B, a plasticity inducing neuro- and gliotrophin, and neuron-specific enolase (NSE), a marker for neuronal damage. However, the spatial specificity of these biomarkers for brain region has not been investigated in vivo until now. Therefore, we acquired two MRI parameters – T1- weighted and DTI - sensitive to changes in GM and WM, and obtained serum S100B and NSE levels of 41 healthy subjects. Additionally, the gene expression of S100B on the whole brain level in a male cohort of three subjects from the Allen Brain Database was analyzed. Furthermore, a female post mortal brain was investigated using double immunofluorescence labeling with oligodendrocyte markers. It could be shown that S100B is specifically related to white matter structures, namely the corpus callosum, anterior forceps and superior longitudinal fasciculus in female subjects. This effect was observed in fractional anisotropy and radial diffusivity – the latest an indicator of myelin changes. Histological data confirmed a co-localization of S100B with oligodendrocyte markers in the human corpus callosum. S100B was most abundantly expressed in the corpus callosum according to the whole genome Allen Human Brain Atlas. In addition, NSE was related to gray matter structures, namely the amygdala. This effect was detected across sexes. The data demonstrates a very high S100B expression in white matter tracts, in particular in human corpus callosum. This was the first in vivo study validating the specificity of the glial marker S100B for the human brain, and supporting the assumption that radial diffusivity represents a myelin marker. The results open a new perspective for future studies investigating major neuropsychiatric disorders. All above mentioned studies are mainly dependent on the sensitivity and accuracy of soft and hardware parameters. In particular, technical developments have improved acquisition accuracy in the field of MRI. Interestingly, very little is known about the confounding effects of variations due to hardware parameters and their possible impact on reliability and sensitivity of VBM. Recent studies have shown that different acquisition parameters may influence VBM results. Therefore age-related GM changes were investigated with VBM in 36 healthy volunteers grouped into 12 young, 12 middle-aged and 12 elderly subject. Six T1-weighted datasets were acquired per subject with a 12-channel matrix coil, as well as a 32-channel array, MP-RAGE and MP2RAGE, and with isotropic resolutions of 0.8 and 1 mm. DARTEL-VBM was applied on all images and GM, WM and CSF segments were statistically analyzed.. Paired t-tests and statistical interaction tests revealed significant effects of acquisition parameters on the estimated gray-matter-density (GMD) in various cortical and subcortical brain regions. MP2RAGE seemed slightly less prone to false positive results when comparing data acquired with different RF coils and yielded superior segmentation of deep GM structures. With the 12-channel coil, MP-RAGE was superior in detecting age-related changes, especially in cortical structures. Most differences between both sequences became insignificant with the 32-channel coil, indicating that the MP2RAGE images benefited more from the improved signal-to-noise ratio and improved parallel-imaging reconstruction). A possible explanation might be an overestimation of the GM compartment on the MP-RAGE images. In view of substantial effects obtained for all parameters, careful standardization of the acquisition protocol is advocated. While the current investigation focused on aging effects, similar results are expected for other VBM studies, like on plasticity or neurodegenerative diseases. This work has shown that voxel-based methods are sensitive to subtle structural brain changes, independent of imaging modality and scanning parameters. In particular, the studies investigated and discussed the analysis of T1- and diffusion weighted images with VBM and TBSS in the context of dehydration, blood serum sensitive biomarkers and aging were discussed. The major goal of these studies was the investigation of the sensitivity of voxel-based methods. In conclusion, sensitivity and accuracy of voxelbased methods is already high, but it can be increased significantly, using optimal hardand software parameters. It is of note, though, that these optimizations and the concomitant increase of detection sensitivity could also introduce additional confounding factors in the imaging data and interfere with the latter preprocessing and statistical computations. To avoid an interference e.g. originating from physiological parameters, a very careful selection and monitoring of biological parameters of each volunteer throughout the whole study is recommended. A potential impact of scanning parameters can be minimized by strict adherence to the imaging protocol for each study subjectwithin a study. A general increase in detection sensitivity due to optimized parameters selection in hard- and/or can not be concluded by the above mentioned studies. Although the present work addressed some of those issues, the topic of optimal selection of parameters for morphometric studies is still very complex and controversial and has to be individually decided. Further investigations are needed to define more general scanning and preprocessing standards to increase detection sensitivity without the concomitant amplification of confounding factors.
|
555 |
Entwicklung einer biologisch adaptierten intensitätsmodulierten Strahlentherapieplanung auf der Basis molekularbiologischer BildgebungsverfahrenRickhey, Mark January 2008 (has links)
Zugl.: Regensburg, Univ., Diss., 2008
|
556 |
Neuronale Grundlagen der Sprachrepräsentation und Mechanismen der kognitiven Kontrolle bei ZweisprachigenLukin, Kremena January 2008 (has links)
Zugl.: Bochum, Univ., Diss., 2008
|
557 |
Temporomandibular joint X-ray computed tomography methodology and clinical applications /Christiansen, Edwin L. January 1988 (has links)
Thesis (doctoral)--Karolinska Institutet, Stockholm, 1988. / Extra t.p. with thesis statement inserted. Includes bibliographical references.
|
558 |
Approche parcimonieuse et calcul haute performance pour la tomographie itérative régularisée. / Computationally Efficient Sparse Prior in Regularized Iterative Tomographic ReconstructionNotargiacomo, Thibault 14 February 2017 (has links)
La tomographie est une technique permettant de reconstruire une carte des propriétés physiques de l'intérieur d'un objet, à partir d'un ensemble de mesures extérieures. Bien que la tomographie soit une technologie mature, la plupart des algorithmes utilisés dans les produits commerciaux sont basés sur des méthodes analytiques telles que la rétroprojection filtrée. L'idée principale de cette thèse est d'exploiter les dernières avancées dans le domaine de l'informatique et des mathématiques appliqués en vue d'étudier, concevoir et implémenter de nouveaux algorithmes dédiés à la reconstruction 3D en géométrie conique. Nos travaux ciblent des scenarii d'intérêt clinique tels que les acquisitions faible dose ou faible nombre de vues provenant de détecteurs plats. Nous avons étudié différents modèles d'opérateurs tomographiques, leurs implémentations sur serveur multi-GPU, et avons proposé l'utilisation d'une transformée en ondelettes complexes 3D pour régulariser le problème inverse. / X-Ray computed tomography (CT) is a technique that aims at providing a measure of a given property of the interior of a physical object, given a set of exterior projection measurement. Although CT is a mature technology, most of the algorithm used for image reconstruction in commercial applications are based on analytical methods such as the filtered back-projection. The main idea of this thesis is to exploit the latest advances in the field of applied mathematics and computer sciences in order to study, design and implement algorithms dedicated to 3D cone beam reconstruction from X-Ray flat panel detectors targeting clinically relevant usecases, including low doses and few view acquisitions.In this work, we studied various strategies to model the tomographic operators, and how they can be implemented on a multi-GPU platform. Then we proposed to use the 3D complex wavelet transform in order to regularize the reconstruction problem.
|
559 |
Investigation of pore closure during polar firn densification / Etude de la fermeture des pores lors de la densification du névé polaireBurr, Alexis 29 November 2017 (has links)
.La densification du névé en glace est un processus essentiel à comprendre pour interpréter les enregistrements climatiques. Une bonne connaissance des mécanismes permet une datation précise de l'air capturé dans la glace lors de la fermeture des pores. Celle-ci est plus vieille que l'air capturé à cause du transport des gaz dans la colonne de névé plus rapide que la densification de celui-ci. Cette différence d'âge entre la glace et le gaz est généralement appelé le Δage. La densification de la neige consiste en un processus complexe de réarrangement de grains, de frittage et de déformation viscoplastique. Bien que le comportement viscoplastique du cristal de glace soit fortement anisotrope, les modèles de densification actuels ne tiennent pas compte de cette anisotropie. De plus, le caractère granulaire du névé affecte aussi sa densification. La relation entre la fermeture des pores et les mécanismes microstructuraux sous-jacents est encore méconnue. Le but de cette thèse est d'incorporer l'aspect granulaire ainsi que l'anisotropie du cristal de glace dans une approche de modélisation innovante de la densification. Des expériences sur l'indentation viscoplastique de cylindres monocristallins de glace ont été réalisées pour proposer une loi de contact basée sur la théorie de l'indentation, et prenant en compte la déformation préférentielle du cristal de glace sur les plans basaux. Cette loi de contact a été implémentée dans un code utilisant la méthode des éléments discrets pour prédire la densification du névé.La micro-tomographie aux rayons X a été utilisée pour caractériser ex situ le névé polaire en trois dimensions à différentes étapes de la densification (ρ= 0.55-0.88 g/cm3), i.e. pour différentes profondeurs (~23 à 130m). Une étude fine de la fermeture des pores et de différentes caractéristiques morphologiques et physiques a été réalisée pour les sites polaires Dome C et Lock In. Des essais mécaniques ont aussi été réalisés in situ sur du névé extrait de Dome C dans le but de modéliser la densification du névé. Les observations microstructurales des expériences ex situ et in situ révèlent d'importantes différences dues aux vitesses relativement importantes utilisées lors des essais mécaniques. Ces vitesses rapides permettent de découpler la contribution des cinétiques de diffusion de la contribution viscoplastique de la déformation. Les effets de ces contributions sur la morphologie des pores et leurs fermetures sont discutés. Pour caractériser la fermeture des pores, cette thèse propose un indice de connectivité définit par le ratio entre le volume du plus gros pore sur la porosité totale. En effet, cet indice est plus approprié lors de l'utilisation de la tomographie aux rayons X que le ratio de pores fermés pour prédire la densité au close-off. / Densification from firn to ice is an essential phenomenon to understand for the interpretation of the climate record. A good knowledge of this mechanism enables the precise dating of the air embedded in the ice. The step at which the air becomes entrapped is the pore closure (or close-off). Because of gas flow in the firn column, the ice is older than the entrapped air. The difference between ice and gas is generally defined as Δage.Snow densification consists of grain rearrangements, sintering and viscoplastic deformation. Although the viscoplastic behaviour of the ice crystal is strongly anisotropic, densification models do not take into account this anisotropy. Firn also bears some granular characteristics that may affect its densification. The interactions between pore closure and microstructural mechanisms in the firn are still misunderstood.The aim of this PhD thesis is to incorporate both the granular aspect of firn and its anisotropy into an innovating approach of firn densification modelling. The mutual indentation of viscoplastic monocrystalline ice cylinders was experimentally carried out to propose a contact law that is based on indentation theory and that takes into account the preferential viscoplastic deformation on the basal plane. We have integrated this contact law into a DEM (Discrete Element Method) code for the prediction of firn densification.3D X-ray micro-tomography was performed on polar firn at different stages of the densification (ρ= 0.55-0.88 g/cm3) and depths (~23 to 130m). A thorough investigation of pore closure and of different morphological and physical parameters was achieved for the Dome C and the newly drilled Lock In polar sites. In addition to these ex situ analyses, in situ X-ray micro-mechanical experiments were carried out on firn extracted from Dome C in order to model its densification. Ex situ and in situ microstructural observations indicate significant differences that can be explained by the relatively large strain-rates imposed to the firn during in situ tests. These large strain rates allow for a decoupling of the effects of diffusion kinetics and of viscoplastic deformation. Their relative weights on the morphology of pores and on their closure are discussed. To measure pore closure, we propose a connectivity index, which is the ratio of the largest pore volume over the total pore volume. We show that this index is better suited for X-ray tomography analysis than the classic closed porosity ratio to predict the close-off density
|
560 |
Tomographie optique de fluorescence dans les milieux diffusants : apport de l'information temporelle / Fluorescence diffuse optical tomography : benefits of using the time-resolved modalityDucros, Nicolas 06 October 2009 (has links)
La tomographie optique diffuse de fluorescence permet la reconstruction tridimensionnelle de fluorophores présents dans un tissu biologique. La modalité la plus simple de cette technique repose sur une illumination continue du milieu et s'intéresse aux mesures d'atténuation du faisceau incident en différentes positions. En raison de la forte diffusion des tissus, la modalité continue souffre d'une faible résolution en profondeur.On considère aujourd'hui que la modalité résolue en temps, qui fournit pour chaque photon détecté son temps de vol, permettrait l'étude de tissus plus épais, ouvrant ainsi la porte à des applications cliniques. L'objet de cette thèse est de chercher comment tirer profit de l'information temporelle et de quantifier son apport par rapport à la modalité continue.La tomographie optique diffuse de fluorescence est un problème inverse mal conditionné. Dans un contexte où tout écart au modèle doit être limité, nous nous intéressons tout d'abord au modèle direct et montrons que la densité de photons est un modèle satisfaisant de la quantité expérimentalement mesurée. Nous passons ensuite au crible la méthode de reconstruction fondée sur l'exploitation des moments temporels des mesures. Étudiant théoriquement les propriétés des moments, nous montrons que cette approche nécessite, pour s'avérer intéressante, la détection d'un nombre élevé de photons. Nous introduisons enfin une nouvelle approche permettant d'exploiter l'information temporelle pour un nombre de photons plus limité. Cette approche, reposant sur une transformation en ondelettes des mesures, offre une qualité de reconstruction accrue par rapport à celle offerte par l'approche des moments. / Fluorescence diffuse optical tomography enables the three-dimensional reconstruction of fluorescence markers injected within a biological tissue, with light in the near infrared range. The simple continuous modality uses steady excitation light and operates from the measurements at different positions of the attenuation of the incident beam. This technique is low-cost, non-ionizing, and easy to handle, but subject to low resolution for thick tissues due to diffusion. Hopefully, the time-resolved modality, which provides the time of flight of any detected photon, could overcome this limitation and pave the way to clinical applications. This thesis aims at determining the best way to exploit the time resolved information and at quantifying the advantages of this modality over the standard continuous wave one.Model deviations must be carefully limited when ill-posed problems as fluorescence diffuse optical tomography are considered. As a result, we have first addressed the modelling part of the problem. We have shown that the photons density models to good approximation the measurable quantity that is the quantity measured by an actual acquisition set-up. Then, the moment-based reconstruction scheme has been thoroughly evaluated by means of a theoretical analysis of the moments’ properties. It was found that the moment-based approach requires high photon counts to be profitable compared to the continuous wave modality. Last, a novel wavelet-based approach, which enables an improved reconstruction quality, has been introduced. This approach has shown good ability to exploit the temporal information at lower photon counts.
|
Page generated in 0.0573 seconds