• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 12
  • 7
  • 1
  • Tagged with
  • 20
  • 20
  • 8
  • 8
  • 7
  • 6
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Correction de l'effet de volume partiel en tomographie d'émission par positrons chez le modelé animal

Guillette, Nicolas January 2011 (has links)
La quantification de la concentration de radiotraceur en imagerie par tomographie d'émission par positrons (TEP) est capitale, que ce soit au niveau clinique, mais majoritairement dans le domaine de la recherche, notamment pour l'analyse pharmacocinétique, appliquée chez l'humain et l'animal. Parmi les corrections importantes en imagerie TEP, l'effet de volume partiel (EVP) est l'un des plus complexes à corriger. Il dépend de divers phénomènes physiques liés aux performances de l'appareil, à la reconstruction de l'image ainsi qu'aux propriétés de l'objet mesuré.La correction pour l'EVP est cruciale afin de pallier la faible résolution spatiale de l'appareil TEP. Les conséquences principales de l'EVP sont une sous-estimation de la concentration d'un radiotraceur dans les objets de petite taille ainsi qu'une difficulté à cerner correctement les contours de l'objet observé. De nombreuses méthodes appliquées directement sur les images reconstruites sont proposées dans la littérature et sont utilisées dans certains cas, mais aucun consensus sur une méthode n'a encore été établi jusqu'à présent. Ce travail porte sur la compréhension de la problématique de l'EVP par différents tests mathématiques et des simulations, ainsi que sur le développement et l'application d'une nouvelle méthode de correction appliquée à l'imagerie TEP. L'argument principal de cette technique de correction est que le défaut de la résolution spatiale est enregistré au niveau des détecteurs et la correction pour ce défaut devrait être effectuée avant la reconstruction de l'image. En outre, la technique proposée a l'avantage de tenir compte non seulement de la taille, mais également de la forme de l'objet selon les différentes projections, ce qui représente un bénéfice par rapport aux approches appliquées directement sur l'image.La correction est basée sur la déconvolution des projections mesurées par des fonctions d'étalement appropriées. Celles-ci sont obtenues expérimentalement à partir de mires de cylindres de différents diamètres. Pour tester les capacités de cette technique, l'étude s'est limitée à la correction d'objets initialement isolés par régions d'intérêt sur l'image.La technique a ensuite été testée sur des images de tumeurs isolées et du coeur chez le rat, obtenues par injection de [indice supérieur 18] F-fluorodésoxy-D-glucose (FDG). Les conséquences de la correction de l'EVP ont enfin été étudiées par l'application du modèle d'analyse pharmacocinétique compartimentale du FDG dans le coeur de rat.
2

Sampling and Motion Reconstruction in Three-dimensional X-ray Interventional Imaging / Echantillonnage et reconstruction de mouvement en radiologie interventionnelle tridimensionnelle

Langet, Hélène 28 March 2013 (has links)
La pratique clinique a été profondément transformée par l'explosion technologique, ces dernières décades, des techniques d'imagerie médicale. L'expansion de la radiologie interventionnelle a ainsi rendu possible des procédures dites « minimalement invasives » au cours desquelles la thérapie est délivrée directement au niveau de la région pathologique via des micro-outils guidés par imagerie à travers le système vasculaire. Des systèmes dits « C-arm », générant une imagerie rayons X planaire temps-réelle en faible dose, sont utilisés pour le guidage. Ils ont offert plus récemment la possibilité d'une visualisation tridimensionnelle par le biais d'acquisitions tomographiques. C'est dans ce contexte de reconstruction tomographique que s'inscrivent ces travaux de thèse. Ils s'attèlent en particulier à corriger les artefacts de mouvement dus aux variations temporelles des vaisseaux injectés et se concentrent sur un aspect central de la tomographie, à savoir l'échantillonnage angulaire. La théorie du compressed sensing identifie les conditions sous lesquelles des données sous-échantillonnées peuvent être reconstruites en minimisant une fonctionnelle qui combine un terme de fidélité quadratique et une contrainte parcimonieuse. S'appuyant sur cette théorie, un formalisme original de reconstruction est proposé : il repose sur la rétroprojection filtrée itérative, les algorithmes proximaux, la minimisation de normes L1 et l'homotopie. Ce formalisme est ensuite dérivé pour intégrer différentes contraintes spatiales et temporelles. Une telle stratégie s'avère plus performante que la rétroprojection filtrée analytique utilisée dans la pratique clinique, permettant la réduction d'artefacts de mouvement et d'échantillonnage dans des cas cliniques bien identifiés de l'imagerie cérébrale et abdominale. Les résultats obtenus soulignent l'une des principales contributions de ce travail, à savoir : l'importance de l'homotopie, en supplément de la régularisation, pour améliorer la qualité image, un gain indispensable dans le domaine d'applicabilité / Medical imaging has known great advances over the past decades to become a powerful tool for the clinical practice. It has led to the tremendous growth of interventional radiology, in which medical devices are inserted and manipulated under image guidance through the vascular system to the pathology location and then used to deliver the therapy. In these minimally-invasive procedures, X-ray guidance is carried out with C-arm systems through two-dimensional real-time projective low-dose images. More recently, three-dimensional visualization via tomographic acquisition has also become available. This work tackles tomographic reconstruction in the aforementioned context. More specifically, it deals with the correction of motion artifacts that originate from the temporal variations of the contrast-enhanced vessels and thus tackles a central aspect of tomography: data (angular) sampling. The compressed sensing theory identifies conditions under which subsampled data can be recovered through the minimization of a least-square data fidelity term combined with sparse constraints. Relying on this theory, an original reconstruction framework is proposed based on iterative filtered backprojection, proximal splitting, `1-minimization and homotopy. This framework is derived for integrating several spatial and temporal penalties. Such a strategy is shown to outperform the analytical filtered backprojection algorithm that is used in the current clinical practice by reducing motion and sampling artifacts in well-identified clinical cases, with focus on cerebral and abdominal imaging. The obtained results emphasize one of the key contributions of this work that is the importance of homotopy in addition to regularization, to provide much needed image quality improvement in the suggested domain of applicability.
3

Les optiques adaptatives grand champ : stratégie de correction et validations expérimentales

Costille, Anne 30 October 2009 (has links) (PDF)
L'Optique Adaptative (OA) permet de corriger en temps-réel les perturbations engendrées par l'atmosphère grâce à l'analyse de la turbulence par un Analyseur de Surface d'Onde (ASO) puis une correction grâce à un Miroir Déformable (MD). L'OA est cependant soumise à deux limitations principales : l'anisoplanétisme et la couverture de ciel. Pour les pallier, les concepts d'OA dits grand champ ont été développés. Ces systèmes permettent de sonder le volume turbulent grâce à l'utilisation de plusieurs ASO pour réaliser une reconstruction tomographique de la turbulence. La correction peut ensuite être appliquée dans une direction spécifique du champ à l'aide d'un MD (système d'OA Tomographique Laser (LTAO)) ou dans un large champ grâce à plusieurs MD (système d'OA MultiConjuguée (MCAO) ou d'OA multi-objet (MOAO)). L'objectif des travaux menés au cours de cette thèse est d'étudier le dimensionnement des systèmes d'OA grand champ et la validation expérimentale de ces concepts en s'intéressant aux problématiques posées par la multi-analyse de surface d'onde, la correction et la commande. Pour cela, un banc de validation expérimentale en OA grand champ, appelé HOMER, a été développé. Son intégration a permis l'étude et la mise en place de procédures de calibration du système, nécessaires à l'obtention de très bonnes performances. Ces calibrations ont notamment été utilisées dans le cadre de l'implantation d'une commande optimale de type Linéaire Quadratique Gaussienne (LQG). Cette commande est particulièrement bien adaptée à l'OA grand champ puisqu'elle permet d'estimer et de prédire le volume turbulent grâce à des a priori spatiaux et temporels sur la turbulence, puis d'appliquer la correction sur les MD en optimisant la correction dans un champ donné. Cette commande, qui jusqu'à présent n'avait fait que l'objet d'une étude numérique en OA grand champ, a été mise en oeuvre sur HOMER pour des configurations de MCAO et de LTAO. Nous avons mis en évidence le gain apporté par cette commande comparée à une solution plus classique réalisant une reconstruction moindres carrés associée à un contrôleur intégrateur. Ces travaux constituent les premiers résultats expérimentaux obtenus grâce à l'implantation d'une commande LQG en OA grand champ ainsi qu'en LTAO boucle fermée. Nous avons ainsi débuté une étude de la robustesse de la commande LQG aux erreurs de modèles. Ces études expérimentales ont en outre été complétées par des études théoriques sur le dimensionnement de systèmes d'OA grand champ et le dimensionnement des MD pour répondre aux problématiques posées par ces nouveaux concepts d'OA.
4

Modélisation, simulation et quantification de lésions athéromateuses en tomographie par émission de positons / Numerical modeling, simulation and quantification of atheromatous lesions in positron emission tomography

Huet, Pauline 06 July 2015 (has links)
Les pathologies cardio-vasculaires d’origine athéroscléreuse, premières causes de mortalité dans les pays occidentaux, sont insuffisamment prises en charge par les outils de dépistage et de suivi thérapeutique actuels. La Tomographie par Emission de Positons (TEP) est susceptible d’apporter au clinicien des outils puissants pour le diagnostic et le suivi thérapeutique des patients, en particulier grâce au traceur Fluorodésoxyglucose marqué au fluor 18 ([18F]-FDG). Cependant, l’Effet de Volume Partiel (EVP), dû notamment à la résolution spatiale limitée dans les images (plusieurs millimètres) en regard des faibles dimensions (de l’ordre du millimètre) des VOlumes d’Intérêt (VOIs), et les fluctuations statistiques du signal mesuré présentent des défis pour une quantification fiable.Un modèle original de lésion athéromateuse, paramétré par ses dimensions et sa concentration d’activité, a été développé et des simulations Monte-Carlo d’acquisitions TEP au [18F]-FDG de 36 lésions ont été produites. A partir des acquisitions simulées, nous avons montré que le nombre d’itérations des reconstructions itératives, le post-filtrage appliqué et le moyennage dans le VOI,paramètres relevés comme hautement variables dans une revue de la littérature dédiée, peuvent induire des variations des valeurs de fixation mesurées d’un facteur 1.5 à 4. Nous avons montré qu’une modélisation de la réponse du tomographe pouvait réduire le biais de mesure d’environ 10% par rapport au biais mesuré sur une image reconstruite avec un algorithme itératif standard et pour un niveau de bruit comparable. Sur les images reconstruites, nous avons montré que la fixation mesurée reste très biaisée (sous-estimation de plus de 50% du SUV réel) et dépend fortement des dimensions de la lésion à cause de l’EVP. Un contraste minimum de 4 par rapport à l’activité sanguine est nécessaire pour qu’une lésion soit détectée. Sans correction d’EVP, la mesure présente une corrélation faible avec la concentration d’activité, mais est très corrélée à l’activité totale dans la lésion. L’application d’une correction d’EVP fournit une mesure moins sensible à la géométrie de la lésion et plus corrélée à la concentration d’activité mais réduit la corrélation à l’activité totale dans la lésion.En conclusion, nous avons montré que l’intégralité de la fixation du [18F]-FDG dans les lésions athéromateuses inflammatoires totale peut être caractérisée sur les images TEP. Cette estimée ne requiert pas de correction de l’EVP. Lorsque la concentration d’activité dans la lésion est estimée, les mesures sont très biaisées à cause de l’EVP. Ce biais peut être réduit en mesurant le voxel d’intensité maximale, dans les images reconstruites sans post-filtrage avec au moins 80 itérations incluant un modèle de réponse du détecteur. La mise en œuvre d’une correction d’EVP facilite la détection des changements d’activité métabolique indépendamment de changements de dimensions de la zone siègede l’inflammation. Une quantification absolue exacte de la concentration d’activité dans les lésions ne sera possible que via une amélioration substantielle de la résolution spatiale des détecteurs TEP. / Cardiovascular disease is the leading cause of death in western countries. New strategies and tools for diagnosis and therapeutic monitoring need to be developed to manage patients with atherosclerosis, which is one major cause of cardiovascular disease. Fluorodeoxyglucose Positron Emission Tomography (FDG-PET) is a powerful imaging technique that can detect at early stages plaques prone to rupture. Yet, Partial Volume Effect (PVE), due to the small lesion dimensions (around 1 mm) with respect to the scanner spatial resolution (around 6 mm full width at half maximum), and statistical variations considerably challenge the precise characterization of plaques from PET images. An original model of atheromatous lesion parameterized by its dimensions and activity concentration, was developed. Thirty six Monte Carlo simulations of FDG-PET acquisitions were produced. Based on the simulations, we showed that the number of iterations in iterative reconstructions, the post filtering of reconstructed images and the quantification method in the Volume Of Interests (VOI) varied sharply in an analysis of the dedicated literature. Changes in one of these parameters only could induce variations by a factor of 1.5 to 4 in the quantitative index. Overall, inflammation remained largely underestimated (> 50% of the real uptake). We demonstrated that modeling the detector response could reduce the bias by 10% of its value in comparison to a standard OSEM recontruction and for an identical level of noise. In reconstructed images, we showed that the measured values depended not only on the real uptake but also on the lesion dimensions because of PVE. A minimum contrast of 4 with respect to blood activity was required for the lesion to be observable. Without PVE correction, the measured values exhibited a correlation with activity concentration but were much more correlated with the total uptake in the lesion. Applying a PVE correction leads to an activity estimate that was less sensitive to the geometry of the lesion. The corrected values were more correlated to the activity concentration and less correlated to the total activity. In conclusion, we showed that the total activity in inflammatory lesions could be assessed in FDG-PET images. This estimate did not require PVE correction. Tracer concentration estimates are largely biased due to PVE, and the bias can be reduced by measuring the maximum voxel in the lesion in images reconstructed with at least 80 iterations and by modeling the detector response. Explicit PVE correction is recommended to detect metabolic changes independent of geometric changes. An accurate estimation of plaque uptake will however require the intrinsic spatial resolution of PET scanners to be improved.
5

Modélisation 3D et 3D+t des artères coronaires à partir de séquences rotationnelles de projections rayons X

Blondel, Christophe 29 March 2004 (has links) (PDF)
L'angiographie par rayons X est la modalité d'imagerie médicale la plus utilisée pour l'exploration des pathologies des vaisseaux coronariens. La routine clinique actuelle repose sur l'utilisation brute des images angiographiques. Pourtant, ces images présentent des défauts tels que le raccourcissement des longueurs, l'effet de grandissement ou la présence de superpositions. Ces faiblesses peuvent fausser le diagnostic et le choix thérapeutique. Nous proposons d'exploiter un nouveau mode d'acquisition angiographique, le mode rotationnel, pour produire des modélisations tridimensionnelles et dynamiques de l'arbre coronaire. Ces modélisations permettraient de s'affranchir des défauts intrinsèques aux images. Notre travail se compose de trois étapes. Dans un premier temps, une reconstruction 3D multi-oculaire donne un modèle statique des lignes centrales des artères coronaires, prenant en compte le mouvement respiratoire. Par la suite, un mouvement 4D des artères coronaires est determiné sur l'ensemble du cycle cardiaque. Enfin, la connaissance des mouvements respiratoire et cardiaque permet de réaliser la reconstruction tomographique des artères coronaires. Nous avons testé notre approche sur une base de 22 patients et avons proposé de nouveaux outils et applications cliniques à partir de ces modélisations tridimensionnelles et dynamiques. Ces outils diagnostiques ont été prototypés et feront l'objet d'une validation clinique.
6

Précision et qualité en reconstruction tomographique : algorithmes et applications

Recur, Benoît 29 November 2010 (has links)
Il existe un grand nombre de modalités permettant l'acquisition d'un objet de manière non destructrice (Scanner à Rayons X, micro-scanner, Ondes Térahertz, Microscopie Électronique de Transmission, etc). Ces outils acquièrent un ensemble de projections autour de l'objet et une étape de reconstruction aboutit à une représentation de l'espace acquis. La principale limitation de ces méthodes est qu'elles s'appuient sur une modélisation continue de l'espace alors qu'elles sont exploitées dans un domaine fini. L'étape de discrétisation qui en résulte est une source d'erreurs sur les images produites. De plus, la phase d'acquisition ne s'effectue pas de manière idéale et peut donc être entachée d'artéfacts et de bruits. Un grand nombre de méthodes, directes ou itératives, ont été développées pour tenter de réduire les erreurs et reproduire une image la plus représentative possible de la réalité. Un panorama de ces reconstructions est proposé ici et est coloré par une étude de la qualité, de la précision et de la résistances aux bruits d'acquisition.Puisque la discrétisation constitue l'une des principales limitations, nous cherchons ensuite à adapter des méthodes discrètes pour la reconstruction de données réelles. Ces méthodes sont exactes dans un domaine fini mais ne sont pas adaptées à une acquisition réelle, notamment à cause de leur sensibilité aux erreurs. Nous proposons donc un lien entre les deux mondes et développons de nouvelles méthodes discrètes plus robustes aux bruits. Enfin, nous nous intéressons au problème des données manquantes, i.e. lorsque l'acquisition n'est pas uniforme autour de l'objet, à l'origine de déformations dans les images reconstruites. Comme les méthodes discrètes sont insensibles à cet effet nous proposons une amorce de solution utilisant les outils développés dans nos travaux. / A large kind of methods are available now to acquire an object in a non-destructive way (X-Ray scanner, micro-scanner, Tera-hertz waves, Transmission Electron Microscopy, etc). These tools acquire a projection set around the object and a reconstruction step leads to a representation of the acquired domain. The main limitation of these methods is that they rely on a continuous domain modeling wheareas they compute in a finite domain. The resulting discretization step sparks off errors in obtained images. Moreover, the acquisition step is not performed ideally and may be corrupted by artifacts and noises. Many direct or iterative methods have been developped to try to reduce errors and to give a better representative image of reality. An overview of these reconstructions is proposed and it is enriched with a study on quality, precision and noise robustness.\\Since the discretization is one of the major limitations, we try to adjust discrete methods for the reconstruction of real data. These methods are accurate in a finite domain but are not suitable for real acquisition, especially because of their error sensitivity. Therefore, we propose a link between the two worlds and we develop new discrete and noise robust methods. Finally, we are interesting in the missing data problem, i.e. when the acquisition is not uniform around the object, giving deformations into reconstructed images. Since discrete reconstructions are insensitive to this effect, we propose a primer solution using the tools developed previously.
7

Calibrations et stratégies de commandes tomographique pour les optiques adaptatives grand champ : validations expérimentales sur le banc HOMER

Parisot, Amelie 24 October 2012 (has links)
L'optique adaptative (OA) permet de corriger en temps réel les déformations du front d'onde induites par la turbulence atmosphérique. Cependant, cette technique aujourd'hui mature connaît une limitation fondamentale : l'anisoplanétisme. Pour y pallier, différents concepts d'OA grand champ ont été développés. La turbulence est alors mesurée dans plusieurs directions afin de l'estimer tomographiquement. Ces systèmes soulèvent des problématiques spécifiques, telles que leurs processus d'étalonnage et leur contrôle temps réel au moyen de lois de commande tomographiques. Mes travaux de recherche ont consisté à modifier et optimiser le banc OA grand champ de l'Onera pour ensuite y implanter et comparer différentes loi de commande tomographiques envisagées pour les futurs instruments. Pour cela, une caractérisation et une implantation de nouveaux composants ont été effectuées, et j'ai développé une procédure d'identification de paramètres système dans un objectif double: alignement du banc et optimisation de lois de commande. Quatre lois de commande, explorant la diversité des solutions proposées, sont ensuite étudiées, du simple reconstructeur moindre carré à la commande optimale linéaire quadratique gaussienne, en passant par des approches de type pseudo boucle ouverte ou miroir déformable virtuel. Pour chacune, une optimisation des facteurs de réglage est effectuée, et une performance en fonction du champ est établie, ce pour plusieurs valeurs de rapport signal à bruit. Les résultats expérimentaux sont mis en regard avec les résultats obtenus par simulation, et les lois de commande sont comparées ensuite en terme de performance, robustesse et simplicité de mise en œuvre. / Adaptive Optics (AO) provides a real-time correction of the atmospheric turbulence effects. This technique is now well mastered; nonetheless it is limited by the anisoplanatism effect. Wide Field AO concepts have been developed to overcome this limitation. Turbulence is probed in several directions in order to perform a tomographic reconstruction of the turbulent volume. These complex systems raise critical challenges such as tomographic control and calibrations.My PhD work is focused on implementation and comparison of different tomographic control schemes developed in the perspective of future systems, after an optimisation of the Onera wide field AO bench. Calibration and integration of new components have been performed, and I have developed a method to identify system parameters with a twofold goal: bench alignment and control laws optimisation. Four control schemes have been studied, exploring the proposed solutions, from the simplest least-square to the optimal linear quadratic gaussian solutions including virtual deformable mirror and pseudo open loop approaches. In each case, an optimisation of tuning factors is performed and low and high noise conditions are explored, for several different fields of views. Experimental results are compared to numerical ones and control laws are analyzed in term of performance, robustness and implementation simplicity.
8

Nouvelle approche de la correction de l'atténuation mammaire en tomoscintigraphie de perfusion myocardique / New approch of breast attenuation correction in SPECT myocardial perfusion imaging

Chamouine, Saïd Omar 12 December 2011 (has links)
Nous proposons dans le cadre de cette thèse une nouvelle approche permettant de s'affranchir de l'atténuation mammaire en tomographie par émission monophotonique (TEMP) de perfusion myocardique. Elle est constituée de deux parties : - la première consiste à rendre les projections acquises consistantes. - la deuxième consiste à pondérer ces même les projections corrigées durant la reconstruction. Nous avons effectué l'étude de validité de nos méthodes sur quelques exemples de simulation TEMP de perfusion myocardique simulant l'atténuation mammaire et sur quelques exemples d'études patients réelles notamment : des cas d'atténuation mammaire, d'infarctus inférieure, d'infarctus apical, d'infarctus antérieur, d'ischémie antérieure et inférieure. Les résultats semblent encourageants. Il s'agit dans le proche avenir de mener une étude de validation chez les patients versus un gold standard (coronarographie, coroscanner) / We propose in this thesis a new approach to correct the breast attenuation in SPECT myocardial perfusion imaging. It consists of two parts: -The first is to make the acquired projections consistent with each other. - The second is to weight the corrected attenuated projection during the reconstruction. We conducted a validation of our methods on some examples of myocardial perfusion SPECT imaging simulating the breast attenuation and some examples of real patient studies including: breast attenuation, anterior myocardial infarction, inferior myocardial infarction, anterior myocardial ischemia and inferior myocardial ischemia. The obtained results are encouraging. At this step, it is interesting in the near future to conduct a validation study in patients versus a gold standard (angiography, coroscan).Key words: SPECT, tomographic reconstruction, breast attenuation, Iterative reconstruction, attenuation correction, myocardial perfusion imaging, nuclear medicine
9

Development of tomographic PIV for the study of turbulent flows / Développement de la PIV tomographique pour l'étude d'écoulements turbulents

Cheminet, Adam 19 May 2016 (has links)
Cette thèse porte sur le développement de la PIV tomographique (tomo-PIV) pour la mesure d’écoulements turbulents (Elsinga et al 2006). Cette méthode se fonde sur la reconstruction tomographique d’une distribution volumique d’intensité de particules traceuses, à partir de projections enregistrées par des caméras. Les distributions volumiques sont corrélées, fournissant ainsi un champ de déplacement 3D.Les principales avancées de la recherche sur cette technique sont présentées ainsi que les points bloquants. Les efforts ont principalement été portés sur la reconstruction tomographique. La principale difficulté est le bruit tomographique (particules fantômes) qui croît exponentiellement lorsqu’une forte densité de traceur est requise pour obtenir une résolution spatiale fine de la mesure, particulièrement pour les écoulements turbulents.Afin de mieux appréhender ce bruit de reconstruction, nous avons étudié numériquement les facteurs expérimentaux nuisant à la qualité de la reconstruction. Des considérations géométriques ont permis de quantifier l’impact de «particules ajoutées», qui se trouvent dans le volume de l’union mais pas dans le volume de l’intersection entre la zone laser et les champs de vue des caméras. La diminution du ratio signal-à-bruit dans les images, due à la diffusion de Mie et l’astigmatisme des optiques, a pour principal effet la perte de vraies particules dans la reconstruction.Étudier les conditions optiques de la tomo-PIV nous a permis de proposer une approche alternative à la reconstruction tomographique classique, qui vise à reconstruire une particule presque sur un unique voxel, plutôt que comme un agrégat de voxels de taille étendue, en se fondant sur une représentation particulaire des images. Nous nommons cette méthode Reconstruction Volumique de Particules (PVR). Après avoir été incorporée à un algorithme de reconstruction (SMART), il est possible d’élargir la représentation particulaire de PVR, afin d’obtenir des blobs de 2/3 voxels de diamètre requis par les algorithmes de corrélation de 3D-PIV. Des simulations numériques sur un large spectre de conditions génératrices, ont montré qu’utiliser PVR-SMART permettait des gains de performance par rapport à un algorithme classique comme tomo-SMART (Atkinson 2009).L’aspect vélocimétrie par corrélation de la méthode a aussi été pris en compte avec une extension sur GPU à la 3D (FOLKI-3D) de l’algorithme FOLKI-PIV (Champagnat et al. 2011). Le déplacement y est cherché en minimisant itérativement une fonctionnelle, du type des moindres carrés, par déformation de volume. Les tests synthétiques confirment que la réponse fréquentielle d’espace est semblable à celle d’autres algorithmes classiques itératifs de déformation de volume. Les simulations numériques de reconstruction tomographique ont permis de caractériser la robustesse de l’algorithme au bruit spécifique de la tomographie. Nous avons montré que FOLKI-3D était plus robuste aux particules fantômes cohérentes que les algorithmes classiques de déformation volumique. De plus, des gains de performance ont été observés en utilisant des schémas d’ordre élevé pour différents types de bruit.L’application de PVR-SMART sur des données expérimentales a été effectuée sur un jet d’air turbulent. Différentes densités de particules ont été utilisées pour comparer les performance de PVR-SMART avec tomo-SMART sur la région proche buse du jet. Avec le pré-traitement d’image utilisé, nous avons montré que les champs de vitesse de PVR-SMART étaient près de 50 % moins bruités que ceux de tomo-SMART. L’analyse sur les champs de vitesse comporte l’étude de quantités statistiques, de peak-locking, de divergence, du tenseur des gradients ainsi que de structures cohérentes.Enfin, nous concluons avec une synthèse des résultats obtenus au cours de cette étude, en envisageant de nouvelles perspectives de recherche dans le contexte de la PIV tomographique. / This research dissertation focuses on the developments of tomographic PIV (tomo-PIV) for the measurement of turbulent flows (Elsinga et al. 2006). It is based on the tomographic reconstruction of a volumic intensity distribution of tracer particles from projections recorded on cameras. The corresponding volumic distributions are correlated to obtain 3D displacement fields.The present work surveys the state of advancement of the research conducted on this technique and the main issues it has been confronted with so far. The main research focus was on tomographic reconstruction. Indeed, its main limitation is the appearance of ghost particles, ie reconstruction noise, which occurs when high tracer concentrations are required for high spatial resolution measurements.For a thorough understanding of tomographic noise, we carried out a numerical study of experimental factors impacting the quality of tomographic reconstruction. Geometric considerations quantified the impact of "added particles" lying in the Union volume but not in the Intersection volume, between the camera fields of view and the illumination area. This phenomenon was shown to create ghost particles. The decrease in signal-to-noise ratio in the image was investigated, considering Mie scattering and defocusing effects. Particle image defocusing mainly results in the loss of real particles in reconstruction. Mie scattering’s main impact is also the loss of real particles due to the polydisperse nature of the seeding.This study of imaging conditions for tomo-PIV led us to propose an alternative approach to classical tomographic reconstruction. It seeks to recover nearly single voxel particles rather than blobs of extended size using a particle-based representation of image data. We term this approach Particle Volume Reconstruction (PVR). PVR underlies a more physical, sparse volumic representation of point particles, which lives halfway between infinitely small particles, and voxel blobs commonly used in tomo-PIV. From that representation, it is possible to smooth it to 2 voxel diameter blobs for a 3D-PIV use of PVR incorporated in a SMART algorithm. Numerical simulations showed that PVR-SMART outperforms tomo-SMART (Atkinson et al. 2009) on a variety generating conditions and a variety of metrics on volume reconstruction and displacement estimation, especially in the case of seeding density greater than 0.06 ppp.We introduce a cross-correlation technique for 3D-PIV (FOLKI-3D) as an extension to 3D of the FOLKI-PIV algorithm (Champagnat et al. 2011). The displacement is searched as the minimizer of a sum of squared differences, solved iteratively by using volume deformation. Numerical tests confirmed that spatial frequency response is similar to that of standard iterative deformation algorithms. Numerical simulations of tomographic reconstruction characterized the robustness of the algorithm to specific tomographic noise. FOLKI-3D was found more robust to coherent ghosts than standard deformation algorithms, while gains in accuracy of the high-order deformation scheme were obtained for various signal noises.The application of PVR-SMART on experimental data was performed on a turbulent air jet. Several seeding density conditions were used to compare the performance of tomo-SMART and PVR-SMART on the near field region of the jet. With the given image pre-processing, PVR-SMART was found to yield velocity fields that are about 50 % less noisy than tomo-SMART. The velocity field comparison included velocity field statistical properties, peak-locking study, flow divergence analysis, velocity gradient tensor and coherent structures exploration.Finally, conclusions are drawn from the main results of this dissertation and lead to potential research perspectives of our work with respect to the future of tomographic PIV.
10

Modélisation 3D et 3D+t des artères coronaires à partir de séquences rotationnelles de projections rayons X

BLONDEL, Christophe 29 March 2004 (has links) (PDF)
L'angiographie par rayons X est la modalité d'imagerie médicale la plus utilisée pour l'exploration des pathologies des vaisseaux coronariens. La routine clinique actuelle repose sur l'utilisation brute des images angiographiques. Pourtant, ces images présentent des défauts tels que le raccourcissement des longueurs, l'effet de grandissement ou la présence de superpositions. Ces faiblesses peuvent fausser le diagnostic et le choix thérapeutique.<br /><br />Nous proposons d'exploiter un nouveau mode d'acquisition angiographique, le mode rotationnel, pour produire des modélisations tridimensionnelles et dynamiques de l'arbre coronaire. Ces modélisations permettraient de s'affranchir des défauts intrinsèques aux images.<br /><br />Notre travail se compose de trois étapes. Dans un premier temps, une reconstruction 3D multi-oculaire donne un modèle statique des lignes centrales des artères coronaires, prenant en compte le mouvement respiratoire. Par la suite, un mouvement 4D des artères coronaires est determiné sur l'ensemble du cycle cardiaque. Enfin, la connaissance des mouvements respiratoire et cardiaque permet de réaliser la reconstruction tomographique des artères coronaires.<br /><br />Nous avons testé notre approche sur une base de 22 patients et avons proposé de nouveaux outils et applications cliniques à partir de ces modélisations tridimensionnelles et dynamiques. Ces outils diagnostiques ont été prototypés et feront l'objet d'une validation clinique.

Page generated in 0.5292 seconds