• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 11
  • 7
  • 2
  • 1
  • 1
  • Tagged with
  • 33
  • 33
  • 17
  • 13
  • 8
  • 8
  • 8
  • 8
  • 6
  • 6
  • 6
  • 5
  • 5
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Nouvelle approche de la correction de l'atténuation mammaire en tomoscintigraphie de perfusion myocardique / New approch of breast attenuation correction in SPECT myocardial perfusion imaging

Chamouine, Saïd Omar 12 December 2011 (has links)
Nous proposons dans le cadre de cette thèse une nouvelle approche permettant de s'affranchir de l'atténuation mammaire en tomographie par émission monophotonique (TEMP) de perfusion myocardique. Elle est constituée de deux parties : - la première consiste à rendre les projections acquises consistantes. - la deuxième consiste à pondérer ces même les projections corrigées durant la reconstruction. Nous avons effectué l'étude de validité de nos méthodes sur quelques exemples de simulation TEMP de perfusion myocardique simulant l'atténuation mammaire et sur quelques exemples d'études patients réelles notamment : des cas d'atténuation mammaire, d'infarctus inférieure, d'infarctus apical, d'infarctus antérieur, d'ischémie antérieure et inférieure. Les résultats semblent encourageants. Il s'agit dans le proche avenir de mener une étude de validation chez les patients versus un gold standard (coronarographie, coroscanner) / We propose in this thesis a new approach to correct the breast attenuation in SPECT myocardial perfusion imaging. It consists of two parts: -The first is to make the acquired projections consistent with each other. - The second is to weight the corrected attenuated projection during the reconstruction. We conducted a validation of our methods on some examples of myocardial perfusion SPECT imaging simulating the breast attenuation and some examples of real patient studies including: breast attenuation, anterior myocardial infarction, inferior myocardial infarction, anterior myocardial ischemia and inferior myocardial ischemia. The obtained results are encouraging. At this step, it is interesting in the near future to conduct a validation study in patients versus a gold standard (angiography, coroscan).Key words: SPECT, tomographic reconstruction, breast attenuation, Iterative reconstruction, attenuation correction, myocardial perfusion imaging, nuclear medicine
22

Stratégies d’optimisation des protocoles en scanographie pédiatrique / Optimization Strategies on pediatric CT Protocol

Rani, Kaddour 14 December 2015 (has links)
Depuis le début des années soixante-dix, le nombre de scanners par hôpitaux n’a fait qu’augmenter et leur utilisation est de plus en plus fréquente. Même si cette technique permet de donner des informations cliniques précieuses, elle a un revers qui est l’exposition du patient à des rayonnements ionisants. La sensibilité des enfants aux rayonnements est plus grande que celle des adultes, les enfants ont une espérance de vie importante et ont donc plus de risques de développer des cancers dans le futur. Il y a donc nécessité de tenter de réduire la dose au patient. Cette thèse vise donc à développer des stratégies d’optimisation sur les protocoles cliniques en utilisant des méthodes de simulation et de modélisation permettant de comprendre l’influence des paramètres des protocoles sur les indicateurs de qualité d’image et sur la dose délivrée au patient. Ce travail se divise en quatre parties: La première partie porte sur la modélisation de l’influence des paramètres des protocoles scanographiques sur deux indicateurs de qualité d’image et un indicateur de dose en utilisant la méthodologie des plans d’expériences. La seconde partie traite du développement d’un Protocole Générique Optimisé (PGO) pour la région de l’abdomen. A partir des données des modèles développés, un PGO recalculé pour cinq morphologies de patients pédiatriques et pour quatre modèles de scanners a été réalisé. L’ensemble des résultats, ont permis le développement d’un outil d’aide à l’optimisation permettant à l’utilisateur de générer un protocole optimisé en fonction du modèle de scanner et de la morphologie du patient. / For the last 10-years, computed tomography (CT) procedures and their increased use have been a major source for concern in the scientific community. This concern has been the starting point for several studies aiming to optimize the dose while maintaining a diagnostic image quality. In addition, it is important to pay special attention to dose levels for children (age range considered to be from a newborn baby to a 16-y-old patient). Indeed, children are more sensitive to ionizing radiations, and they have a longer life expectancy. Optimizing the CT protocols is a very difficult process due to the complexity of the acquisition parameters, starting with the individual patient characteristics, taking into account the available CT device and the required diagnostic image quality. This PhD project is contributing to the advancement of knowledge by: (1) Developing a new approach that can minimize the number of testing CT scans examinations while developing a predictive mathematical model allowing radiologists to prospectively anticipate how changes in protocols will affect the image quality and the delivered dose for four models of CT scan. (2) Setting-up a Generic Optimized Protocol (based on the size of the phantom CATPAHN 600) for four models of CT scan. (3) Developing a methodology to adapt the GOP to five sizes of pediatric patient using Size Specific Dose Estimate calculation (SSDE). (4) Evaluating subjective and objective image quality between size-based optimised CT protocol and age-based CT protocols. (5) Developing a CT protocol optimization tool and a tutorial helping the radiologists in the process of optimization.
23

Exploiting parallelism of irregular problems and performance evaluation on heterogeneous multi-core architectures

Xu, Meilian 04 October 2012 (has links)
In this thesis, we design, develop and implement parallel algorithms for irregular problems on heterogeneous multi-core architectures. Irregular problems exhibit random and unpredictable memory access patterns, poor spatial locality and input dependent control flow. Heterogeneous multi-core processors vary in: clock frequency, power dissipation, programming model (MIMD vs. SIMD), memory design and computing units, scalar versus vector units. The heterogeneity of the processors makes designing efficient parallel algorithms for irregular problems on heterogeneous multicore processors challenging. Techniques of mapping tasks or data on traditional parallel computers can not be used as is on heterogeneous multi-core processors due to the varying hardware. In an attempt to understand the efficiency of futuristic heterogeneous multi-core architectures on applications we study several computation and bandwidth oriented irregular problems on one heterogeneous multi-core architecture, the IBM Cell Broadband Engine (Cell BE). The Cell BE consists of a general processor and eight specialized processors and addresses vector/data-level parallelism and instruction-level parallelism simultaneously. Through these studies on the Cell BE, we provide some discussions and insight on the performance of the applications on heterogeneous multi-core architectures. Verifying these experimental results require some performance modeling. Due to the diversity of heterogeneous multi-core architectures, theoretical performance models used for homogeneous multi-core architectures do not provide accurate results. Therefore, in this thesis we propose an analytical performance prediction model that considers the multitude architectural features of heterogeneous multi-cores (such as DMA transfers, number of instructions and operations, the processor frequency and DMA bandwidth). We show that the execution time from our prediction model is comparable to the execution time of the experimental results for a complex medical imaging application.
24

Exploiting parallelism of irregular problems and performance evaluation on heterogeneous multi-core architectures

Xu, Meilian 04 October 2012 (has links)
In this thesis, we design, develop and implement parallel algorithms for irregular problems on heterogeneous multi-core architectures. Irregular problems exhibit random and unpredictable memory access patterns, poor spatial locality and input dependent control flow. Heterogeneous multi-core processors vary in: clock frequency, power dissipation, programming model (MIMD vs. SIMD), memory design and computing units, scalar versus vector units. The heterogeneity of the processors makes designing efficient parallel algorithms for irregular problems on heterogeneous multicore processors challenging. Techniques of mapping tasks or data on traditional parallel computers can not be used as is on heterogeneous multi-core processors due to the varying hardware. In an attempt to understand the efficiency of futuristic heterogeneous multi-core architectures on applications we study several computation and bandwidth oriented irregular problems on one heterogeneous multi-core architecture, the IBM Cell Broadband Engine (Cell BE). The Cell BE consists of a general processor and eight specialized processors and addresses vector/data-level parallelism and instruction-level parallelism simultaneously. Through these studies on the Cell BE, we provide some discussions and insight on the performance of the applications on heterogeneous multi-core architectures. Verifying these experimental results require some performance modeling. Due to the diversity of heterogeneous multi-core architectures, theoretical performance models used for homogeneous multi-core architectures do not provide accurate results. Therefore, in this thesis we propose an analytical performance prediction model that considers the multitude architectural features of heterogeneous multi-cores (such as DMA transfers, number of instructions and operations, the processor frequency and DMA bandwidth). We show that the execution time from our prediction model is comparable to the execution time of the experimental results for a complex medical imaging application.
25

Analýza iterativně rekonstruovaných CT dat: nové metody pro měření obrazové kvality / Analysis of Iteratively Reconstructed CT Data: Novel Methods for Measuring Image Quality

Walek, Petr January 2019 (has links)
Se zvyšující se dostupností medicínského CT vyšetření a s rostoucím počtem patologických stavů, pro které je indikováno, se redukce pacientské dávky ionizujícího záření stává stále aktuálnějším tématem. Výrazný pokrok v tomto odvětví představují nové metody rekonstrukce obrazů z projekcí, tzv. moderní iterativní rekonstrukční metody. Zároveň se zavedením těchto metod vzrostla potřeba pro měření obrazové kvality. Kvalita iterativně rekonstruovaných dat byla doposud kvantitativně hodnocena pouze na fantomových datech nebo na malých oblastech zájmu v reálných pacientských datech. Charakter iterativně rekonstruovaných dat však naznačuje, že tyto přístupy nadále nejsou dostatečné a je nutné je nahradit přístupy novými. Hlavním cílem této dizertační práce je navrhnout nové přístupy k měření kvality CT obrazových dat, které budou respektovat specifika iterativně rekonstruovaných obrazů a budou počítána plně automaticky přímo z reálných pacientských dat.
26

X-ray computed tomography reconstruction on non-standard trajectories for robotized inspection / Reconstruction 3D en tomographie X sur trajectoires non-standards

Banjak, Hussein 10 November 2016 (has links)
La tomographie par rayons X ou CT pour "Computed Tomography" est un outil puissant pour caractériser et localiser les défauts internes et pour vérifier la conformité géométrique d’un objet. Contrairement au cas des applications médicales, l’objet inspecté en Contrôle Non Destructif (CND) peut être très grand et composé de matériaux de haute atténuation, auquel cas l’utilisation d’une trajectoire circulaire pour l’inspection est impossible à cause de contraintes dans l’espace. Pour cette raison, l’utilisation de bras robotisés est l’une des nouvelles tendances reconnues dans la CT, car elle autorise plus de flexibilité dans la trajectoire d’acquisition et permet donc la reconstruction 3D de régions difficilement accessibles dont la reconstruction ne pourrait pas être assurée par des systèmes de tomographie industriels classiques. Une cellule de tomographie X robotisée a été installée au CEA. La plateforme se compose de deux bras robotiques pour positionner et déplacer la source et le détecteur en vis-à-vis. Parmi les nouveaux défis posés par la tomographie robotisée, nous nous concentrons ici plus particulièrement sur la limitation de l’ouverture angulaire imposée par la configuration en raison des contraintes importantes sur le mouvement mécanique de la plateforme. Le deuxième défi majeur est la troncation des projections qui se produit lorsque l’objet est trop grand par rapport au détecteur. L’objectif principal de ce travail consiste à adapter et à optimiser des méthodes de reconstruction CT pour des trajectoires non standard. Nous étudions à la fois des algorithmes de reconstruction analytiques et itératifs. Avant d’effectuer des inspections robotiques réelles, nous comptons sur des simulations numériques pour évaluer les performances des algorithmes de reconstruction sur des configurations d’acquisition de données. Pour ce faire, nous utilisons CIVA, qui est un outil de simulation pour le CND développé au CEA et qui est capable de simuler des données de projections réalistes correspondant à des configurations d’acquisition définies par l’utilisateur. / X-ray computed tomography (CT) is a powerful tool to characterize or localize inner flaws and to verify the geometric conformity of an object. In contrast to medical applications, the scanned object in non-destructive testing (NDT) might be very large and composed of high-attenuation materials and consequently the use of a standard circular trajectory for data acquisition would be impossible due to constraints in space. For this reason, the use of robotic arms is one of the acknowledged new trends in NDT since it allows more flexibility in acquisition trajectories and therefore could be used for 3D reconstruction of hardly accessible regions that might be a major limitation of classical CT systems. A robotic X-ray inspection platform has been installed at CEA LIST. The considered system integrates two robots that move the X-ray generator and detector. Among the new challenges brought by robotic CT, we focus in this thesis more particularly on the limited access viewpoint imposed by the setup where important constraints control the mechanical motion of the platform. The second major challenge is the truncation of projections that occur when only a field-of-view (FOV) of the object is viewed by the detector. Before performing real robotic inspections, we highly rely on CT simulations to evaluate the capability of the reconstruction algorithm corresponding to a defined scanning trajectory and data acquisition configuration. For this purpose, we use CIVA which is an advanced NDT simulation platform developed at CEA and that can provide a realistic model for radiographic acquisitions and is capable of simulating the projection data corresponding to a specific CT scene defined by the user. Thus, the main objective of this thesis is to develop analytical and iterative reconstruction algorithms adapted to nonstandard trajectories and to integrate these algorithms in CIVA software as plugins of reconstruction.
27

Représentation par maillage adapté pour la reconstruction 3D en tomographie par rayons X / Adapted mesh representation for 3D computed tomography reconstruction

Cazasnoves, Anthony 08 December 2015 (has links)
La tomographie 3D par rayons X, utilisée tant pour le diagnostic médical que pour le contrôle non-destructif industriel, permet de reconstruire un objet en 3D à partir d’un ensemble de ses projections 2D. Le volume de reconstruction est usuellement discrétisé sur une grille régulière de voxels isotropes ce qui implique une augmentation de leur nombre pour atteindre une bonne résolution spatiale. Une telle représentation peut donc engendrer des coûts calculatoires et un volume mémoire de stockage particulièrement conséquents. Ce manuscrit présente une méthode permettant de discrétiser l’espace 3D de reconstruction de façon pertinente directement à partir de l’information structurelle contenue dans les données de projection. L’idée est d’obtenir une représentation adaptée à l’objet étudié. Ainsi, en lieu et place d’une grille voxélisée, on a recourt ici à un maillage tétraédrique épousant la structure de l’objet : la densité de mailles s’adapte en fonction des interfaces et des régions homogènes. Pour batir un tel maillage, la première étape de la méthode consiste à détecter les bords dans les données de projections 2D. Afin d’assurer une segmentation efficace et de bonne qualité, nous proposons d’exploiter le formalisme des tests statistiques pour paramétrer de façon optimale, automatique et rapide le filtre de Canny. L’information structurelle ainsi obtenue est ensuite fusionnée dans l’espace de reconstruction afin de construire un nuage de points échantillonnant les interfaces 3D de l’objet imagé. Pour ce faire, on procède à une rétroprojection directe des images de bords 2D pour obtenir une cartographie brute des interfaces 3D recherchées. Au moyen d’un filtrage automatisé par méthode statistique, on sélectionne les points les plus représentatifs, délimitant les interfaces avec précision. Le maillage adapté est finalement obtenu par tétraédrisation de Delaunay contrainte par ce nuage de points. Une reconstruction tomographique peut alors être réalisée sur une telle représentation en utilisant des schémas itératifs usuels pour lesquels les modèles de projecteur/rétroprojecteur sont adaptés. Nos expérimentations montrent qu’à partir d’un nombre restreint de projections sur 360° – i.e. 30 – notre méthode permet d’obtenir un nuage de points en très bonne adéquation avec les interfaces de l’objet étudié. La compression obtenue tant en termes de nombre d’inconnues à estimer qu’en espace mémoire nécessaire pour le stockage des volumes reconstruits est importante - jusqu’à 90% - attestant ainsi de l’intérêt de cette discrétisation. Les reconstructions obtenues sont prometteuses et les maillages générés de qualité suffisante pour envisager leur utilisation dans des applications de simulations – éléments finis ou autres. / 3D X-Ray computed tomography reconstruction is a method commonly used, nowadays, in both medical and non destructive testing fields to reconstruct a 3D object from a set of its 2D projections. The reconstruction space usually is sampled on a regular grid of isotropic voxels, thus inducing an increase in the number of cells used in order to get a satisfactory spatial resolution. This representation hence have a direct impact on the growth in computational cost of each reconstruction iteration and imposes the storage of volumes of considerable memory storage footprints. This dissertation introduces an approach to build an adapted sampling of the object of interest directly from a sparse dataset of projections and prior to any tomographic reconstruction. Instead of the usual voxel lattice, we make use of a tetrahedral mesh that tightly fits the object structure : cells density increases close to its interfaces and decreases in homogeneous regions. To create such a mesh, the first step of this work consists in the detection of edges in the 2D projection images. Segmentation quality being paramount for further stages, we introduce a statistical approach to automatically select crucial parameters of the selected edge detector - Canny's filter. This structural information then is merged within the 3D volume of reconstruction as a pointcloud adequately sampling the 3D interfaces of the studied object. To do so, we perform a direct backprojection of the 2D edge maps to obtain a rough 3D map of the desired interfaces. The points composing the cloud are placed according to this map by automated filtering of the rough map. This automation is attained by statistical approach. The adapted mesh is finally obtained by classical constrained Delaunay tetrahedralization algorithm on this cloud. CT reconstruction is performed on this new sampling by using usual iterative algorithms for which suitable models of projector/backprojector are proposed. Our experiments show that, using a sparse dataset - e.g. 30 projections - our method provides pointclouds tightly sampling the object interfaces. The compression achieved in the number of unknowns to estimate and in memory consumption for volume storage is sizable, vouching for the relevance of this sampling. Produced reconstructions are promising and the quality of meshes sufficient to contemplate their use in simulation applications, such as finite element methods.
28

Η συμβολή της σεισμικής (ηχητικής) τομογραφίας στη διερεύνηση των γεωαρχαιολογικών σχηματισμών

Πολυμενάκος, Λάζαρος Χ. 03 March 2010 (has links)
Με την τομογραφία επιχειρείται η δημιουργία μιας εικόνας-τομής των ιδιοτήτων ενός αντικειμένου χρησιμοποιώντας μετρήσεις της ενέργειας που διαδόθηκε μέσω του αντικειμένου, σε δέκτες στην περιφέρειά του. Έχει αποδειχθεί ότι ένα αντικείμενο είναι δυνατόν να απεικονισθεί με ακρίβεια από ένα πλήρες σύνολο περιμετρικών προβολών του. Η τομογραφική ανάλυση είναι δυνατό να γίνει αξιοποιώντας κυματική ενέργεια που έχει διαδοθεί μέσω του υπό μελέτη αντικειμένου (ακτινική τομογραφία) ή προέρχεται από ανάκλαση, περίθλαση κ.ο.κ. σε ανομοιογενή τμήματα του αντικειμένου (περιθλαστική τομογραφία). Στην παρούσα εργασία γίνεται πειραματική εφαρμογή της μεθόδου της σεισμικής τομογραφικής απεικόνισης σε αρχαιολογικά προβλήματα, όπως στην ανίχνευση αρχαιολογικών αντικειμένων στο υπέδαφος ή σε περιβάλλον τεχνητών λόφων (τύμβων -ταφικών μνημείων). Η εφαρμογή αυτή συνιστά ενδιαφέρουσα πρόκληση λόγω του ιδιαίτερα ανομοιογενούς περιβάλλοντος στο οποίο επιχειρείται η ανίχνευση των αντικειμένων καθώς και των μικρών γενικά, αλλά και συχνά απροσδιόριστων, διαστάσεων των αντικειμένων αυτών. Ο μη καταστρεπτικός χαρακτήρας της εφαρμογής είναι ιδιαίτερα ευνοϊκός και αποδεκτός στην αρχαιολογική έρευνα, τόσο σε αναγνωριστικό όσο και σε ανασκαφικό/ σωστικό επίπεδο. Παρουσιάζονται αναλυτικά οι αρχές και το θεωρητικό μέρος της τομογραφικής μεθοδολογίας, με ιδιαίτερη αναλυτική αναφορά στις δύο κύριες μεθόδους ανασύνθεσης των χαρακτηριστικών του εσωτερικού του ερευνώμενου μέσου (χώρου), την ακτινική τομογραφία και περίθλασης, καθώς και τις σχετικές τεχνικές και αλγόριθμους αντιστροφής. Τέλος γίνεται εφαρμογή της ακτινικής τομογραφίας σε 3 διαστάσεις, σε σεισμικές καταγραφές από αρχαιολογικούς-μνημειακούς χώρους, με τη χρήση του αλγόριθμου SIRT (τεχνική ταυτόχρονης επαναληπτικής ανασύνθεσης). Τα δεδομένα ήταν χρόνοι πρώτης άφιξης καθώς και πλάτη σε μια περίπτωση. Kατά την εφαρμογή της ακτινικής τομογραφίας, γίνονται δοκιμές ρύθμισης των παραμέτρων και μεταβλητών κατά τη διαδικασία της αντιστροφής, ώστε να διερευνηθεί η επίδρασή τους στο αποτέλεσμα. Επίσης, διερευνάται η αποτελεσματικότητα της μεθόδου με κατασκευή μοντέλων με βάση πληροφορίες για τους χώρους έρευνας, υπολογισμό συνθετικών χρόνων και αντιστροφή των συνθετικών χρόνων για σύγκριση με τα αποτελέσματα των πραγματικών χρόνων και εξαγωγή συμπερασμάτων. Λαμβάνοντας υπόψη τα στοιχεία από τις ανωτέρω δοκιμές, επιλέγονται τελικές τιμές παραμέτρων για την αντιστροφή των πραγματικών δεδομένων και γίνεται αξιολόγηση και ερμηνεία των αποτελεσμάτων. Γίνεται επίσης δοκιμαστική εφαρμογή τεχνικών επεξεργασίας / ενίσχυσης εικόνας στα αποτελέσματα της αντιστροφής, για την ενίσχυση κυρίως των μικρών, τοπικών, μεταβολών της σεισμικής ταχύτητας και την πληρέστερη απεικόνιση των χώρων έρευνας. Παρουσιάζονται τα αποτελέσματα από την έρευνα του προϊστορικού οικισμού Παλαμαρίου Σκύρου, του χώρου θεμελίωσης του Καθολικού (Ναού) της Ι.Μ. Δαφνίου Αττικής, του εσωτερικού του τεχνητού λόφου – πιθανού τύμβου Καστά Μεσολακκιάς Σερρών και των νεκροταφείων της περιοχής Chatby της Αλεξάνδρειας Αιγύπτου. / With tomography is attempted the creation of an image – slice of the internal properties of a medium / object with use of measurements of the energy which was transmitted through the medium, at receivers on the outside of it. It has been proved that a medium can be imaged with precision by a set of perimetric projections. Tomographic analysis is possible by employing wave energy that has been transmitted through the medium under investigation (ray tomography) or has been reflected or diffracted at various inhomegeneities within the medium (diffraction tomography). In the present study, an experimental application of the seismic tomographic imaging method is made in the field of archaeological exploration, such as detection of archaeological remains in the subsurface or in artificial hills (tumuli). The application poses an interesting challenge, because of the highly inhomogeneous environment where the detection is tried and the small and unknown, in general, dimensions of the target objects. The non-destructive character of the application makes it quite attractive and acceptable in archaeological exploration, both at reconnaissance and later stages of excavation. The principles and theoretical foundations of the tomographic methodology are presented, with particular reference to the two main methods of reconstruction of the internal character of the investigated medium and included objects, that is ray and diffraction tomography, as well as the relevant inversion techniques and algorithms. Finally, an application of ray tomography on seismic recordings from archaeological / monumental sites is made, with use of the simultaneous iterative reconstruction technique (SIRT). In the application of ray tomography, adjustment tests of inversion parameters and variables are made, in order to study their effect on the inversion result. The effectiveness of the method and of the algorithm is investigated with the aid of synthetic models based on possible information from the test sites and the bibliography. Using the models as starting models, synthetic travel times are calculated and are then inverted, while the resulting image is compared with the synthetic starting model and conclusions are drawn. Based on the results of the above tests, final parameter values are set for the inversion of real field data and an assessment and an interpretation of the results is made. Image processing and enhancement is applied to the resulting tomograms, in order to enhance and clarify the small (hidden) variations of seismic velocity, which may reflect important subsurface information, mainly related to particular archaeological targets. There are presented the results from the investigation of the subsurface of a part of the prehistoric settlement of Palamari (Skyros isl., Greece) of the foundations of the church of Dafni Monastery (Attica, Greece), of the interior of the artificial hill / possible tumulus at Kasta Messolakia (Serrae, Greece) and of the subsurface of the cemeteries of Chatby area (Alexandria, Egypt).
29

Development of stopping rule methods for the MLEM and OSEM algorithms used in PET image reconstruction / Ανάπτυξη κριτηρίων παύσης των αλγορίθμων MLEM και OSEM που χρησιμοποιούνται στην ανακατασκευή εικόνας σε PET

Γαϊτάνης, Αναστάσιος 11 January 2011 (has links)
The aim of this Thesis is the development of stopping rule methods for the MLEM and OSEM algorithms used in image reconstruction positron emission tomography (PET). The development of the stopping rules is based on the study of the properties of both algorithms. Analyzing their mathematical expressions, it can be observed that the pixel updating coefficients (PUC) play a key role in the upgrading process of the reconstructed image from iteration k to k+1. For the analysis of the properties of the PUC, a PET scanner geometry was simulated using Monte Carlo methods. For image reconstruction using iterative techniques, the calculation of the transition matrix is essential. And it fully depends on the geometrical characteristics of the PET scanner. The MLEM and OSEM algorithms were used to reconstruct the projection data. In order to compare the reconstructed and true images, two figures of merit (FOM) were used; a) the Normalized Root Mean Square Deviation (NRMSD) and b) the chi-square χ2. The behaviour of the PUC C values for a zero and non-zero pixel in the phantom image was analyzed and it has been found different behavior for zero and non-zero pixels. Based on this assumption, the vector of all C values was analyzed for all non-zero pixels of the reconstructed image and it was found that the histograms of the values of the PUC have two components: one component around C(i)=1.0 and a tail component, for values C(i)<1.0. In this way, a vector variable has been defined, where I is the total number of pixels in the image and k is the iteration number. is the minimum value of the vector of the pixel updating coefficients among the non-zero pixels of the reconstructed image at iteration k. Further work was performed to find out the dependence of Cmin on the image characteristics, image topology and activity level. The analysis shows that the parameterization of Cmin is reliable and allows the establishment of a robust stopping rule for the MLEM algorithm. Furthermore, following a different approach, a new stopping rule using the log-likelihood properties of the MLEM algorithm has been developed. The two rules were evaluated using the independent Digimouse phantom. The study revealed that both stopping rules produce reconstructed images with similar properties. The same study was performed for the OSEM algorithm and a stopping rule for the OSEM algorithm dedicated to each number of subset was developed. / Σκοπός της διατριβής είναι η ανάπτυξη κριτηρίων παύσης για τους επαναληπτικούς αλγόριθμους (MLEM και OSEM) που χρησιμοποιούνται στην ανακατασκευή ιατρικής εικόνας στους τομογράφους εκπομπής ποζιτρονίου (PET). Η ανάπτυξη των κριτηρίων παύσης βασίστηκε στη μελέτη των ιδιοτήτων των αλγόριθμων MLEM & OSEM. Απο τη μαθηματική έκφραση των δύο αλγορίθμων προκύπτει ότι οι συντελεστές αναβάθμισης (ΣΑ) των pixels της εικόνας παίζουν σημαντικό ρόλο στην ανακατασκευή της απο επανάληψη σε επανάληψη. Για την ανάλυση ένας τομογράφος PET προσομοιώθηκε με τη χρήση των μεθόδων Μόντε Κάρλο.Για την ανακατασκευή της εικόνας με τη χρήση των αλγόριθμων MLEM και OSEM, υπολογίστηκε ο πίνακας μετάβασης. Ο πίνακας μετάβασης εξαρτάται απο τα γεωμετρικά χαρακτηριστικά του τομογράφου PET και για τον υπολογισμό του χρησιμοποιήθηκαν επίσης μέθοδοι Μόντε Κάρλο. Ως ψηφιακά ομοιώματα χρησιμοποιήθηκαν το ομοίωμα εγκεφάλου Hoffman και το 4D MOBY. Για κάθε ένα απο τα ομοιώματα δημιουργήθηκαν προβολικά δεδομένα σε διαφορετικές ενεργότητες. Για τη σύγκριση της ανακατασκευασμένης και της αρχικής εικόνας χρησιμοποιήθηκαν δύο ξεχωριστοί δείκτες ποίοτητας, το NRMSD και το chi square. Η ανάλυση έδειξε οτι οι ΣΑ για τα μη μηδενικά pixels της εικόνας τείνουν να λάβουν την τιμή 1.0 με την αύξηση των επαναλήψεων, ενώ για τα μηδενικά pixels αυτό δε συμβαίνει. Αναλύοντας περισσότερο το διάνυσμα των ΣΑ για τα μη μηδενικά pixels της ανακατασκευασμένης εικόνας διαπιστώθηκε ότι αυτό έχει δύο μέρη: α) Μια κορυφή για τιμές των ΣΑ = 1.0 και β) μια ουρά με τιμές των ΣΑ<1.0. Αυξάνοντας τις επαναλήψεις, ο αριθμός των pixels με ΣΑ=1.0 αυξάνονταν ενώ ταυτόχρονα η ελάχιστη τιμή του διανύσματος των ΣΑ μετακινούνταν προς το 1.0. Με αυτό τον τρόπο προσδιορίστηκε μια μεταβλητή της μορφής όπου N είναι ο αριθμός των pixels της εικόνας, k η επανάληψη και η ελάχιστη τιμή του διανύσματος των ΣΑ. Η ανάλυση που έγινε έδειξε ότι η μεταβλητή Cmin συσχετίζεται μόνο με την ενεργότητα της εικόνας και όχι με το είδος ή το μέγεθός της. Η παραμετροποίηση αυτής της σχέσης οδήγησε στην ανάπτυξη του κριτηρίου παύσης για τον MLEM αλγόριθμο. Μια άλλη προσέγγιση βασισμένη στις ιδιότητες πιθανοφάνειας του MLEM αλγόριθμου, οδήγησε στην ανάπτυξη ενός διαφορετικού κριτηρίου παύσης του MLEM. Τα δύο κριτήρια αποτιμήθηκαν με τη χρήση του ομοιώματος Digimouse και βρέθηκε να παράγουν παρόμοιες εικόνες. Η ίδια μελέτη έγινε και για τον OSEM αλγόριθμο και αναπτύχθηκε κριτήριο παύσης για διαφορετικό αριθμό subsets.
30

ADVANCED PRIOR MODELS FOR ULTRA SPARSE VIEW TOMOGRAPHY

Maliha Hossain (17014278) 26 September 2023 (has links)
<p dir="ltr">There is a growing need to reconstruct high quality tomographic images from sparse view measurements to accommodate time and space constraints as well as patient well-being in medical CT. Analytical methods perform poorly with sub-Nyquist acquisition rates. In extreme cases with 4 or fewer views, effective reconstruction approaches must be able to incorporate side information to constrain the solution space of an otherwise under-determined problem. This thesis presents two sparse view tomography problems that are solved using techniques that exploit. knowledge of the structural and physical properties of the scanned objects.</p><p dir="ltr"><br></p><p dir="ltr">First, we reconstruct four view CT datasets obtained from an in-situ imaging system used to observe Kolsky bar impact experiments. Test subjects are typically 3D-printed out ofhomogeneous materials into shapes with circular cross sections. Two advanced prior modelsare formulated to incorporate these assumptions in a modular fashion into the iterativeradiographic inversion framework. The first is a Multi-Slice Fusion and the latter is TotalVariation regularization that operates in cylindrical coordinates.</p><p dir="ltr"><br></p><p dir="ltr">In the second problem, artificial neural networks (NN) are used to directly invert a temporal sequence of four radiographic images of discontinuities propagating through an imploding steel shell. The NN is fed the radiographic features that are robust to scatter and is trained using density simulations synthesized as solutions to hydrodynamic equations of state. The proposed reconstruction pipeline learns and enforces physics-based assumptions of hydrodynamics and shock physics to constrain the final reconstruction to a space ofphysically admissible solutions.</p>

Page generated in 0.1625 seconds