• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 12
  • 4
  • Tagged with
  • 16
  • 13
  • 10
  • 10
  • 8
  • 8
  • 7
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Διόρδωση σκέδασης σε τομογράφο εκπομπής ποζιτρονίων / Scatter correction in 3D PET

Δίκαιος, Νικόλαος 23 December 2008 (has links)
In 3D positron emission tomography the scatter effect is a significant physical factor degrading image quality. The advancements in computing that occurred the last decades al lowed us to simulate the scatter coincidences fast and ef ficiently. The main concern now is how accurately do we simulate the scatter events. The scope of this project is the implementation and the evaluation of a scatter simulation algorithm that would be able to simulate the scat ter ef fect more precisely than the existing ones. One way to simulate the scatter distribut ion is with an algorithm, first published by Watson and Ollinger, that is based on the Klein-Nishina formula. These methods have been implemented taking into account only the single scatter events (where a photon scatters once in the at tenuation medium). Multiple scatter is generally taken into account by some scaling or filtering procedure. Their main advantages are short computational time and relatively good precision compared to previous more heuristical methods. Although these single scatter algorithms have been effective there are cases where their results are not that accurate. For low energy thresholds and large at tenuation mediums multiple scatter is increased. Given that a significant percentage of people are over -weight (thus the at tenuation medium has large volume) we should consider introducing multiple scatter events in our simulations. Moreover, the distribut ion of all scatter events is broader than the one of single scatter events therefore even if the single scatter distribution is scaled it will not match the total scatter one. In previous work by C. Tsoumpas et al, a new scatter simulation algorithm was developed that attempts to approximate the total scatter distribution by taking into account the case where the one annihilated photon is scattered twice and the case where both annihilated photons are scattered once. These two cases describe the double scatter events and by introducing them into our scatter simulation algorithm we aim to obtain a better approximation of the total scatter distribution. In this thesis we have improved this double scatter simulation algorithm in two important ways. When both annihilated photons scatter they acquire a favourable polarization direction with respect to each other and this influences thei r detect ion probabilities, especially when low energy photons are detected. In the algorithm that we implemented we considered this effect by using the polarized Klein-Nishina formula for this case. In addition, we investigated and validated the need to introduce extra solid angle factors in the implementation. The whole implementation is based on the STIR library (Software for Tomographic Image Reconstruction) written in the C++ programming language. Scatter events can also be simulated by Monte Carlo simulation packages such as SimSET. SimSET is a public domain package designed to simulate positron emission tomography (PET) (and Single Photon Emission Tomography) and was used extensively in this project. Monte Carlo packages because of their ability to exclude any unknown physical parameter they can simulate physical processes like the ones that take place in PET very accurately. Thus they were essential for the evaluation of our scatter correction algorithm. The reason why Monte Carlo packages are not used inclinical practice instead of the model-based methods is that they demand a large computational time. Besides Monte Carlo packages we also per formed a series of experimental scans in order to evaluate our scatter simulation algorithm. The tomograph used for the experiments was the ECAT 962 used in a 3D mode. / -
2

Simulating the performance of dual layer LSO-LuYAP phoswich PET detectors using GATE Monte Carlo simulation platform / Προσομοίωση της συμπεριφοράς ανιχνευτών διπλής στρώσης LSO-LuYAP (phoswich detector) για εφαρμογή στην τομογραφία εκπομπής ποζιτρονίων (PET) με χρήση της πλατφόρμας προσομοίωσης Monte Carlo-GATE

Μπερτσέκας, Νίκος 22 December 2008 (has links)
- / -
3

Improvement of PET resolution with super resolution techniques / Βελτίωση της διακριτικής ικανότητας της ΤΕΠ με τεχνικές super resolution

Καραβελάκη, Ευθυμία 11 September 2008 (has links)
Medical imaging is the main tool to extract a 3D modelling of the human body or specific organs within it. In order to accomplish this, various imaging modalities have been developed over the years, such as X-Ray Computed Tomography (CT), Magnetic Resonance Imaging (MRI) and Positron Emission Tomography (PET). Each one is based on a particular energy source that passes through the body and on specific physical laws, which define the meaning of noise and the sensitivity of the imaging process. In all medical imaging systems the main goal is to increase resolution since higher resolution is a key factor in increased information content, which is critical for increased accuracy in the understanding of the anatomy and in the assessment of size and morphological structure of organs, for early detection of abnormalities, suspected pathologies and more. In order to overcome the resolution limitations, one promising idea is to use signal processing techniques to enhance the spatial resolution. This approach proposes the acquisition of a high-resolution (HR) image from observed multiple low-resolution (LR) images. This image restoration approach is called super resolution (SR) image reconstruction (or restoration). It is the process of combining multiple low resolution images to form a high resolution image. The basic requirement in order to apply SR restoration techniques is the availability of multiple LR images captured from the same scene, which are sub-sampled (aliased) as well as shifted with subpixel precision. Each observed LR image is expressed as the result of a sequence of operators on the original HR image source, consisting of a geometrical warp, blurring and down-sampling. The SR image reconstruction method consists of three stages, registration, interpolation and restoration (i.e., inverse procedure). In the registration stage, the relative shifts between LR images, with reference to a certain LR image, are estimated with fractional pixel accuracy. Accurate sub-pixel motion estimation is a very important factor in the success of the SR image reconstruction algorithm. Since the shifts between LR images are arbitrary, the registered HR image will not always match up to a uniformly spaced HR grid. Thus, non-uniform interpolation is necessary, to obtain a uniformly spaced HR image from a non-uniformly spaced composite of LR images. Finally, image restoration is applied to the up-sampled image to remove blurring and noise. In order to evaluate the performance of SR reconstruction, a ‘simulate and correct’ approach to reconstruction is selected. First, simulated images of a computer generated phantom are formed and processed in order to comply with the observation model for the LR images. These are used as the images from which the HR image is constructed through the SR method. The iterative back-projection (IBP) algorithm suggested by Irani and Peleg has been chosen to be utilized, which belongs in the spatial domain methods and it is an easily and intuitively understood method. The results of the SR reconstruction are presented separately for the axial and the transaxial case. The evaluation relies on qualitative measures of image enhancement and on objective quantitative measures, such as the resolution (FWHM), the signal-to-noise ratio, the contrast ratio and the contrast-to-noise ratio. The performed trials demonstrated improvement in both the axial and transaxial resolution. The super-resolution images also provide a significantly improved contrast ratio, which is important for improving sensitivity for detection of small details and features. The improvement in resolution can be achieved without using any hardware changes or any increase in the patient radiation procedure. An important contribution of super-resolution is also the reduction of partial volume effects in the reconstructed image. The loss in SNR, which is a typical characteristic of all resolution enhancement algorithms, was not that considerable to preclude the clinical application of super-resolution. The overall evaluation demonstrated that the SR reconstruction is a post-processing method, which can provide medical images of higher resolution and better contrast ratio, without increasing the amount of radiation or the duration of the scan. / Η ιατρική απεικόνιση είναι το κύριο εργαλείο για την τρισδιάστατη μοντελοποίηση του ανθρώπινου σώματος και συγκεκριμένων οργάνων. Για να επιτευχθεί αυτό, διάφορες μέθοδοι απεικόνισης έχουν αναπτυχθεί, όπως η Υπολογιστική Τομογραφία, η Μαγνητική Τομογραφία και η Τομογραφία Εκπομπής Ποζιτρονίου. Η κάθε μία βασίζεται σε μια συγκεκριμένη πηγή ενέργειας η οποία διαπερνά το ανθρώπινο σώμα και έχει συγκεκριμένες φυσικές ιδιότητες. Σε όλα τα συστήματα ιατρικής απεικόνισης, ο βασικός στόχος είναι η βελτίωση της διακριτικής ικανότητας και κατα συνέπεια της παρεχόμενης πληροφορίας, η οποία είναι σημαντική για την ακρίβεια στην κατανόηση της ανατομίας και στην εκτίμηση του μεγέθους και της μορφολογίας των οργάνων, για την έγκαιρη διάγνωση ανωμαλιών κλπ. Μια από τις μεθόδους που έχουν προταθεί για τη βελτίωση της διακριτικής ικανότητας είναι η χρήση τεχνικών επεξεργασίας εικόνας. Σύμφωνα με αυτή τη μέθοδο, η οποία λέγεται Super Resolution, μια εικόνα υψηλής διακριτικής ικανότητας προκύπτει από πολλαπλές εικόνες χαμηλής διακριτικής ικανότητας. Η βασική προϋπόθεση για την εφαρμογή της μεθόδου είναι η ύπαρξη πολλαπλών εικόνων χαμηλής διακριτικής ικανότητας από την ίδια σκηνή, οι οποίες είναι μετατοπισμένες με ακρίβεια ενός κλάσματος píxel. Κάθε εικόνα χαμηλής διακριτικής ικανότητας εκφράζεται σαν το αποτέλεσμα ενός γεωμετρικού μετασχηματισμού, παραμόρφωσης και υπο-δειγματοληψίας της εικόνας υψηλής διακριτικής ικανότητας. Η ανακατασκευή μιας εικόνας με τη μέθοδο Super Resolution περιλαμβάνει τρία στάδια. Στο πρώτο στάδιο, υπολογίζονται οι σχετικές μετατοπίσεις μεταξύ των εικόνων. Η ακριβής εκτίμηση αυτής της σχετικής κίνησης είναι κρίσιμος παράγοντας για την απόδοση του αλγορίθμου ανακατασκευής. Για την εκτίμηση της απόδοσης της ανακατασκευής χρησιμοποιείται ένας αλγόριθμος ‘προσομοίωσης και διόρθωσης’. Αρχικά παράγονται οι εικόνες που θα χρησιμοποιηθούν σαν βάση για την ανακατασκευή της εικόνας υψηλής διακριτικής ικανότητας. Ο αλγόριθμος που χρησιμοποιείται είναι ο IBP (iterative back-projection), όπως προτάθηκε από τους Irani, Peleg. Η εκτίμηση της απόδοσης της μεθόδου βασίζεται σε ποιοτικά και ποσοτικά κριτήρια, όπως η διακριτική ικανότητα (FWHM), το SNR και η διακριτική ικανότητα αντίθεσης. Οι δοκιμές έδειξαν βελτίωση στην διακριτική ικανότητα και στην διακριτική ικανότητα αντίθεσης, η οποία είναι σημαντική για τη βελτίωση της ικανότητας ανίχνευσης λεπτομερειών. Οι βελτιώσεις αυτές επιτυγχάνονται χωρίς αλλαγές στο επίπεδο του υλικού και χωρίς αύξηση του χρόνου έκθεσης του ασθενούς στην ακτινοβολία. Η απώλεια σε SNR, η οποία είναι τυπική συνέπεια όλων των αλγορίθμων ανακατασκευής, δεν είναι απαγορευτική για τη χρήση της μεθόδου. Η συνολική εκτίμηση της μεθόδου, δείχνει ότι είναι μια μέθοδος επεξεργασίας, μέσω της οποίας μπορούν να προκύψουν ιατρικές εικόνες υψηλής διακριτικής ικανότητας, χωρίς την αύξηση της ποσότητας της ακτινοβολίας και του χρόνου έκθεσης του ασθενούς.
4

Ανάπτυξη block ανιχνευτών για τομογράφο εκπομπής ποζιτρονίων (PET)

Νικολάου, Μαρία Ελένη 10 October 2008 (has links)
Η Τομογραφία Εκπομπής Ποζιτρονίων, η οποία συχνά αναφέρεται με βάση το ακρωνύμιό της, PET (Positron Emission Tomography), αποτελεί μία πρωτοποριακή τεχνική απεικόνισης η οποία παρέχει εγκάρσιες τομές της λειτουργίας των διαφόρων δομών του ανθρωπίνου σώματος. Η Τομογραφία PET επιτρέπει την μεταβολική απεικόνιση αυτών των δομών (σε αντίθεση με τις ακτίνες-Χ και την Υπολογιστική Τομογραφία (CT – Computer Tomography) οι οποίες παρέχουν ανατομική απεικόνιση), σε μοριακό επίπεδο, και αυτός είναι ο λόγος που συχνά η Τομογραφία PET αναφέρεται ως μοριακή απεικόνιση. Ειδικότερα, οι τομογράφοι PET για μικρά ζώα (Small Animal PET) οι οποίοι απαιτούν ιδιαίτερα υψηλή διακριτική ικανότητα, διαδραματίζουν σημαντικό ρόλο στην βιολογία και στις in-vivo μελέτες της φαρμακοκινητικής των ιχνηθετών και του μεταβολισμού. Σύμφωνα με τη βιβλιογραφία έχουν αναφερθεί διάφοροι τύποι τομογράφων PET, στους οποίους χρησιμοποιήθηκαν διάφοροι τύποι ανιχνευτικών διατάξεων, με διαφορετικό σχεδιασμό σε κάθε περίπτωση. Η τεχνολογία αυτών των τομογράφων βασίζεται στη χρήση μικρών ανόργανων κρυστάλλων, κυρίς αποτελούμενων από BGO, GSO και LSO, οι οποίοι σχηματίζουν ένα block στο οποίο έχει προσαρτηθεί ένας φωτοπολλαπλασιαστής είτε με ευαισθησία θέσης (PS – PMT: Position Sensitive PhotoMultiplier Tube), είτε με πολλαπλές ανόδους (multianode PMT). To BGO (Bismuth Germanate Oxide) είναι το υλικό που χρησιμοποιείται σε αρκετούς εμπορικούς Τομογράφους, έχοντας πλέον αντικαταστήσει το ιωδιούχο νάτριο (ΝαΙ). Ένα πρότυπο σύστημα small animal PET χαμηλού κόστους βρίσκεται υπό ανάπτυξη, προκειμένου να μελετήσουμε τα επιμέρους σχεδιαστικά χαρακτηριστικά του και να μετρήσουμε την απόδοσή του. Ο βασικός block ανιχνευτής αποτελείται από μία 16×16 διάταξη επιμέρους BGO κρυστάλλων διαστάσεων 3.75×3.75×20 mm3, ο οποίος έχει τοποθετηθεί με ειδική διεργασία στην επιφάνεια ενός Hamamatsu R-2486 PSPMT. Με τη χρήση κατάλληλων ηλεκτρονικών διατάξεων και την ανάπτυξη ειδικού λογισμικού πραγματοποιήθηκαν μετρήσεις της απόδοσης των επιμέρους ανιχνευτών καθώς επίσης και μετρήσεις σχετικές με τους φωτοπολλαπλασιαστές. / Positron Emission Tomography, often referred to by its acronym, PET, is an emerging radiologic modality that yields transverse tomographic images of functioning organs in the human body. PET enables the metabolic imaging of organs (as opposed to the anatomic imaging provided by techniques such as the X-ray imaging or the Computerized Tomography (CT)), in molecular level, and this is the reason why it is characterized as molecular imaging. Especially, small animal PET tomographs which require high spatial resolution can play an important role in biology and studies of in vivo tracer pharmacokinetics and metabolism. Various implementations have been reported in the literature using a variety of detector and design technologies. The basic technology for these scanners is based on small inorganic crystals, mainly from BGO, GSO, and LSO, forming detector blocks read out by position sensitive and multianode PMTs. BGO is the material used in a lot of commercial scanners, having replaced NaI, mainly because BGO has higher stopping power and it is not hygroscopic. We have been developing a low-cost small animal PET prototype, in order to study specific design characteristics and measure its performance. The basic block detector design consists of a 16×16 array of 3.75×3.75×20 mm3 individual BGO crystals coupled to a Hamamatsu R-2486 PSPMT. Measurements of the individual detector performance as well as measurements of the PSPMTs have been performed.
5

Συστηματική μελέτη της απόδοσης εκπομπής φωτός και των αντίστοιχων ενδογενών φυσικών χαρακτηριστικών μονοκρυσταλλικών σπινθηριστών, με ενεργοποιητή τρισθενές δημήτριο (Ce3+) σε ευρεία κλίμακα ενεργειών (20kV-18MV) για ιατρικές εφαρμογές / Systematic study of the light emission efficiency and the corresponding intrinsic physical characteristics of single crystal scintillators, doped with the trivalent cerium (Ce3+) activator, in wide energy range (from 20kV-18MV) for medical applications

Βαλαής, Ιωάννης 14 October 2008 (has links)
Ο σκοπός της παρούσας διατριβής είναι να συμβάλει στην επιλογή του βέλτιστου σπινθηριστή ανάμεσα σε αυτούς που χρησιμοποιούνται στα σύγχρονα απεικονιστικά συστήματα τομογραφίας εκπομπής ποζιτρονίων PET και PET μικρών ζώων, ο οποίος θα μπορούσε να χρησιμοποιηθεί σε ένα ανιχνευτικό σύστημα πολλαπλών εφαρμογών PET/CT, MV CBCT, κλπ.) με έναν κοινό ανιχνευτή. Για το σκοπό αυτό μελετήθηκαν δείγματα από τους ακόλουθους κρυσταλλικούς σπινθηριστές: α) πυριτικού οξειδίου του γαδολινίου (GSO), β) πυριτικού οξειδίου του λουτεσίου (LSO), γ) πυριτικού οξειδίου του λουτεσίου-υτρίου (LΥSO), δ) αλουμινικού οξειδίου του υτρίου (YAP) και ε) αλουμινικού οξειδίου του λουτεσίου-υτρίου (LuYAP). Όλα τα δείγματα των σπινθηριστών ήταν ενεργοποιημένα με τρισθενές δημήτριο (Ce+3). Η μελέτη έγινε σε ευρεία κλίμακα ενεργειών (20kV-18MV). / The aim of this thesis was to select the best scintillator among the ones currently used in PET and animal PET systems, which could be used in a single detector multimodality scanner. To this aim crystal samples of GSO, LSO, LYSO, LuYAP and YAP scintillators, doped with cerium (Ce+3) were examined under a wide energy range (from 20kV-18MV). Measurements concerning determination of absolute efficiency, energy absorption efficiency, intrinsic conversion efficiency, detector optical gain and detector quantum efficiency, giving information on light yield and the intrinsic properties of the scintillators. Information on the compatibility of the light emission spectrum of the scintillators with the currently used optical photon detectors was obtained by calculating the spectral matching factors of each scintillator examined.
6

Εντοπισμός θέσης πηγής ακουστικής εκπομπής

Νικολακάκης, Ιγνάτιος 04 October 2011 (has links)
Η παρούσα διπλωματική εργασία αποτελεί βιβλιογραφική έρευνα πάνω στο επιστημονικό αντικείμενο της Ακουστικής Εκπομπής (ΑΕ) σαν μια από τις μεθόδους του Μη Καταστροφικού Ελέγχου (ΜΚΕ) και υλοποίηση της μεθόδου εντοπισμού της θέσης πηγής ΑΕ στο προγραμματιστικό περιβάλλον Matlab. Στην εργασία γίνεται αναφορά στις πιο διαδεδομένες μεθόδους του ΜΚΕ, στα πλεονεκτήματα της ΑΕ έναντι των άλλων μεθόδων. Γίνεται παρουσίαση των τεχνικών της ΑΕ, με βάση την ιστορική εξέλιξή της, από την συμβατική τεχνική που αξιοποιεί κάποιες παραμέτρους του σήματος, για την «ποιοτική» εκτίμηση της καταπόνησης του υλικού, μέχρι τις σύγχρονες τεχνικές που αξιοποιούν τις υπολογιστικές ικανότητες που προσφέρουν οι Θ/Τ δίνοντας τη δυνατότητα για μια περισσότερο «ποσοτική» εκτίμηση του μεγέθους και του είδους της αστοχίας. Γίνεται αναφορά στη θεωρία της διάδοσης των κυμάτων σε λεπτές πλάκες, ακρογωνιαίο λίθο της επεξεργασίας των σημάτων με πιο εξελιγμένες υπολογιστικές μεθόδους στο πεδίο του χρόνου και της συχνότητας. Παρουσιάζεται η εφαρμογή της θεωρίας της διάδοσης των κυμάτων στα σύνθετα υλικά, των προβλημάτων που παρουσιάζει η τεχνική της ΑΕ σε αυτά, καθώς και η αξιοποίηση των νευρωνικών δικτύων, στην χωρίς επίβλεψη αναγνώριση του είδους της αστοχίας σε σύνθετα υλικά. Γίνεται αναφορά στον μετασχηματισμό κυματιδίου σαν τεχνική ανάλυσης των κυματομορφών της ΑΕ. Τέλος παρουσιάζεται το πρόβλημα του εντοπισμού της θέσης της πηγής της ΑΕ, όπου υλοποιείται η μέθοδος που αξιοποιεί τους χρόνους άφιξης του σήματος στους αισθητήρες για τον υπολογισμό της θέσης της πηγής. Αναφέρονται οι σημαντικότερες και πιο πρόσφατες εργασίες της διεθνούς βιβλιογραφίας και σχολιάζονται οι τεχνικές που χρησιμοποιούνται για την εξαγωγή συμπερασμάτων για το είδος και την θέση της αστοχίας. / The thesis is a search about the techniques of acoustic emission. It refers to algorithms for finding the source location af acoustis emission. Finally, a new algorithm made on MATLAB environment is introduced.
7

Προσομοίωση σχηματισμού εικόνας συστημάτων πυρηνικής ιατρικής με μεθόδους Monte Carlo / Simulation of image formation in nuclear medicine imaging systems using Monte Carlo methods

Καρπέτας, Γεώργιος 11 October 2013 (has links)
Ο γενικός σκοπός της παρούσας μελέτης ήταν να προτείνει μια νέα μέθοδο για την πλήρη περιγραφή των χαρακτηριστικών ποιότητας εικόνας και την βελτιστοποίηση της Τομογραφίας Εκπομπής Ποζιτρονίων (PET) αναπτύσσοντας ένα μοντέλο Monte Carlo. Υλικά και Μέθοδοι: Η μέθοδος αναπτύχθηκε χρησιμοποιώντας τον κώδικα Monte Carlo (GEANT4 Application For Tomographic Emissions) του GEANT4 με το πακέτο λογισμικού GATE που αναπτύχθηκε από την Open-GATE collaboration. Για την ανακατασκευή των εικόνων χρησιμοποιήθηκε το λογισμικό STIR και για τη λήψη των δεδομένων της ανακατασκευής, από το GATE, χρησιμοποιήθηκε μια συστοιχία από 12 επεξεργαστές Dual Core Intel (R) Xeon (TM) 3.00GHz (Supermicro SuperServer 6015B-UR/NTR, Αγγλία). Ο σαρωτής PET που προσομοιώθηκε σε αυτή τη μελέτη ήταν ο General Electric Discovery-ST (ΗΠΑ). Το μοντέλο GATE πιστοποιήθηκε μέσω της σύγκρισης των αποτελεσμάτων που ελήφθησαν με δημοσιευμένα αποτελέσματα (Bettinardi et al 2004, Mawlawi et al 2004) τα οποία ακολουθούν το πρωτόκολλο της NEMA-NU-2 2001. Οι εικόνες ανακατασκευάστηκαν με τρεις μεθόδους, αρχικά με τη 2D φιλτραρισμένη οπισθοπροβολή (FBP2D), στη συνέχεια με τη μέθοδο της 3D φιλτραρισμένης οπισθοπροβολής (FPB3DRP), των Kinahan και Rogers, και τέλος με χρήση επαναληπτικών αλγορίθμων (MLE-OSMAPOSL). Αρχικά έγινε προσδιορισμός της Συνάρτησης Μεταφοράς Διαμόρφωσης (MTF) για την αξιολόγηση της ποιότητας εικόνας συστημάτων PET. Η αξιολόγηση έγινε μέσω της προσομοίωσης μιας νέας επίπεδης πηγής Λεπτού Χρωματογραφικού Φιλμ (Thin Layer Chromatography-TLC) το οποίο αποτελείται από ένα στρώμα Διοξειδίου του Πυριτίου και υποστρώματα φύλλου Αλουμινίου, εμβαπτισμένο σε 18F-FDG με ενεργότητα 44.4MBq. Η αξιολόγηση της MTF έγινε μέσω των ανακατασκευασμένων εικόνων της επίπεδης πηγής κάνοντας χρήση του λογισμικού STIR. Η αξιολόγηση της MTF πραγματοποιήθηκε επίσης: α) σε τρεις διαστάσεις (3D), τοποθετώντας την επίπεδη πηγή σε οριζόντια και σε κάθετη κατεύθυνση (διαστάσεις πηγής οριζόντια και κάθετα 5x10 εκατοστά), β) με σάρωση πηγής μεγαλύτερου πλάτους, ανακατασκευάζοντας την εγκάρσια τομή της (διαστάσεις 18x10cm) και γ) από ανακατασκευασμένες εικόνες σημειακής πηγής. Να τονίσουμε εδώ ότι η παρούσα μελέτη είχε ως στόχο να συγκρίνει την προτεινόμενη μέθοδο (αξιολόγηση της MTF μέσω επίπεδης πηγής) με την πιο παραδοσιακή τεχνική που βασίζεται σε σημειακές πηγές. Στη συνέχεια έγινε προσδιορισμός της Ανιχνευτικής Κβαντικής Αποδοτικότητας (DQE) για την εκτίμηση της συνολικής απόδοσης του συστήματος PET, μέσω υπολογισμού της Συνάρτησης Μεταφοράς Διαμόρφωσης και του Κανονικοποιημένου Φάσματος Ισχύος Θορύβου (NNPS). Οι καμπύλες της MTF υπολογίστηκαν από την ανακατασκευή των εγκάρσιων τομών της επίπεδης πηγής (1 MBq), ενώ το NNPS υπολογίστηκε από τις αντίστοιχες στεφανιαίες τομές. Οι εικόνες ανακατασκευάστηκαν εφαρμόζοντας επαναληπτικούς αλγόριθμους (MLE-OSMAPOSL), χρησιμοποιώντας διάφορα υποσύνολα των προβολών (subsets) (3 έως 21) και επαναλήψεων (iterations) (1 έως 20). Επιπλέον, η αξιολόγηση της DQE έγινε μέσω διερεύνησης της επίδρασης διαφόρων κρυστάλλων σπινθηριστών στην διακριτική ικανότητα (MTF) και τον θόρυβο (NNPS) των ανακατασκευασμένων εικόνων του PET. Σε αυτή την περίπτωση, ο αλγόριθμος ανακατασκευής της εικόνας MLE-OSMAPOSL, υλοποιήθηκε χρησιμοποιώντας 15 subsets και 3 iterations. Αποτελέσματα και Συζήτηση: Τα αποτελέσματα της πιστοποίησης μέσω σύγκρισης με δημοσιευμένα αποτελέσματα είναι τα ακόλουθα: Η Διακριτική Ικανότητα (Spatial Resolution, SR) στο Πλήρες Εύρος στο Ήμιση του Μέγιστου (Full Width at Half Maximum - FWHM) βρέθηκε να έχει απόκλιση μικρότερη από 3,29% σε λειτουργία 2D και μικρότερη από 2,51% σε λειτουργία 3D, σε σχέση με δημοσιευμένα πειραματικά αποτελέσματα (Mawlawi et al 2004), αντιστοίχως. Οι τιμές 2D, για την Ευαισθησία (Sensitivity), το Ποσοστό Σκέδασης (Scatter Fraction-SF) και την Απόδοση του Ρυθμού Μέτρησης (Count-Rate), τα οποία ελήφθησαν ακολουθώντας το πρωτόκολλο της NEMA NU 2-2001, βρέθηκαν να διαφέρουν λιγότερο από 0,46%, 4,59% και 7,86%, αντίστοιχα με τα δημοσιευμένα πειραματικά αποτελέσματα (Mawlawi et al 2004). Ακολούθως, οι αντίστοιχες τιμές σε λειτουργία 3D βρέθηκαν να διαφέρουν λιγότερο από 1,62%, 2,85% και 9,13%, αντίστοιχα, με τα δημοσιευμένα πειραματικά αποτελέσματα (Mawlawi et al 2004). Η ευαισθησία επιπλέον εκτιμήθηκε χωρίς την παρουσία υλικού εξασθένησης, προσομοιώνοντας απευθείας μια ιδανική πηγή. Οι διαφορές που προέκυψαν μεταξύ της ιδανικής πηγής και της μεθοδολογίας κατά NEMA-NU-2 2001 κυμαίνονται από 0,04% έως 0,82% (ακτινική θέση R = 0cm) σε λειτουργία 2D και από 0,52% έως 0,67% σε λειτουργία 3D (ακτινικές θέσεις R = 10cm). Συνεπώς κάνοντας χρήση αυτής της μεθόδου, η ευαισθησία μπορεί να προσδιοριστεί με πιο απλοποιημένη και γρήγορη διαδικασία. Οι τιμές του Ρυθμού Μέτρησης Ισοδύναμου Θορύβου (Noise Equivalent Count Rate-NECR) που προέκυψαν ήταν 94.31kcps σε 2D και 66.9kcps σε 3D στα 70 και 15kBq/mL αντίστοιχα, σε σύγκριση με τα δημοσιευμένα αποτελέσματα τα οποία ήταν 94.08kcps σε 2D και 70.88kcps σε 3D στα 54.6kBq/mL και 14kBq/mL αντίστοιχα. Οι τιμές για την ποιότητα εικόνας βρέθηκαν σε εξαιρετική συμφωνία με τα δημοσιευμένα αποτελέσματα. Αφού ολοκληρώθηκε η πιστοποίηση του μοντέλου έγινε υπολογισμός της MTF. Οι τιμές MTF που προέκυψαν από την ανακατασκευή με τον αλγόριθμο FBP2D βρέθηκαν σε εξαιρετική συμφωνία με αυτές που προέκυψαν από την ανακατασκευή με τον αλγόριθμο FBP3DRP, ενώ οι αντίστοιχες τιμές μέσω του αλγόριθμου MLE-OSMAPOSL ήταν σε όλο το φάσμα των χωρικών συχνοτήτων υψηλότερες σε σχέση με τους αλγόριθμους οπισθοπροβολής (FBP). Η προσομοίωση της μεγάλης επίπεδης πηγής με αλγορίθμους οπισθοπροβολής έδειξε ότι οι τιμές της MTF ελαττώνονται σταδιακά από το κέντρο προς τα άκρα του οπτικού πεδίου (Field Of View-FOV). H MTF, της κάθετης τομής, διέφερε ελάχιστα σε σχέση με την οριζόντια. Η σύγκριση της επίπεδης πηγής με τη σημειακή πηγή έδειξε ότι η πρώτη είναι λιγότερη ευαίσθητη στο θόρυβο (SD = 0,0031 και 0,0203, αντίστοιχα). Η αξιολόγηση της DQE μέσω επαναληπτικών αλγορίθμων MLE-OSMAPOSL έδειξε ότι η απόδοση του συστήματος βελτιώνεται όσο αυξάνεται ο αριθμός των επαναλήψεων μέχρι μια μέγιστη τιμή (12 iterations) και παρέμενε αναλλοίωτη από εκεί και έπειτα. Επιπλέον, η μεταβολή του αριθμού των subsets δεν είχε επίδραση στην MTF, για ίσο αριθμό επαναλήψεων. Αντίστοιχα τα επίπεδα θορύβου (NNPS) μειώθηκαν με την αύξηση του αριθμού των iterations και των subsets. Με βάση τα προηγούμενα οι τιμές της DQE επηρεάστηκαν τόσο από την MTF όσο και από το NNPS και βρέθηκαν να αυξάνουν με την αντίστοιχη αύξηση του αριθμού των iterations και των subsets. Τέλος, ο ανιχνευτής PET στον οποίο τοποθετήθηκαν κρύσταλλοι LuAP, παρείχε τις βέλτιστες τιμές MTF σε οπισθοπροβολή 2D και 3D ενώ η αντίστοιχη διαμόρφωση με κρυστάλλους BGO παρείχε τις βέλτιστες τιμές MTF μετά την ανακατασκευή με MLE-OSMAPOSL. Αντίστοιχα, ο ανιχνευτής με κρυστάλλους BGO είχε τα χαμηλότερα επίπεδα θορύβου και τις υψηλότερες τιμές DQE μετά από την εφαρμογή όλων των αλγόριθμων ανακατασκευής. Συμπερασματικά: Η παρούσα μελέτη έδειξε ότι η συνολική απόδοση συστημάτων PET μπορεί να χαρακτηριστεί πλήρως, να βελτιωθεί περαιτέρω και να γίνει πιο απλή με τη διερεύνηση των διαφόρων στοιχείων της αλυσίδας απεικόνισης μέσω μεθόδων Monte Carlo. Η μέθοδος αξιολόγησης ανιχνευτών ΡΕΤ, βασιζόμενη σε επίπεδη πηγή TLC, απαιτεί υλικά που είναι συνηθισμένα στο κλινικό περιβάλλον, μπορεί να εφαρμοστεί πειραματικά και να χρησιμοποιηθεί στην κλινική πράξη. Σε αυτή τη μελέτη χρησιμοποιήθηκε για την εκτίμηση και βελτιστοποίηση της ποιότητας εικόνας, αλλά μπορεί να είναι επίσης χρήσιμη στον τομέα της έρευνας για περαιτέρω ανάπτυξη συστημάτων ΡΕΤ και SPECT, μέσω προσομοιώσεων με το πακέτο λογισμικού GATE. Οι ανακατασκευασμένες εικόνες από το λογισμικό STIR μπορούν επίσης να χρησιμοποιηθούν για την εκτίμηση της κατανομής του ραδιοφαρμάκου, καθώς και την απευθείας λήψη της δοσιμετρικής κατανομής, με αντίστοιχο όφελος στους πυρηνικούς γιατρούς. / The overall purpose of this study was to propose a novel method for the complete image quality characterization and optimization of Positron Emission Tomography (PET) scanners with Monte-Carlo (MC) methods. Α model was developed using the Monte Carlo package of Geant4 Application for Tomographic Emission (GATE) and the software for tomographic image reconstruction (STIR) with cluster computing to obtain reconstructed images. The PET scanner used in this study was the General Electric Discovery-ST (US). The GATE model was validated by comparing results obtained in accordance with the National Electrical Manufacturers Association NEMA-NU-2-2001 protocol (Bettinardi et al 2004, Mawlawi et al 2004). Validation images were reconstructed with the commonly used 2D Filtered Back Projection (FBP2D) and the Kinahan and Rogers FPB3DRP Reprojection Algorithms. Image quality, in terms of the Modulation Transfer Function (MTF), was initially assessed with a novel plane source consisting of a Thin Layer Chromatography (TLC) plate, simulated by a layer of Silica gel on Aluminium foil substrates immersed in Fluorodeoxyglucose (18F-FDG) bath solution (44.4MBq). MTF was assessed from the evaluated STIR digital reconstructed images of the plane source. MTF was also assessed a) in three dimensions, in lines passing through the central axis of the PET scanner, by placing the plane source only horizontally and vertically (5x10cm), b) by scanning 18cm of the transaxial Field Of View (FOV) through the simulation of a horizontal large plane source (18x10cm) and c) by evaluating reconstructed point source images. Furthermore, the study aimed to compare the proposed method with the more traditional technique based on a line source. The complete image quality characterization was assessed in terms of the Detective Quantum Efficiency (DQE) by estimating the MTF and the Normalized Noise Power Spectrum (NNPS) of the 18F-FDG TLC plane source (1 MBq). MTFs curves were estimated from transverse reconstructed images of the plane source, whereas the NNPS data were estimated from the corresponding coronal images. Images were reconstructed by the Maximum Likelihood Estimation (MLE)-OSMAPOSL reprojection algorithm by using various subsets (3 to 21) and iterations (1 to 20). Additionally, the influence of different scintillating crystals on PET scanner’s image quality, in terms of the MTF, the NNPS and the DQE, was also investigated. In this case, OSMAPOSL image reconstruction was assessed by using 15 subsets and 3 iterations. The simulated spatial resolution in terms of Full Width at Half Maximum (FWHM) agreed with published data of Mawlawi et al (2004), within less than 3.29% in 2D and less than 2.51% in 3D with published data of others, respectively. The 2D values for the sensitivity, the scatter fraction and the count-rate were found to agree within less than 0.46%, 4.59% and 7.86%, respectively with corresponding published values. Accordingly, the corresponding 3D values were found to agree to less than 1.62%, 2.85% and 9.13%, respectively with Mawlawi et al (2004) published values. Sensitivity, which was also estimated in the absence of attenuation material by simulating an ideal source, showed differences between the extrapolated and the ideal source values (with and without attenuation) ranging in 2D from 0.04% to 0.82% (radial location R=0cm) in 2D and from 0.52% to 0.67% in 3D mode (radial locations R=10cm). By using this model, sensitivity can be obtained in a more simplified procedure. The simulated noise equivalent count rate was found to be 94.31kcps in 2D and 66.9kcps in 3D at 70 and 15kBq/mL respectively, compared to 94.08kcps in 2D and 70.88kcps in 3D at 54.6kBq/mL and 14kBq/mL respectively, from the published by others values. The simulated image quality was found in excellent agreement with these published values. The MTFs obtained using the FBP2D were in close agreement to those obtained by the FBP3DRP, whereas the MTFs of the OSMAPOSL show, in all cases, that higher frequencies are preserved than in the case of the FBP. FBP reconstructed images obtained from the large horizontal plane source showed that the MTF was found to degrade gradually as we move towards the edge of the FOV. The MTFs of the FBP images along the vertical direction were slightly lower than the corresponding horizontal ones. In addition, the plane source method is less prone to noise than the conventional line source method (sd=0.0031 and 0.0203, respectively). In the case of DQE investigation, MTF values assessed from the evaluated STIR digital reconstructed images, of the TLC based plane source, were found to improve as the number of iterations increased up to 12 and remain almost constant thereafter. Furthermore, variation in the number of subsets didn’t show any effect on the MTF, for equal number of iterations. The noise levels, in terms of the NNPS, in the reconstructed PET image, were found to decrease with the corresponding increase of both the number of iterations and subsets. DQE values were influenced by both MTF and NNPS and were found to increase with the corresponding increase in both number of iterations and subsets. Finally, the PET scanner configuration, incorporating LuAP crystals, provided the optimum MTF values in both 2D and 3DFBP whereas the corresponding configuration with BGO crystals was found with the higher MTF values after OSMAPOSL. The scanner incorporating BGO crystals were also found with the lowest noise levels and the highest DQE values after all image reconstruction algorithms. In conclusion, our study showed that the imaging performance of PET scanners can be fully characterized, further improved and simplified by investigation of the imaging chain components through MC methods. The simulated PET evaluation method, based on a TLC plane source, requires materials commonly found in a clinical environment and can be experimentally implemented and used in clinical practice. In this study it was used for the image quality assessment and optimization, but it can be also useful in research for the further development of PET and SPECT (Single Photon Emission Tomography) scanners though GATE simulations. Reconstructed images by STIR can be also used to obtain radiopharmaceutical distribution of images and direct dose maps, quite useful to nuclear medicine practitioners.
8

Στρατηγικές που επιτυγχάνουν την χωρητικότητα σε κανάλια ενός ή περισσοτέρων χρηστών

Καραχοντζίτης, Σωτήρης 16 March 2009 (has links)
Ο υπολογισμός της χωρητικότητας Shannon ενός τηλεπικοινωνιακού καναλιού είναι ένα από τα κλασικά προβλήματα της θεωρίας πληροφορίας. Η τιμή της προσδιορίζει το μέγιστο δυνατό ρυθμό αξιόπιστης μετάδοσης μέσα από το κανάλι και αποτελεί ρυθμιστική παράμετρο κατά το σχεδιασμό κάθε τηλεπικοινωνιακού συστήματος. Στις πιο ενδιαφέρουσες περιπτώσεις ο υπολογισμός καταλήγει σε ένα πρόβλημα βελτιστοποίησης για το οποίο δε μπορεί να δοθεί αναλυτική λύση, οπότε καταφεύγουμε στη χρήση προσεγγιστικών μεθόδων ή στη διατύπωση φραγμάτων. Στα πλαίσια της εργασίας μελετάται η χωρητικότητα Shannon τηλεπικοινωνιακών καναλιών ενός ή πολλαπλών χρηστών. Η μελέτη ξεκινά από την απλές περιπτώσεις του διακριτού καναλιού χωρίς μνήμη (DMC) και του καναλιού AWGN και επεκτείνεται στις πιο ενδιαφέρουσες περιπτώσεις των σύμφωνων ή μη (coherence/non-coherence) καναλιών διάλειψης, σε κανάλια με μνήμη, κανάλια πολλαπλών κεραιών και κανάλια πολλαπλών χρηστών. Σε κάθε περίπτωση καταγράφονται τα σημαντικότερα ερευνητικά αποτελέσματα σχετικά με το πρόβλημα προσδιορισμού της χωρητικότητας, τη συμπεριφορά της σε σχέση με τους παράγοντες του τηλεπικοινωνιακού μοντέλου, του αλγοριθμικού υπολογισμού της και τα χαρακτηριστικά που πρέπει να έχει η είσοδος ώστε να επιτυγχάνεται η τιμή της. / Computing the Shannon Capacity of a communication channel is one of the classic problems of information theory. Its value determine the maximum possible rate of reliable transmission through the channel and constitutes a design parameter during the designing of the communication system. In most interesting cases the problem ending to an optimization problem which can’t be solved analytically, so we refuge to approximating methods and we can only state bounds for the region in which capacity belongs. In this thesis we study the Shannon Capacity of single user and multiple user communications systems. The study begins with the simple cases of Discrete Memoryless Channel (DMC) and AWGN channel and goes further to more interesting cases like coherence/non-coherence fading channels, channels with memory, multiple antenna channels and channels with multiple users. In each case, we present the most important scientific results considering the problem of capacity, its behavior in relation to the parameters of the communication model, its algorithmic computation and the characteristics of the optimal input.
9

Προσδιορισμός εκπομπών αέριων ρύπων στα αστικά κέντρα της Ελλάδας

Δημοπούλου, Μαρία 23 October 2007 (has links)
Στα πλαίσια της εργασίας θα ασχοληθούμε με την μεθοδολογία υπολογισμού των ρυθμών εκπομπής αέριων ρύπων στα αστικά κέντρα της Ελλάδας. Οι πήγες της ατμοσφαιρικής ρύπανσης διακρίνονται σε σημειακές, επιφανειακές, ανθρωπογενείς και φυσικές. Στο πρώτο στάδιο θα γίνει καταγραφή και κατηγοριοποίηση των διαφόρων πηγών για τις Ελληνικές συνθήκες με βάση την διεθνή βιβλιογραφία. Οι μέθοδοι προσδιορισμού των ρυθμών εκπομπής θα διερευνηθούν. Συνήθως οι υπολογισμοί απαιτούν δυο ειδών παραμέτρους: την ένταση μιας δραστηριότητας (π.χ πόσα χιλιόμετρα διανύονται σε μια περιοχή από τα αυτοκίνητα μιας ορισμένης κατηγορίας σε μια περιοχή), και τον ρυθμό εκπομπής ανά μονάδα της δραστηριότητας (π.χ εκπομπές οξειδίων του αζώτου ανά χιλιόμετρο). Ανάλογα με την πηγή οι μέθοδοι μπορεί να είναι πιο πολύπλοκοι ή να απαιτούν την γνώση μεταβλητών που δεν είναι εύκολο να βρεθούν. Οι διαφορετικές προσεγγίσεις θα συγκριθούν τόσο με βάση την ακρίβεια τους όσο και με την δυνατότητα εφαρμογής τους στην Ελλάδα. Το τελικό αποτέλεσμα της εργασίας θα είναι μια αναλυτική μεθοδολογία υπολογισμού των εκπομπών ρύπων σε μια Ελληνική πόλη και συγκεκριμένα στην πόλη της Πάτρας, όπου θα μελετηθεί η εκπομπή αέριων ρύπων από τα επιβατικά πλοία τα οποία χρησιμοποιούν το λιμάνι της Πάτρας. Η παρούσα εργασία θα στοχεύσει στον προσδιορισμό της συγκέντρωσης αέριων ρύπων (σωματιδίων PM) στο αστικό κέντρο της Πάτρας, λαμβάνοντας ως πηγή ρύπων τα επιβατικά πλοία που παραμένουν στο Λιμάνι της Πάτρας. Η συγκέντρωση των αέριων ρύπων τέλος, θα υπολογισθεί με χρήση της Gaussian Plume Formula [JS Seinfeld and SN Pandis: “Atmospheric Chemistry and Physics: From Air Pollution to Climate Change”, 2nd edition, John Willey & Sons, INC]. / -
10

Μελέτη και κατασκευή συστήματος οδήγησης μονοχρωμάτορα με σκοπό την καταγραφή φασμάτων που εκπέμπονται από ηλεκτρικές εκκενώσεις / Study and construction of a monochromator control system in orded to capture spectra emitted from gas discharges

Μαυροειδής, Αλκιβιάδης 14 February 2012 (has links)
Στα πλαίσια της παρούσας διπλωματικής εργασίας μελετήθηκε, σχεδιάστηκε και κατασκευάστηκε ένα σύστημα ελέγχου ενός φασματοσκοπίου εκπομπής υψηλής φασματικής ανάλυσης. Η συσκευή αυτή, γνωστή και ως μονοχρωμάτορας, χρησιμοποιήθηκε για την καταγραφή φασμάτων εκπομπής από μία εκκένωση αίγλης σε διάκενο ακίδα-πλάκα σε συνθήκες χαμηλής πίεσης και θερμοκρασίας. Ο μονοχρωμάτορας χρησιμοποιεί ένα διάφραγμα περίθλασης που αναλύει μια πολυχρωματική δέσμη που προσπίπτει σε αυτό, στα επιμέρους μήκη κύματος Ο έλεγχος του συνόλου των λειτουργιών του συστήματος καθώς και η καταγραφή των φασμάτων πραγματοποιείται με τη χρήση λογισμικού που αναπτύχθηκε υπό την πλατφόρμα Labview. Στα πλαίσια αυτής της εργασίας υλοποιήθηκε: Η σύνδεση της συσκευής οδήγησης του βηματικού κινητήρα που περιστρέφει το διάφραγμα με κατάλληλο τροφοδοτικό. Η ενίσχυση των σημάτων ελέγχου της συσκευής οδήγησης. Η ενίσχυση και καταγραφή του ρεύματος του φωτοπολλαπλασιαστή που καταγράφει τη φωτεινή δραστηριότητα. Η βαθμονόμηση του μονοχρωμάτορα. Η ανάπτυξη λογισμικού, φιλικού προς τον χρήστη, με το οποίο ελέγχεται ο μονοχρωμάτορας, καταγράφεται το φάσμα και αποθηκεύεται σε αρχείο για περαιτέρω επεξεργασία. Η συγκέντρωση του φωτός που εκπέμπεται από την εκκένωση και η οδήγησή του στην είσοδο του μονοχρωμάτορα με τη χρήση κατάλληλης οπτικής διάταξης. Η καταγραφή φασμάτων του παραγόμενου πλάσματος της εκκένωσης κατά μήκος του διακένου. Η μελέτη και ανάλυση των καταγεγραμμένων φασμάτων. / The main purpose of this thesis was to construct a control system for a high precision spectrometer. Using this spectrometer, also known as monochromator, spectra was recorded from a low temperature – low pressure, pin to plate, glow discharge. The monochromator uses a diffraction grating to separate spatially a polychromatic beam of light available at its input. The stepper motor control, along with the recording of spectra, is being conducted by suitable software developed under the Labview platform. Among the challenges of the thesis was to: Αssemble a stepper motor controller which rotates the diffraction grating with a suitable power supply. Αmplify the control signals of the controller. Αmplify the photomultiplier signals which records the luminous intensity. Calibrate the monochromator. Develop a user-friendly software which can control the monochromator, record spectra and export a file with the recorded spectra for further use. Concentrate the emitted light of the discharge and guide it to the monochromator's input slit, using a UV lens and an optical fiber. Capture emitted spectra of the produced plasma, at different positions along the pin to plate gap. Analyze the recorded spectra.

Page generated in 0.9981 seconds