• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 18
  • 9
  • 2
  • 1
  • 1
  • Tagged with
  • 31
  • 10
  • 8
  • 7
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Stråldosreducering med hjälp av artificiell intelligens vid datortomografiundersökningar : En litteraturöversikt / X-ray radiation dose reduction using artificial intelligence in computed tomography examinations : A literature overview

Järnkärna, Ali Kaan January 2021 (has links)
Introduktion: Datortomografi är en effektiv och snabb undersökningsmetod och skapar en detaljrik bild. Antal datortomografi undersökningar ökar varje år och relativt högstråldoser som kan bli skadligt är oroväckande. Det finns metoder som kan sänka och/eller förebygga joniserande strålning. Artificiell intelligens kan uppfylla uppgifter som kräver mänsklig intelligens. I dagsläget pågår forskningar gällande stråldosreduktion med hjälp av artificiell intelligens. Syfte: Syftet med studien är att undersöka om det är möjligt att reducera stråldosen med hjälp av AI vid DT-undersökningar. Metod: Studiens metod är en litteraturstudie. Efter en litteratursökning i Pubmed, Cinahl och Web of science valdes 13 artiklar. Artiklar kvalitetsgranskades och analyserades. Resultat: Resultatet baserades på analys av 13 vetenskapliga artiklar. I analysen av artiklarna framkom två kategorier: Patientförberedelser (innan undersökningen) och Bildbehandling (efter undersökningen). Bildbehandling består av två under kategorier: Fantom- och patientstudier. Enligt resultaten visade automatisk patientplacering (AP) mer noggrann patient placering än manuell patientplacering (MP) och AP reducerade stråldosen redan innan undersökningen genom rätt val av vertikal placering och scanlängd. Djupinlärning bildrekonstruktion algoritmen (DLIR) reducerade stråldosen cirka 72% och gav jämförbart bildkvalitet till standarddosbilder. Slutsatser: Stråldosen kunde reduceras både genom att använda AI vid patientplacering och med hjälp av olika rekonstruktionstekniker efter att bilderna har tagits. I dagsläget finns det begränsat antal studier utförda inom området och det behövs vidare studier.
22

Einfluss von Strahlendosis und Bildrekonstruktion auf die computertomographische Densitometrie der pulmonalen Überbelüftung

Schwarzkopf, Peter 30 March 2011 (has links) (PDF)
Maschinelle Beatmung kann neben den gewünschten Effekten eine vorbestehende Lungenerkrankung weiter aggravieren und sogar das Lungenparenchym zuvor lungengesunder Patienten schädigen. Mit Hilfe der quantitativen Computertomographie (qCT) können pathologische Belüftungszustände und gegebenenfalls durch maschinelle Beatmung verursachte Schäden analysiert werden. Solche auf der qCT basierende Analysen der Lungenbelüftung werden jedoch potentiell durch CT-Akquisitions- und Bildrekonstruktionsparameter beeinflusst. Um die Ergebnisse vor allem von Analysen des überbelüfteten Lungenvolumens richtig bewerten zu können, müssen solche Einflüsse untersucht werden. Bei 10 Versuchstieren (Schweine) wurden bei einem konstanten Atemwegsdruck von 25 cm H2O zuerst bei gesunder Lunge und dann erneut nach experimenteller Lungenschädigung CT-Bildserien mit zwei unterschiedlichen Strahlendosen angefertigt. Von diesen Rohdaten wurden Bildserien mit unterschiedlichen Rekonstruktionsparametern angefertigt und in jeder dieser Bildserien das überbelüftete Lungenvolumen bestimmt. Sowohl die Schichtdicke, der Filter als auch die Stromstärke hatten einen signifikanten Einfluss auf das eigentlich konstante überbelüftete Lungenvolumen, der jedoch nur teilweise klinisch relevant war. Bei der Interpretation von Messungen des überbelüfteten Lungenvolumens sollten dennoch die Einflüsse der genannten Parameter beachtet und für Vergleichsuntersuchungen gleiche Parametereinstellungen verwendet werden. Eine Dosisreduktion scheint dabei für Messungen des überbelüfteten Lungenvolumens praktikabel.
23

Advanced Methods for Radial Data Sampling in Magnetic Resonance Imaging / Erweiterte Methoden für radiale Datenabtastung bei der Magnetresonanz-Tomographie

Block, Kai Tobias 16 September 2008 (has links)
No description available.
24

Nonlinear Reconstruction Methods for Parallel Magnetic Resonance Imaging / Nichtlineare Rekonstruktionsmethoden für die parallele Magnetresonanztomographie

Uecker, Martin 15 July 2009 (has links)
No description available.
25

Development of methods for time efficient scatter correction and improved attenuation correction in time-of-flight PET/MR

Nikulin, Pavel 06 November 2019 (has links)
In der vorliegenden Dissertation wurden zwei fortdauernde Probleme der Bildrekonstruktion in der time-of-flight (TOF) PET bearbeitet: Beschleunigung der TOF-Streukorrektur sowie Verbesserung der emissionsbasierten Schwächungskorrektur. Aufgrund der fehlenden Möglichkeit, die Photonenabschwächung direkt zu messen, ist eine Verbesserung der Schwächungskorrektur durch eine gemeinsame Rekonstruktion der Aktivitäts- und Schwächungskoeffizienten-Verteilung mittels der MLAA-Methode von besonderer Bedeutung für die PET/MRT, während eine Beschleunigung der TOF-Streukorrektur gleichermaßen auch für TOF-fähige PET/CT-Systeme relevant ist. Für das Erreichen dieser Ziele wurde in einem ersten Schritt die hochauflösende PET-Bildrekonstruktion THOR, die bereits zuvor in unserer Gruppe entwickelt wurde, angepasst, um die TOF-Information nutzen zu können, welche von allen modernen PET-Systemen zur Verfügung gestellt wird. Die Nutzung der TOF-Information in der Bildrekonstruktion führt zu reduziertem Bildrauschen und zu einer verbesserten Konvergenzgeschwindigkeit. Basierend auf diesen Anpassungen werden in der vorliegenden Arbeit neue Entwicklungen für eine Verbesserung der TOF-Streukorrektur und der MLAA-Rekonstruktion beschrieben. Es werden sodann Ergebnisse vorgestellt, welche mit den neuen Algorithmen am Philips Ingenuity PET/MRT-Gerät erzielt wurden, das gemeinsam vom Helmholtz-Zentrum Dresden-Rossendorf (HZDR) und dem Universitätsklinikum betrieben wird. Eine wesentliche Voraussetzung für eine quantitative TOF-Bildrekonstruktionen ist eine Streukorrektur, welche die TOF-Information mit einbezieht. Die derzeit übliche Referenzmethode hierfür ist eine TOF-Erweiterung des single scatter simulation Ansatzes (TOF-SSS). Diese Methode wurde im Rahmen der TOF-Erweiterung von THOR implementiert. Der größte Nachteil der TOF-SSS ist eine 3–7-fach erhöhte Rechenzeit für die Berechnung der Streuschätzung im Vergleich zur non-TOF-SSS, wodurch die Bildrekonstruktionsdauer deutlich erhöht wird. Um dieses Problem zu beheben, wurde eine neue, schnellere TOF-Streukorrektur (ISA) entwickelt und implementiert. Es konnte gezeigt werden, dass dieser neue Algorithmus eine brauchbare Alternative zur TOF-SSS darstellt, welche die Rechenzeit auf ein Fünftel reduziert, wobei mithilfe von ISA und TOF-SSS rekonstruierte Schnittbilder quantitativ ausgezeichnet übereinstimmen. Die Gesamtrekonstruktionszeit konnte mithilfe ISA bei Ganzkörperuntersuchungen insgesamt um den Faktor Zwei reduziert werden. Dies kann als maßgeblicher Fortschritt betrachtet werden, speziell im Hinblick auf die Nutzung fortgeschrittener Bildrekonstruktionsverfahren im klinischen Umfeld. Das zweite große Thema dieser Arbeit ist ein Beitrag zur verbesserten Schwächungskorrektur in der PET/MRT mittels MLAA-Rekonstruktion. Hierfür ist zunächst eine genaue Kenntnis der tatsächlichen Zeitauflösung in der betrachten PET-Aufnahme zwingend notwendig. Da die vom Hersteller zur Verfügung gestellten Zahlen nicht immer verlässlich sind und zudem die Zählratenabhängigkeit nicht berücksichtigen, wurde ein neuer Algorithmus entwickelt und implementiert, um die Zeitauflösung in Abhängigkeit von der Zählrate zu bestimmen. Dieser Algorithmus (MLRES) basiert auf dem maximum likelihood Prinzip und erlaubt es, die funktionale Abhängigkeit der Zeitauflösung des Philips Ingenuity PET/MRT von der Zählrate zu bestimmen. In der vorliegenden Arbeit konnte insbesondere gezeigt werden, dass sich die Zeitauflösung des Ingenuity PET/MRT im klinisch relevanten Zählratenbereich um mehr als 250 ps gegenüber der vom Hersteller genannten Auflösung von 550 ps verschlechtern kann, welche tatsächlich nur bei extrem niedrigen Zählraten erreicht wird. Basierend auf den oben beschrieben Entwicklungen konnte MLAA in THOR integriert werden. Die MLAA-Implementierung erlaubt die Generierung realistischer patientenspezifischer Schwächungsbilder. Es konnte insbesondere gezeigt werden, dass auch Knochen und Hohlräume korrekt identifiziert werden, was mittels MRT-basierter Schwächungskorrektur sehr schwierig oder sogar unmöglich ist. Zudem konnten wir bestätigen, dass es mit MLAA möglich ist, metallbedingte Artefakte zu reduzieren, die ansonsten in den MRT-basierten Schwächungsbildern immer zu finden sind. Eine detaillierte Analyse der Ergebnisse zeigte allerdings verbleibende Probleme bezüglich der globalen Skalierung und des lokalen Übersprechens zwischen Aktivitäts- und Schwächungsschätzung auf. Daher werden zusätzliche Entwicklungen erforderlich sein, um auch diese Defizite zu beheben. / The present work addresses two persistent issues of image reconstruction for time-of-flight (TOF) PET: acceleration of TOF scatter correction and improvement of emission-based attenuation correction. Due to the missing capability to measure photon attenuation directly, improving attenuation correction by joint reconstruction of the activity and attenuation coefficient distribution using the MLAA technique is of special relevance for PET/MR while accelerating TOF scatter correction is of equal importance for TOF-capable PET/CT systems as well. To achieve the stated goals, in a first step the high-resolution PET image reconstruction THOR, previously developed in our group, was adapted to take advantage of the TOF information delivered by state-of-the-art PET systems. TOF-aware image reconstruction reduces image noise and improves convergence rate both of which is highly desirable. Based on these adaptations, this thesis describes new developments for improvement of TOF scatter correction and MLAA reconstruction and reports results obtained with the new algorithms on the Philips Ingenuity PET/MR jointly operated by the Helmholtz-Zentrum Dresden-Rossendorf (HZDR) and the University Hospital. A crucial requirement for quantitative TOF image reconstruction is TOF-aware scatter correction. The currently accepted reference method — the TOF extension of the single scatter simulation approach (TOF-SSS) — was implemented as part of the TOF-related modifications of THOR. The major drawback of TOF-SSS is a 3–7 fold increase in computation time required for the scatter estimation, compared to regular SSS, which in turn does lead to a considerable image reconstruction slowdown. This problem was addressed by development and implementation of a novel accelerated TOF scatter correction algorithm called ISA. This new algorithm proved to be a viable alternative to TOF-SSS and speeds up scatter correction by a factor of up to five in comparison to TOF-SSS. Images reconstructed using ISA are in excellent quantitative agreement with those obtained when using TOF-SSS while overall reconstruction time is reduced by a factor of two in whole-body investigations. This can be considered a major achievement especially with regard to the use of advanced image reconstruction in a clinical context. The second major topic of this thesis is contribution to improved attenuation correction in PET/MR by utilization of MLAA reconstruction. First of all, knowledge of the actual time resolution operational in the considered PET scan is mandatory for a viable MLAA implementation. Since vendor-provided figures regarding the time resolution are not necessarily reliable and do not cover count-rate dependent effects at all, a new algorithm was developed and implemented to determine the time resolution as a function of count rate. This algorithm (MLRES) is based on the maximum likelihood principle and allows to determine the functional dependency of the time resolution of the Philips Ingenuity PET/MR on the given count rate and to integrate this information into THOR. Notably, the present work proves that the time resolution of the Ingenuity PET/MR can degrade by more than 250 ps for the clinically relevant range of count rates in comparison to the vendor-provided figure of 550 ps which is only realized in the limit of extremely low count rates. Based on the previously described developments, MLAA could be integrated into THOR. The performed list-mode MLAA implementation is capable of deriving realistic, patient-specific attenuation maps. Especially, correct identification of osseous structures and air cavities could be demonstrated which is very difficult or even impossible with MR-based approaches to attenuation correction. Moreover, we have confirmed that MLAA is capable of reducing metal-induced artifacts which are otherwise present in MR-based attenuation maps. However, the detailed analysis of the obtained MLAA results revealed remaining problems regarding stability of global scaling as well as local cross-talk between activity and attenuation estimates. Therefore, further work beyond the scope of the present work will be necessary to address these remaining issues.
26

Content-Aware Image Restoration Techniques without Ground Truth and Novel Ideas to Image Reconstruction

Buchholz, Tim-Oliver 12 August 2022 (has links)
In this thesis I will use state-of-the-art (SOTA) image denoising methods to denoise electron microscopy (EM) data. Then, I will present NoiseVoid a deep learning based self-supervised image denoising approach which is trained on single noisy observations. Eventually, I approach the missing wedge problem in tomography and introduce a novel image encoding, based on the Fourier transform which I am using to predict missing Fourier coefficients directly in Fourier space with Fourier Image Transformer (FIT). In the next paragraphs I will summarize the individual contributions briefly. Electron microscopy is the go to method for high-resolution images in biological research. Modern scanning electron microscopy (SEM) setups are used to obtain neural connectivity maps, allowing us to identify individual synapses. However, slow scanning speeds are required to obtain SEM images of sufficient quality. In (Weigert et al. 2018) the authors show, for fluorescence microscopy, how pairs of low- and high-quality images can be obtained from biological samples and use them to train content-aware image restoration (CARE) networks. Once such a network is trained, it can be applied to noisy data to restore high quality images. With SEM-CARE I present how this approach can be directly applied to SEM data, allowing us to scan the samples faster, resulting in $40$- to $50$-fold imaging speedups for SEM imaging. In structural biology cryo transmission electron microscopy (cryo TEM) is used to resolve protein structures and describe molecular interactions. However, missing contrast agents as well as beam induced sample damage (Knapek and Dubochet 1980) prevent acquisition of high quality projection images. Hence, reconstructed tomograms suffer from low signal-to-noise ratio (SNR) and low contrast, which makes post-processing of such data difficult and often has to be done manually. To facilitate down stream analysis and manual data browsing of cryo tomograms I present cryoCARE a Noise2Noise (Lehtinen et al. 2018) based denoising method which is able to restore high contrast, low noise tomograms from sparse-view low-dose tilt-series. An implementation of cryoCARE is publicly available as Scipion (de la Rosa-Trevín et al. 2016) plugin. Next, I will discuss the problem of self-supervised image denoising. With cryoCARE I exploited the fact that modern cryo TEM cameras acquire multiple low-dose images, hence the Noise2Noise (Lehtinen et al. 2018) training paradigm can be applied. However, acquiring multiple noisy observations is not always possible e.g. in live imaging, with old cryo TEM cameras or simply by lack of access to the used imaging system. In such cases we have to fall back to self-supervised denoising methods and with Noise2Void I present the first self-supervised neural network based image denoising approach. Noise2Void is also available as an open-source Python package and as a one-click solution in Fiji (Schindelin et al. 2012). In the last part of this thesis I present Fourier Image Transformer (FIT) a novel approach to image reconstruction with Transformer networks. I develop a novel 1D image encoding based on the Fourier transform where each prefix encodes the whole image at reduced resolution, which I call Fourier Domain Encoding (FDE). I use FIT with FDEs and present proof of concept for super-resolution and tomographic reconstruction with missing wedge correction. The missing wedge artefacts in tomographic imaging originate in sparse-view imaging. Sparse-view imaging is used to keep the total exposure of the imaged sample to a minimum, by only acquiring a limited number of projection images. However, tomographic reconstructions from sparse-view acquisitions are affected by missing wedge artefacts, characterized by missing wedges in the Fourier space and visible as streaking artefacts in real image space. I show that FITs can be applied to tomographic reconstruction and that they fill in missing Fourier coefficients. Hence, FIT for tomographic reconstruction solves the missing wedge problem at its source.:Contents Summary iii Acknowledgements v 1 Introduction 1 1.1 Scanning Electron Microscopy . . . . . . . . . . . . . . . . . . . . 3 1.2 Cryo Transmission Electron Microscopy . . . . . . . . . . . . . . . 4 1.2.1 Single Particle Analysis . . . . . . . . . . . . . . . . . . . . 5 1.2.2 Cryo Tomography . . . . . . . . . . . . . . . . . . . . . . . 7 1.3 Tomographic Reconstruction . . . . . . . . . . . . . . . . . . . . . 8 1.4 Overview and Contributions . . . . . . . . . . . . . . . . . . . . . 11 2 Denoising in Electron Microscopy 15 2.1 Image Denoising . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 2.2 Supervised Image Restoration . . . . . . . . . . . . . . . . . . . . 19 2.2.1 Training and Validation Loss . . . . . . . . . . . . . . . . 19 2.2.2 Neural Network Architectures . . . . . . . . . . . . . . . . 21 2.3 SEM-CARE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 2.3.1 SEM-CARE Experiments . . . . . . . . . . . . . . . . . . 23 2.3.2 SEM-CARE Results . . . . . . . . . . . . . . . . . . . . . 25 2.4 Noise2Noise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 2.5 cryoCARE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 2.5.1 Restoration of cryo TEM Projections . . . . . . . . . . . . 27 2.5.2 Restoration of cryo TEM Tomograms . . . . . . . . . . . . 29 2.5.3 Automated Downstream Analysis . . . . . . . . . . . . . . 31 2.6 Implementations and Availability . . . . . . . . . . . . . . . . . . 32 2.7 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 2.7.1 Tasks Facilitated through cryoCARE . . . . . . . . . . . 33 3 Noise2Void: Self-Supervised Denoising 35 3.1 Probabilistic Image Formation . . . . . . . . . . . . . . . . . . . . 37 3.2 Receptive Field . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 3.3 Noise2Void Training . . . . . . . . . . . . . . . . . . . . . . . . . 39 3.3.1 Implementation Details . . . . . . . . . . . . . . . . . . . . 41 3.4 Experiments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 3.4.1 Natural Images . . . . . . . . . . . . . . . . . . . . . . . . 43 3.4.2 Light Microscopy Data . . . . . . . . . . . . . . . . . . . . 44 3.4.3 Electron Microscopy Data . . . . . . . . . . . . . . . . . . 47 3.4.4 Errors and Limitations . . . . . . . . . . . . . . . . . . . . 48 3.5 Conclusion and Followup Work . . . . . . . . . . . . . . . . . . . 50 4 Fourier Image Transformer 53 4.1 Transformers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 4.1.1 Attention Is All You Need . . . . . . . . . . . . . . . . . . 55 4.1.2 Fast-Transformers . . . . . . . . . . . . . . . . . . . . . . . 56 4.1.3 Transformers in Computer Vision . . . . . . . . . . . . . . 57 4.2 Methods . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 4.2.1 Fourier Domain Encodings (FDEs) . . . . . . . . . . . . . 57 4.2.2 Fourier Coefficient Loss . . . . . . . . . . . . . . . . . . . . 59 4.3 FIT for Super-Resolution . . . . . . . . . . . . . . . . . . . . . . . 60 4.3.1 Super-Resolution Data . . . . . . . . . . . . . . . . . . . . 60 4.3.2 Super-Resolution Experiments . . . . . . . . . . . . . . . . 61 4.4 FIT for Tomography . . . . . . . . . . . . . . . . . . . . . . . . . 63 4.4.1 Computed Tomography Data . . . . . . . . . . . . . . . . 64 4.4.2 Computed Tomography Experiments . . . . . . . . . . . . 66 4.5 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 5 Conclusions and Outlook 71
27

Calculating Center of Mass Using List Mode Data from PET Biograph128 mCT-1104 / Beräkning av masscentrum genom användning av list mode data från PET Biograph128 mCT-1104

Rane, Lukas, Runeskog, Henrik January 2019 (has links)
A common problem within positron emission tomography examinations of the brain is the motion of the patient. If the patients ́ head moves during an examination all the data acquired after the movement will not be suited for clinical use. This means that a lot of data recovered from PET is not used at all. Motion tracking during PET acquisitions of the brain is not a well explored issue within medical imaging in relation to the magnitude of the problem. Due to the radiation risks of the examination and the logistics at the hospital, a second acquisition is not preferred. Therefore a method to avoid a second acquisition would be welcome. PET data saved in list mode makes it possible to analyze the data during an examination. By calculating the center of mass of the object examined in list mode only using the raw data from PET and use it as a tracking point, it would be possible to track a motion during an acquisition. The center of mass could therefore possibly be used as a reference to connect two different time intervals on each side of the moment were the motion occurred. The raw PET data used for this project was acquired in the Nuclear Medicine Department in Karolinska University Hospital in Huddinge and covered four turns of one minute acquisitions in different positions and with two different objects that were saved in list mode. The acquisitions were analyzed with the Siemens software e7-tools and sliced into time intervals. To calculate the center of mass within these time intervals, two methods were developed. One method only used the Siemens software e7-tools and histogrammed the time of flight bin position. The other method used each event position in its sinogram to calculate a center of mass sinusoidal equation. This equation lead to coordinates describing the center of mass in a specific slice. / Ett vanligt problem inom positronemissiontomografiundersökningar av hjärnan är rörelser från patienten. Om patienten rör sitt huvud under undersökningen kommer all förvärvad data inte vara kliniskt lämpad. Detta innebär att en stor del av datan från en PET-undersökning inte används över huvud taget. Rörelsespårning under PET undersökningar av hjärnan är ett relativt outforskat ämne inom medicinsk bildgivning i relation till amplituden av problemet. På grund av strålningsrisken av un- dersökningen och logistiken på sjukhusen, är en andra bildtagning inte att föredra. Därför skulle en metod för att undvika en andra bildtagning vara uppskattad. PET-rådata sparad i list mode möjliggör analys av data inom tidsspektrat av en undersökning. Genom att beräkna det undersökta objektets barocentrum genom att enbart använda rådata sparad i list mode och använda detta som en referenspunkt, så finns en möjlighet att följa en rörelse under en undersökning. Objektets barocentrum skulle kunna fungera som en referenspunkt för att binda ihop två olika tidsegment på varsin sida om tillfället då en rörelse har skett. Rådatan som användes i detta projekt var förvärvad vid nukleärmedicinska avdelningen på Karolinska Universetetssjukhuset i Huddinge och täckte fyra stycken undersökningar på en minut vardera i olika positioner och två olika objekt som sparades i list mode. Datainsamlingarna över- sattes med Siemens-mjukvaran e7-tools och delades sedan upp i tidsegment. För att räkna ut ett barocentrum i dessa tidssegment så utvecklades två metoder. En metod använde sig enbart av Siemens-mjukvaran e7-tools och använde dess funktion ”histogramming” för att dela upp alla events time of flight position. Den andra metoden använde varje events position i dess sinogram för att beräkna en barocentrisk sinusformad funktion. Denna funktion ledde till koordinater som beskrev masscentrum i en specifik skiva.
28

Coil Sensitivity Estimation and Intensity Normalisation for Magnetic Resonance Imaging / Spolkänslighetsbestämning och intensitetsnormalisering för magnetresonanstomografi

Herterich, Rebecka, Sumarokova, Anna January 2019 (has links)
The quest for improved efficiency in magnetic resonance imaging has motivated the development of strategies like parallel imaging where arrays of multiple receiver coils are operated simultaneously in parallel. The objective of this project was to find an estimation of phased-array coil sensitivity profiles of magnetic resonance images of the human body. These sensitivity maps can then be used to perform an intensity inhomogeneity correction of the images. Through investigative work in Matlab, a script was developed that uses data embedded in raw data from a magnetic resonance scan, to generate coil sensitivities for each voxel of the volume of interest and recalculate them to two-dimensional sensitivity maps of the corresponding diagnostic images. The resulting mapped sensitivity profiles can be used in Sensitivity Encoding where a more exact solution can be obtained using the carefully estimated sensitivity maps of the images. / Inom magnetresonanstomografi eftersträvas förbättrad effektivitet, villket bidragit till utvecklingen av strategier som parallell imaging, där arrayer av flera mottagarspolar andvänds samtidigt. Syftet med detta projekt var att uppskattamottagarspolarnas känslighetskarta för att utnyttja dem till i metoder inom magnetresonansavbildning. Dessa känslighetskartor kan användas för att utföra intensitetsinhomogenitetskorrigering av bilderna. Genom utforskande arbete i Matlab utvecklades ett skript som tillämpar inbyggd rådata, från en magnetiskresonansavbildning för att generera spolens känslighet för varje voxel av volymen och omberäkna dem till tvådimensionella känslighetskartor av motsvarande diagnostiska bilder. De resulterande kartlagda känslighetsprofilerna kan användas i känslighetskodning, där en mer exakt lösning kan erhållas med hjälp av de noggrant uppskattade känslighetskartorna.
29

Deep Learning-based Regularizers for Cone Beam Computed Tomography Reconstruction / Djupinlärningsbaserade regulariserare för rekonstruktion inom volymtomografi

Syed, Sabina, Stenberg, Josefin January 2023 (has links)
Cone Beam Computed Tomography is a technology to visualize the 3D interior anatomy of a patient. It is important for image-guided radiation therapy in cancer treatment. During a scan, iterative methods are often used for the image reconstruction step. A key challenge is the ill-posedness of the resulting inversion problem, causing the images to become noisy. To combat this, regularizers can be introduced, which help stabilize the problem. This thesis focuses on Adversarial Convex Regularization that with deep learning regularize the scans according to a target image quality. It can be interpreted in a Bayesian setting by letting the regularizer be the prior, approximating the likelihood with the measurement error, and obtaining the patient image through the maximum-a-posteriori estimate. Adversarial Convex Regularization has previously shown promising results in regular Computed Tomography, and this study aims to investigate its potential in Cone Beam Computed Tomography.  Three different learned regularization methods have been developed, all based on Convolutional Neural Network architectures. One model is based on three-dimensional convolutional layers, while the remaining two rely on 2D layers. These two are in a later stage crafted to be applicable to 3D reconstruction by either stacking a 2D model or by averaging 2D models trained in three orthogonal planes. All neural networks are trained on simulated male pelvis data provided by Elekta. The 3D convolutional neural network model has proven to be heavily memory-consuming, while not performing better than current reconstruction methods with respect to image quality. The two architectures based on merging multiple 2D neural network gradients for 3D reconstruction are novel contributions that avoid memory issues. These two models outperform current methods in terms of multiple image quality metrics, such as Peak Signal-to-Noise Ratio and Structural Similarity Index Measure, and they also generalize well for real Cone Beam Computed Tomography data. Additionally, the architecture based on a weighted average of 2D neural networks is able to capture spatial interactions to a larger extent and is adjustable to favor the plane that best shows the field of interest, a possibly desirable feature in medical practice. / Volymtomografi kan användas inom cancerbehandling för att skapa bilder av patientens inre anatomi i 3D som sedan används vid stråldosplanering. Under den rekonstruerande fasen i en skanning används ofta iterativa metoder. En utmaning är att det resulterande inversionsproblemet är illa ställt, vilket leder till att bilderna blir brusiga. För att motverka detta kan regularisering introduceras som bidrar till att stabilisera problemet. Fokus för denna uppsats är Adversarial Convex Regularization som baserat på djupinlärning regulariserar bilderna enligt en målbildskvalitet. Detta kan även tolkas ur ett Bayesianskt perspektiv genom att betrakta regulariseraren som apriorifördelningen, approximera likelihoodfördelningen med mätfelet samt erhålla patientbilden genom maximum-a-posteriori-skattningen. Adversarial Convex Regularization har tidigare visat lovande resultat för data från Datortomografi och syftet med denna uppsats är att undersöka dess potential för Volymtomografi.  Tre olika inlärda regulariseringsmetoder har utvecklats med hjälp av faltningsnätverk. En av modellerna bygger på faltning av tredimensionella lager, medan de återstående två är baserade på 2D-lager. Dessa två sammanförs i ett senare skede för att kunna appliceras vid 3D-rekonstruktion, antingen genom att stapla 2D modeller eller genom att beräkna ett viktat medelvärde av tre 2D-modeller som tränats i tre ortogonala plan. Samtliga modeller är tränade på simulerad manlig bäckendata från Elekta. 3D-faltningsnätverket har visat sig vara minneskrävande samtidigt som det inte presterar bättre än nuvarande rekonstruktionsmetoder med avseende på bildkvalitet. De andra två metoderna som bygger på att stapla flera gradienter av 2D-nätverk vid 3D-rekonstruktion är ett nytt vetenskapligt bidrag och undviker minnesproblemen. Dessa två modeller överträffar nuvarande metoder gällande flera bildkvalitetsmått och generaliserar även väl för data från verklig Volymtomografi. Dessutom lyckas modellen som bygger på ett viktat medelvärde av 2D-nätverk i större utsträckning fånga spatiala interaktioner. Den kan även anpassas till att gynna det plan som bäst visar intresseområdet i kroppen, vilket möjligtvis är en önskvärd egenskap i medicinska sammanhang.
30

Einfluss von Strahlendosis und Bildrekonstruktion auf die computertomographische Densitometrie der pulmonalen Überbelüftung: Dissertation zur Erlangung des akademischen Grades Dr. med.an der medizinischen Fakultät der Universität Leipzig

Schwarzkopf, Peter 22 February 2011 (has links)
Maschinelle Beatmung kann neben den gewünschten Effekten eine vorbestehende Lungenerkrankung weiter aggravieren und sogar das Lungenparenchym zuvor lungengesunder Patienten schädigen. Mit Hilfe der quantitativen Computertomographie (qCT) können pathologische Belüftungszustände und gegebenenfalls durch maschinelle Beatmung verursachte Schäden analysiert werden. Solche auf der qCT basierende Analysen der Lungenbelüftung werden jedoch potentiell durch CT-Akquisitions- und Bildrekonstruktionsparameter beeinflusst. Um die Ergebnisse vor allem von Analysen des überbelüfteten Lungenvolumens richtig bewerten zu können, müssen solche Einflüsse untersucht werden. Bei 10 Versuchstieren (Schweine) wurden bei einem konstanten Atemwegsdruck von 25 cm H2O zuerst bei gesunder Lunge und dann erneut nach experimenteller Lungenschädigung CT-Bildserien mit zwei unterschiedlichen Strahlendosen angefertigt. Von diesen Rohdaten wurden Bildserien mit unterschiedlichen Rekonstruktionsparametern angefertigt und in jeder dieser Bildserien das überbelüftete Lungenvolumen bestimmt. Sowohl die Schichtdicke, der Filter als auch die Stromstärke hatten einen signifikanten Einfluss auf das eigentlich konstante überbelüftete Lungenvolumen, der jedoch nur teilweise klinisch relevant war. Bei der Interpretation von Messungen des überbelüfteten Lungenvolumens sollten dennoch die Einflüsse der genannten Parameter beachtet und für Vergleichsuntersuchungen gleiche Parametereinstellungen verwendet werden. Eine Dosisreduktion scheint dabei für Messungen des überbelüfteten Lungenvolumens praktikabel.:Inhaltsverzeichnis 0 Abkürzungsverzeichnis 1 1 Einleitung 3 1.1 Ventilator-associated Lung Injury (VALI) 3 1.2 Computertomographie und Diagnostik von Lungenerkrankungen 5 1.3 Spiral-CT 9 1.4 Datenerfassung und Bildrekonstruktion 10 1.5 Grundlagen zur Dichtemessung 12 1.6 Einfluss von Filter und Schichtdicke auf das Bild 13 1.7 Einfluss von Filter und Schichtdicke auf die Analyse der pulmonalen Überbelüftung 15 1.8 Zielstellung 17 2 Materialien und Methodik 18 2.1 Versuchstiere 18 2.2 Überblick über den Versuchsablauf 18 2.2.1 Prämedikation und Narkoseführung 18 2.2.2 Induktion des Lungenschadens 20 2.2.3 CT-Scans und Bildrekonstruktionen 21 2.3 Segmentierung und volumetrische Analyse 22 2.4 Statistische Analyse 24 3 Ergebnisse 26 3.1 Einfluss von Schichtdicke, Filter und Stromstärke auf normale Lungen 26 3.2 Einfluss von Schichtdicke, Filter und Stromstärke auf geschädigte Lungen 34 3.3 Vergleich der automatischen und manuellen Segmentierung 38 4 Diskussion 40 4.1 Einfluss von Schichtdicke und Filter 42 4.2 Einfluss der Stromstärke 49 4.3 Einfluss der experimentell induzierten Lungenschädigung 53 4.4 Vergleich der Segmentierungssoftware 55 4.5 Diskussion der Methodik 55 4.6 Schlussfolgerung 58 5 Zusammenfassung der Arbeit 60 6 Literaturverzeichnis 63 7 Danksagung 77 8 Erklärung über die eigenständige Abfassung der Arbeit 78

Page generated in 0.1361 seconds