Spelling suggestions: "subject:"brennverfahren"" "subject:"schreibverfahren""
601 |
Accelerated non-Cartesian cardiovascular MR Imaging at 3T and 7T / Beschleunigte nicht-kartesische MRT Herzbildgebung bei 3T und 7TEirich, Philipp January 2022 (has links) (PDF)
In this work, accelerated non-Cartesian Magnetic Resonance Imaging (MRI) methods were established and applied to cardiovascular imaging (CMR) at different magnetic field strengths (3T and 7T).
To enable rapid data acquisition, highly efficient spiral k-space trajectories were created. In addition, hybrid sampling patterns such as the twisting radial lines (TWIRL) k-space trajectory were studied.
Imperfections of the dynamic gradient system of a MR scanner result in k-space sampling errors. Ultimately, these errors can lead to image artifacts in non-Cartesian acquisitions.
Among other reasons such as an increased reconstruction complexity, they cause the lack of spiral sequences in clinical routine compared to standard Cartesian imaging.
Therefore, the Gradient System Transfer Functions (GSTFs) of both scanners were determined and used for k-space trajectory correction in post-correction as well as in terms of a pre-emphasis.
The GSTF pre-emphasis was implemented as a fully automatic procedure, which enabled a precise correction of arbitrary gradient waveforms for double-oblique slice orientations.
Consequently, artifacts due to trajectory errors could be mitigated, which resulted in high image quality in non-Cartesian MRI.
Additionally, the GSTF correction was validated by measuring pre-emphasized spiral gradient outputs, which showed high agreement with the theoretical gradient waveforms.
Furthermore, it could be demonstrated that the performance of the GSTF correction is superior to a simple delay compensation approach.
The developed pulse sequences were applied to gated as well as real-time CMR. Special focus lied on the implementation of a spiral imaging protocol to resolve the beating heart of animals and humans in real time and free breathing.
In order to achieve real-time CMR with high spatiotemporal resolution, k-space undersampling was performed. For this reason, efficient sampling strategies were developed with the aim to facilitate compressed sensing (CS) during image reconstruction.
The applied CS approach successfully removed aliasing artifacts and yielded high-resolution cardiac image series. Image reconstruction was performed offline in all cases such that the images were not available immediately after acquisition at the scanner.
Spiral real-time CMR could be performed in free breathing, which led to an acquisition time of less than 1 minute for a whole short-axis stack.
At 3T, the results were compared to the gold standard of electrocardiogram-gated Cartesian CMR in breath hold, which revealed similar values for important cardiovascular functional and volumetric parameters.
This paves the way to an application of the developed framework in clinical routine of CMR.
In addition, the spiral real-time protocol was transferred to swallowing and speech imaging at 3T, and first images were presented.
The results were of high quality and confirm the straightforward utilization of the spiral sequence in other fields of MRI.
In general, the GSTF correction yielded high-quality images at both field strengths, 3T and 7T.
Off-resonance related blurring was mitigated by applying non-Cartesian readout gradients of short duration. At 7T, however, B1-inhomogeneity led to image artifacts in some cases.
All in all, this work demonstrated great advances in accelerating the MRI process by combining efficient, undersampled non-Cartesian k-space coverage with CS reconstruction.
Trajectory correction using the GSTF can be implemented at any scanner model and enables non-Cartesian imaging with high image quality.
Especially MRI of dynamic processes greatly benefits from the presented rapid imaging approaches. / In der vorliegenden Arbeit wurden Methoden der beschleunigten Magnetresonanztomographie (MRT) etabliert, welche auf nicht-kartesischer Datenaufnahme beruhen.
Diese wurden insbesondere in der Herzbildgebung bei verschiedenen Magnetfeldstärken (3T und 7T) angewendet.
Der Fokus lag auf der Entwicklung von hocheffizienten spiralförmigen k-Raum Trajektorien, mit dem Zweck sehr kurze Aufnahmezeiten zu ermöglichen.
Zusätzlich wurde eine hybride k-Raum Trajektorie untersucht, die sogenannte "twisting radial lines (TWIRL)" k-Raum Trajektorie.
Ungenauigkeiten des dynamischen Gradientensystems eines MRT Scanners resultieren in fehlerbehafteter k-Raum Abtastung während der Datenaufnahme.
In der nicht-kartesischen Bildgebung kann dies letztendlich zu Artefakten im rekonstruierten Bild führen.
Zusammen mit anderen Hemmnissen, wie beispielsweise einer komplexeren Bildrekonstruktion, sind sie verantwortlich dafür, dass noch immer mehrheitlich kartesische Bildgebungssequenzen in der klinischen Routine durchgeführt werden.
Aus diesem Grund wurden die Übertragungsfunktionen der Gradientensysteme der verwendeten MRT Scanner (eng. "Gradient System Transfer Function (GSTF)") bestimmt und für k-Raum Trajektorienkorrekturen verwendet.
Diese Korrektur wurde sowohl in der Bildrekonstruktion nach bereits erfolgter Datenaufnahme angewendet als auch im Rahmen einer Vorverstärkung bevor die Gradienten ausgespielt werden.
Diese Vorverstärkung wurde als vollständig automatisierter Prozess implementiert und ermöglichte eine präzise Korrektur beliebig gewählter Gradientenfunktionen aller Schichtorientierungen.
Auf diesem Wege konnten die durch Trajektorienfehler verursachten Bildartefakte kompensiert werden, was zu hoher Bildqualität in der nicht-kartesischen MRT Bildgebung führte.
Des Weiteren wurde die Gradientenkorrektur durch Messungen der tatsächlich ausgespielten Gradientenformen validiert. Diese wiesen eine hohe Übereinstimmung mit den theoretisch zu erwarteten Gradientenformen auf.
Darüber hinaus wurde gezeigt, dass die auf der Impulsantwort basierende, umfassende Gradientenkorrektur eine höhere Bildqualität ermöglicht als eine einfache Korrektur mittels globaler Zeitverschiebungen.
Die entwickelten MRT Sequenzen wurden sowohl in der segmentierten als auch in der Echtzeit-Herzbildgebung angewendet.
Im Speziellen lag der Fokus auf der Implementierung eines Protokolls für die spirale MRT Bildgebung, welche das schlagende Herz von Tieren und Menschen in Echtzeit und freier Atmung auflösen kann.
Um Echtzeit-Herzbildgebung mit hoher räumlicher und zeitlicher Auflösung zu vereinen, wurde der k-Raum unterabgetastet.
In diesem Zusammenhang wurden Strategien zur effizienten und komprimierten Datenaufnahme entwickelt, unter Anwendung der Modell-basierten "Compressed Sensing" (CS)-Technik.
Diese Methode reduziert Aliasing-Artefakte in der Bildrekonstruktion von unterabgetasteten Daten und ermöglicht deshalb hochaufgelöste, dynamische Echtzeit-Bilderserien des schlagenden Herzens.
Allerdings wurden die gemessenen Daten stets extern rekonstruiert, sodass die Bilder nicht unmittelbar nach der Aufnahme am MRT Scanner verfügbar waren.
Die spirale Echtzeit-Herzbildgebung konnte in freier Atmung durchgeführt werden, was eine Messzeit aller Schichten in der kurzen Herzachse in unter 1 Minute ermöglichte.
Bei 3T wurden die Ergebnisse mit dem Goldstandard der mittels eines Elektrokardiogramms segmentierten kartesischen Herzbildgebung im Atemstopp verglichen und es konnte gezeigt werden, dass wichtige funktionelle und volumetrische Herzparameter übereinstimmen.
Dies ebnet den Weg zur Anwendung des entwickelten Protokolls in der klinischen Routine der Herzbildgebung am MRT.
Darüber hinaus wurde das Protokoll in der Echtzeit-Bildgebung von Schlucken und Sprechen bei 3T getestet.
Die Ergebnisse waren ebenfalls von hoher Qualität und bestätigen den unkomplizierten Transfer der spiralen Sequenz in andere Bereiche der MRT Bildgebung.
Insgesamt lieferte die GSTF-Korrektur Bilder von hoher Qualität bei beiden Feldstärken, 3T und 7T.
Eine durch off-Resonanz verursachte Bildunschärfe wurde durch kurze Auslesezeiten der nicht-kartesischen Gradienten abgeschwächt.
Allerdings führte B1-Inhomogenität in manchen Fällen zu Bildartefakten bei 7T.
Die vorliegende Arbeit stellt einen wesentlichen Beitrag zur Beschleunigung des MRT Bildgebungsprozesses dar, indem effiziente, unterabgetastete nicht-kartesische k-Raum Trajektorien mit der CS-Rekonstruktionstechnik kombiniert wurden.
Trajektorien-Korrektur basierend auf der GSTF kann prinzipiell an jedem MRT Scanner implementiert werden und legt den Grundstein für nicht-kartesische Bildgebung mit hoher Bildqualität.
Insbesondere die Bildgebung von dynamischen Prozessen profitiert von den hier vorgestellten beschleunigten Methoden zur Datenaufnahme.
|
602 |
X-Ray Dark-Field Tensor Tomography : a Hitchhiker's Guide to Tomographic Reconstruction and Talbot Imaging / Röntgen-Dunkelfeld-Tensor-Tomographie : ein Handbuch zur Tomographischen Rekonstruktion und Talbot-BildgebungGraetz [geb. Dittmann], Jonas January 2022 (has links) (PDF)
X-ray dark-field imaging allows to resolve the conflict between the demand for centimeter scaled fields of view and the spatial resolution required for the characterization of fibrous materials structured on the micrometer scale. It draws on the ability of X-ray Talbot interferometers to provide full field images of a sample's ultra small angle scattering properties, bridging a gap of multiple orders of magnitude between the imaging resolution and the contrasted structure scale. The correspondence between shape anisotropy and oriented scattering thereby allows to infer orientations within a sample's microstructure below the imaging resolution. First demonstrations have shown the general feasibility of doing so in a tomographic fashion, based on various heuristic signal models and reconstruction approaches. Here, both a verified model of the signal anisotropy and a reconstruction technique practicable for general imaging geometries and large tensor valued volumes is developed based on in-depth reviews of dark-field imaging and tomographic reconstruction techniques.
To this end, a wide interdisciplinary field of imaging and reconstruction methodologies is revisited. To begin with, a novel introduction to the mathematical description of perspective projections provides essential insights into the relations between the tangible real space properties of cone beam imaging geometries and their technically relevant description in terms of homogeneous coordinates and projection matrices. Based on these fundamentals, a novel auto-calibration approach is developed, facilitating the practical determination of perspective imaging geometries with minimal experimental constraints. A corresponding generalized formulation of the widely employed Feldkamp algorithm is given, allowing fast and flexible volume reconstructions from arbitrary tomographic imaging geometries. Iterative reconstruction techniques are likewise introduced for general projection geometries, with a particular focus on the efficient evaluation of the forward problem associated with tomographic imaging. A highly performant 3D generalization of Joseph's classic linearly interpolating ray casting algorithm is developed to this end and compared to typical alternatives. With regard to the anisotropic imaging modality required for tensor tomography, X-ray dark-field contrast is extensively reviewed. Previous literature is brought into a joint context and nomenclature and supplemented by original work completing a consistent picture of the theory of dark-field origination. Key results are explicitly validated by experimental data with a special focus on tomography as well as the properties of anisotropic fibrous scatterers. In order to address the pronounced susceptibility of interferometric images to subtle mechanical imprecisions, an efficient optimization based evaluation strategy for the raw data provided by Talbot interferometers is developed. Finally, the fitness of linear tensor models with respect to the derived anisotropy properties of dark-field contrast is evaluated, and an iterative scheme for the reconstruction of tensor valued volumes from projection images is proposed. The derived methods are efficiently implemented and applied to fiber reinforced plastic samples, imaged at the ID19 imaging beamline of the European Synchrotron Radiation Facility. The results represent unprecedented demonstrations of X-ray dark-field tensor tomography at a field of view of 3-4cm, revealing local fiber orientations of both complex shaped and low-contrast samples at a spatial resolution of 0.1mm in 3D. The results are confirmed by an independent micro CT based fiber analysis. / Die Röntgen-Dunkelfeld-Bildgung vermag den Widerspruch zwischen dem Bedarf nach großen Sichtfeldern im Zentimeterbereich und der nötigen Bildauflösung zur Charakterisierung von Fasermaterialien mit Strukturgrößen im Mikrometerbereich aufzulösen. Sie bedient sich dafür der Eigenschaft von Röntgen-Talbot-Interferometern, Ultrakleinwinkelstreueigenschaften einer Probe vollflächig abzubilden, womit eine Lücke von mehreren Größenordnung zwischen der Bildauflösung und der konstrastgebenden Strukturgröße überbrückt werden kann. Der Zusammenhang zwischen Strukturanisotropie und gerichteter Streuung ermöglicht dabei Rückschlüsse auf die Orientierung der Mikrostruktur einer Probe unterhalb der Bildauflösung. Erste Demonstrationen haben, basiered auf verschiedenen heuristischen Signalmodellen und Rekonstruktrionsansätzen, die grundsätzliche Erweiterbarkeit auf die Volumen-Bildgebung gezeigt. In der vorliegenden Arbeit wird, aufbauend auf einer umfassenden Analyse der Dunkelfeld-Bildgebung und tomographischer Rekonstruktionsmethoden, sowohl ein verifiziertes Modell der Signalanisotropie als auch eine Rekonstruktionstechnik entwickelt, die für große tensorwertige Volumina und allgemeine Abbildungsgeometrien praktikabel ist.
In diesem Sinne wird ein weites interdisziplinäres Feld von Bildgebungs- und Rekonstruktionsmethoden aufgearbeitet. Zunächst werden anhand einer neuen Einführung in die mathematische Beschreibung perspektivischer Projektionen essenzielle Einsichten in die Zusammenhänge zwischen der greifbaren Realraum-Darstellung der Kegelstrahl-Geometrie und ihrer technisch relevanten Beschreibung mittels homogener Koordinaten und Projektionsmatrizen gegeben. Aufbauend auf diesen Grundlagen wird eine neue Methode zur Auto-Kalibration entwickelt, die die praktische Bestimmung von perspektivischen Abbildungsgeometrien unter minimalen Anforderungen an die experimentelle Ausführung ermöglicht. Passend dazu wird eine verallgemeinerte Formulierung des weit verbreiteten Feldkamp-Algorithmus gegeben, um eine schnelle und flexible Volumenrekonstruktion aus beliebigen tomographischen Bildgebungsgeometrien zu ermöglichen. Iterative Rekonstruktionsverfahren werden ebenfalls für allgemeine Aufnahmegeometrien eingeführt, wobei ein Schwerpunkt auf der effizienten Berechnung des mit der tomographischen Bildgebung assoziierten Vorwärtsproblems liegt. Zu diesem Zweck wird eine hochperformante 3D-Erweiterung des klassischen, linear interpolierenden Linienintegrationsalgorithmus von Joseph entwickelt und mit typischen Alternativen verglichen. In Bezug auf die anisotrope Bildmodalität, die die Grundlage der Tensortomographie bildet, wird der Röntgen-Dunkelfeld-Kontrast umfassend besprochen. Die vorhandende Literatur wird dazu in einen gemeinsamen Kontext und eine gemeinsame Nomenklatur gebracht und mit neuen Überlegungen zu einer konsistenten Darstellung der Theorie zur Dunkelfeldsignalentstehung vervollständigt. Zentrale Ergebnisse werden dabei explizit anhand experimenteller Daten verifiziert, wobei besonders die Tomographie und die Eigenschaften anisotroper, faseriger Streuer im Vordergrund stehen. Um die ausgeprägte Empfindlichkeit interferometrischer Bilder auf feinste mechanische Instabilitäten zu kompensieren, wird ein effizientes Optimierungsverfahren zur Auswertung der Rohdaten aus Talbot-Interferometern entwickelt. Schließlich wird die Anwendbarkeit von linearen Tensor-Modellen in Bezug auf die hergeleiteten Anisotropie-Eigenschaften des Dunkelfeld-Kontrastes diskutiert, und ein iteratives Verfahren für die Rekonstruktion tensorwertiger Volumen aus Projektionsbildern vorgeschlagen. Die entwickelten Methoden werden effizient implementiert und auf Proben aus faserverstärktem Kunstoff angewandt, die dafür an der Bildgebungs-Strahllinie ID19 des Europäischen Synchrotrons ESRF abgebildet wurden. Die Ergebnisse stellen eine bisher einmalige Demonstration von Röntgen-Dunkelfeld-Tensor-Tomographie mit einem Sichtfeld von 3-4cm dar, wobei lokale Faserorientierung sowohl für komplex geformte als auch kontrastarme Objekte mit einer räumlichen Auflösung von 0.1mm in 3D dargestellt werden kann. Ein unabhängiger Vergleich mit Mikro-CT basierter Faser-Analyse bestätigt die Ergebnisse.
|
603 |
Numerical schemes for multi-species BGK equations based on a variational procedure applied to multi-species BGK equations with velocity-dependent collision frequency and to quantum multi-species BGK equations / Numerische Verfahren für multispezies BGK Gleichungen mittels Variationsansatz angewandt auf multispezies BGK Gleichungen mit geschwindigkeitsabhängiger Stoßfrequenz sowie auf quantenmechanische multispezies BGK GleichungenWarnecke, Sandra January 2022 (has links) (PDF)
We consider a multi-species gas mixture described by a kinetic model. More precisely, we are interested in models with BGK interaction operators. Several extensions to the standard BGK model are studied.
Firstly, we allow the collision frequency to vary not only in time and space but also with the microscopic velocity. In the standard BGK model, the dependence on the microscopic velocity is neglected for reasons of simplicity. We allow for a more physical description by reintroducing this dependence. But even though the structure of the equations remains the same, the so-called target functions in the relaxation term become more sophisticated being defined by a variational procedure.
Secondly, we include quantum effects (for constant collision frequencies). This approach influences again the resulting target functions in the relaxation term depending on the respective type of quantum particles.
In this thesis, we present a numerical method for simulating such models. We use implicit-explicit time discretizations in order to take care of the stiff relaxation part due to possibly large collision frequencies. The key new ingredient is an implicit solver which minimizes a certain potential function. This procedure mimics the theoretical derivation in the models. We prove that theoretical properties of the model are preserved at the discrete level such as conservation of mass, total momentum and total energy, positivity of distribution functions and a proper entropy behavior. We provide an array of numerical tests illustrating the numerical scheme as well as its usefulness and effectiveness. / Wir betrachten ein Gasgemisch, das aus mehreren Spezies zusammengesetzt ist und durch kinetische Modelle beschrieben werden kann. Dabei interessieren wir uns vor allem für Modelle mit BGK-Wechselwirkungsoperatoren. Verschiedene Erweiterungen des Standard-BGK-Modells werden untersucht.
Im ersten Modell nehmen wir eine Abhängigkeit der Stoßfrequenzen von der mikroskopischen Geschwindigkeit hinzu. Im Standard-BGK-Modell wird diese Abhängigkeit aus Gründen der Komplexität vernachlässigt. Wir nähern uns der physikalischen Realität weiter an, indem wir die Abhängigkeit von der mikroskopischen Geschwindigkeit beachten. Die Struktur der Gleichungen bleibt erhalten, allerdings hat dies Auswirkungen auf die sogenannten Zielfunktionen im Relaxationsterm, welche sodann durch einen Variationsansatz definiert werden.
Das zweite Modell berücksichtigt Quanteneffekte (für konstante Stoßfrequenzen), was wiederum die Zielfunktionen im Relaxationsterm beeinflusst. Diese unterscheiden sich abhängig von den jeweils betrachteten, quantenmechanischen Teilchentypen.
In dieser Doktorarbeit stellen wir numerische Verfahren vor, die auf oben beschriebene Modelle angewandt werden können. Wir legen eine implizite-explizite Zeitdiskretisierung zu Grunde, da die Relaxationsterme für große Stoßfrequenzen steif werden können. Das Kernstück ist ein impliziter Löser, der eine gewisse Potenzialfunktion minimiert. Dieses Vorgehen imitiert die theoretische Herleitung in den Modellen. Wir zeigen, dass die Eigenschaften des Modells auch auf der diskreten Ebene vorliegen. Dies beinhaltet die Massen-, Gesamtimpuls- und Gesamtenergieerhaltung, die Positivität von Verteilungsfunktionen sowie das gewünschte Verhalten der Entropie. Wir führen mehrere numerische Tests durch, die die Eigenschaften, die Nützlichkeit und die Zweckmäßigkeit des numerischen Verfahrens aufzeigen. / Many applications require reliable numerical simulations of realistic set-ups e.g. plasma physics.
This book gives a short introduction into kinetic models of gas mixtures describing the time evolution of rarefied gases and plasmas. Recently developed models are presented which extend existing literature by including more physical phenomena.
We develop a numerical scheme for these more elaborated equations. The scheme is proven to maintain the physical properties of the models at the discrete level. We show several numerical test cases inspired by physical experiments.
|
604 |
Accelerated inversion recovery MRI of the myocardium using spiral acquisition / Beschleunigte Inversion-Recovery MR-Bildgebung des Myokards mit spiralen AuslesezügenPortmann, Johannes January 2023 (has links) (PDF)
This work deals with the acceleration of cardiovascular MRI for the assessment
of functional information in steady-state contrast and for viability assessment
during the inversion recovery of the magnetization. Two approaches
are introduced and discussed in detail. MOCO-MAP uses an exponential
model to recover dynamic image data, IR-CRISPI, with its low-rank plus
sparse reconstruction, is related to compressed sensing.
MOCO-MAP is a successor to model-based acceleration of parametermapping
(MAP) for the application in the myocardial region. To this end, it
was augmented with a motion correction (MOCO) step to allow exponential
fitting the signal of a still object in temporal direction. Iteratively, this
introduction of prior physical knowledge together with the enforcement of
consistency with the measured data can be used to reconstruct an image
series from distinctly shorter sampling time than the standard exam (< 3 s
opposed to about 10 s). Results show feasibility of the method as well as
detectability of delayed enhancement in the myocardium, but also significant
discrepancies when imaging cardiac function and artifacts caused already by
minor inaccuracy of the motion correction.
IR-CRISPI was developed from CRISPI, which is a real-time protocol
specifically designed for functional evaluation of image data in steady-state
contrast. With a reconstruction based on the separate calculation of low-rank
and sparse part, it employs a softer constraint than the strict exponential
model, which was possible due to sufficient temporal sampling density via
spiral acquisition. The low-rank plus sparse reconstruction is fit for the use on
dynamic and on inversion recovery data. Thus, motion correction is rendered
unnecessary with it.
IR-CRISPI was equipped with noise suppression via spatial wavelet filtering.
A study comprising 10 patients with cardiac disease show medical
applicability. A comparison with performed traditional reference exams offer
insight into diagnostic benefits. Especially regarding patients with difficulty
to hold their breath, the real-time manner of the IR-CRISPI acquisition provides
a valuable alternative and an increase in robustness.
In conclusion, especially with IR-CRISPI in free breathing, a major acceleration
of the cardiovascular MR exam could be realized. In an acquisition
of less than 100 s, it not only includes the information of two traditional
protocols (cine and LGE), which take up more than 9.6 min, but also allows
adjustment of TI in retrospect and yields lower artifact level with similar
image quality. / Diese Arbeit behandelt die Beschleunigung der kardiovaskulären MRT zum
Erfassen funktioneller Information bei Steady-State-Kontrast und zur Unter-
suchung der Vitalität bei Wiederherstellung der Magnetisierung nach ihrer
Inversion. Zwei Ansätze werden eingeführt und im Detail diskutiert: MOCO-
MAP, welches ein exponentielles Modell nutzt, um dynamische Daten zu
rekonstruieren, und IR-CRISPI, welches mit seinem “low-rank plus sparse"-
Algorithmus mit Compressed Sensing verwandt ist.
MOCO-MAP ist der Nachfolger der modellbasierten Beschleunigung des
Parameter-Mappings (MAP) für die Anwendung im Bereich des Myokards.
Hierzu wurde es mit einer Bewegungskorrektur (MOCO) versehen, um expo-
nentielles Fitten eines unbewegten Objects in Zeitrichtung zu ermöglichen.
Das Einbringen dieses physikalischen Vorwissens zusammen mit dem Erzwin-
gen von Konsistenz mit den Messdaten wird dazu genutzt, iterativ eine
Bildfolge aus Daten einer deutlich kürzeren Messung als herkömmlich zu
rekonstruieren (< 3 s gegenüber ca. 10 s). Die Ergebnisse zeigen die Umsetz-
barkeit der Methode sowie die Nachweisbarkeit von Delayed Enhancements
im Myokard, aber deutliche funktionelle Abweichungen und Artefakte bereits
aufgrund von kleinen Ungenauigkeiten der Bewegungskorrektur.
IR-CRISPI geht aus CRISPI hervor, welches zur Auswertung von funk-
tionellen Echtzeitdaten bei konstantem Kontrast dient. Mit der Rekon-
struktion durch getrennte Berechnung von niedrigrangigem und dünnbe-
setztem Matrixanteil wird hier bei der Datenrekonstruktion weniger stark
eingeschränkt als bei einem strikten exponentiellen Modell. Die pirale Auf-
nahmeweise erlaubt hierzu ausreichend effiziente k-Raumabdeckung. Die
“low-rank plus sparse"-Rekonstruktion ist kompatibel mit dynamischen und
mit Inversion-Recovery-Daten. Eine Bewegungskorrektur ist folglich nicht
nötig.
IR-CRISPI wurde mit einer Rauschunterdrückung durch räumliche Wavelet-
Filterung versehen. Eine Studie, die 10 Patienten einschließt, zeigt die
Eignung für die medizinische Anwendung. Der Vergleich mit herkömm-
lichen Aufnahmetechniken lässt auf den gewonnenen diagnostischen Nutzen
schließen. Besonders für Patienten, die Schwierigkeiten mit dem Luftanhal-
ten haben, eröffnet diese Echtzeitaufnahmemethode eine wertvolle Alterna-
tive und erhöhte Stabilität.
Am Ende konnte gerade mittels IR-CRISPI eine bemerkenswerte Beschleu-
nigung der kardiovaskulären MR-Untersuchung verwirklicht werden. Trotz
der kurzen Aufnahmezeit von weniger als 100 s für den kompletten linken Ven-
trikel schließt es nicht nur die Information zweier herkömmlicher Protokolle
mit ein (Cine und LGE), die zusammen mehr als 9,6 min dauern, sondern es
erlaubt zusätzlich auch das Einstellen der TI-Zeit im Nachhinein und liefert
Ergebnisse mit geringerem Artefaktlevel bei ähnlicher Bildqualität
|
605 |
Variational networks in magnetic resonance imaging - Application to spiral cardiac MRI and investigations on image quality / Variational Networks in der Magnetresonanztomographie - Anwendung auf spirale Herzbildgebung und Untersuchungen zur BildqualitätKleineisel, Jonas January 2024 (has links) (PDF)
Acceleration is a central aim of clinical and technical research in magnetic resonance imaging (MRI) today, with the potential to increase robustness, accessibility and patient comfort, reduce cost, and enable entirely new kinds of examinations. A key component in this endeavor is image reconstruction, as most modern approaches build on advanced signal and image processing. Here, deep learning (DL)-based methods have recently shown considerable potential, with numerous publications demonstrating benefits for MRI reconstruction. However, these methods often come at the cost of an increased risk for subtle yet critical errors. Therefore, the aim of this thesis is to advance DL-based MRI reconstruction, while ensuring high quality and fidelity with measured data. A network architecture specifically suited for this purpose is the variational network (VN). To investigate the benefits these can bring to non-Cartesian cardiac imaging, the first part presents an application of VNs, which were specifically adapted to the reconstruction of accelerated spiral acquisitions. The proposed method is compared to a segmented exam, a U-Net and a compressed sensing (CS) model using qualitative and quantitative measures. While the U-Net performed poorly, the VN as well as the CS reconstruction showed good output quality. In functional cardiac imaging, the proposed real-time method with VN reconstruction substantially accelerates examinations over the gold-standard, from over 10 to just 1 minute. Clinical parameters agreed on average.
Generally in MRI reconstruction, the assessment of image quality is complex, in particular for modern non-linear methods. Therefore, advanced techniques for precise evaluation of quality were subsequently demonstrated.
With two distinct methods, resolution and amplification or suppression of noise are quantified locally in each pixel of a reconstruction. Using these, local maps of resolution and noise in parallel imaging (GRAPPA), CS, U-Net and VN reconstructions were determined for MR images of the brain. In the tested images, GRAPPA delivers uniform and ideal resolution, but amplifies noise noticeably. The other methods adapt their behavior to image structure, where different levels of local blurring were observed at edges compared to homogeneous areas, and noise was suppressed except at edges. Overall, VNs were found to combine a number of advantageous properties, including a good trade-off between resolution and noise, fast reconstruction times, and high overall image quality and fidelity of the produced output. Therefore, this network architecture seems highly promising for MRI reconstruction. / Eine Beschleunigung des Bildgebungsprozesses ist heute ein wichtiges Ziel von klinischer und technischer Forschung in der Magnetresonanztomographie (MRT). Dadurch könnten Robustheit, Verfügbarkeit und Patientenkomfort erhöht, Kosten gesenkt und ganz neue Arten von Untersuchungen möglich gemacht werden. Da sich die meisten modernen Ansätze hierfür auf eine fortgeschrittene Signal- und Bildverarbeitung stützen, ist die Bildrekonstruktion ein zentraler Baustein. In diesem Bereich haben Deep Learning (DL)-basierte Methoden in der jüngeren Vergangenheit bemerkenswertes Potenzial gezeigt und eine Vielzahl an Publikationen konnte deren Nutzen in der MRT-Rekonstruktion feststellen. Allerdings besteht dabei das Risiko von subtilen und doch kritischen Fehlern. Daher ist das Ziel dieser Arbeit, die DL-basierte MRT-Rekonstruktion weiterzuentwickeln, während gleichzeitig hohe Bildqualität und Treue der erzeugten Bilder mit den gemessenen Daten gewährleistet wird. Eine Netzwerkarchitektur, die dafür besonders geeignet ist, ist das Variational Network (VN). Um den Nutzen dieser Netzwerke für nicht-kartesische Herzbildgebung zu untersuchen, beschreibt der erste Teil dieser Arbeit eine Anwendung von VNs, welche spezifisch für die Rekonstruktion von beschleunigten Akquisitionen mit spiralen Auslesetrajektorien angepasst wurden. Die vorgeschlagene Methode wird mit einer segmentierten Rekonstruktion, einem U-Net, und einem Compressed Sensing (CS)-Modell anhand von qualitativen und quantitativen Metriken verglichen. Während das U-Net schlecht abschneidet, zeigen die VN- und CS-Methoden eine gute Bildqualität. In der funktionalen Herzbildgebung beschleunigt die vorgeschlagene Echtzeit-Methode mit VN-Rekonstruktion die Aufnahme gegenüber dem Goldstandard wesentlich, von etwa zehn zu nur einer Minute. Klinische Parameter stimmen im Mittel überein.
Die Bewertung von Bildqualität in der MRT-Rekonstruktion ist im Allgemeinen komplex, vor allem für moderne, nichtlineare Methoden. Daher wurden anschließend forgeschrittene Techniken zur präsizen Analyse von Bildqualität demonstriert. Mit zwei separaten Methoden wurde einerseits die Auflösung und andererseits die Verstärkung oder Unterdrückung von Rauschen in jedem Pixel eines untersuchten Bildes lokal quantifiziert. Damit wurden lokale Karten von Auflösung und Rauschen in Rekonstruktionen durch Parallele Bildgebung (GRAPPA), CS, U-Net und VN für MR-Aufnahmen des Gehirns berechnet. In den untersuchten Bildern zeigte GRAPPA gleichmäßig eine ideale Auflösung, aber merkliche Rauschverstärkung. Die anderen Methoden verhalten sich lokal unterschiedlich je nach Struktur des untersuchten Bildes. Die gemessene lokale Unschärfe unterschied sich an den Kanten gegenüber homogenen Bildbereichen, und Rauschen wurde überall außer an Kanten unterdrückt. Insgesamt wurde für VNs eine Kombination von verschiedenen günstigen Eigenschaften festgestellt, unter anderem ein guter Kompromiss zwischen Auflösung und Rauschen, schnelle Laufzeit, und hohe Qualität und Datentreue der erzeugten Bilder. Daher erscheint diese Netzwerkarchitektur als ein äußerst vielversprechender Ansatz für MRT-Rekonstruktion.
|
606 |
Preconditioned gradient methods for solving nonlinear underdetermined least-squares problems / Vorkonditionierte Gradientenverfahren zur Lösung nichtlinearer unterbestimmter Kleinste-Quadrate-ProblemeVater, Nadja January 2025 (has links) (PDF)
This thesis is devoted to the theoretical and numerical investigation of preconditioning methods for gradient schemes for solving underdetermined nonlinear least-squares problems. In particular, problems with zero residual are considered, which are equivalent to the problem of solving underdetermined nonlinear systems of equations. These problems arise in several fields such as nonlinear eigenvalue problems, partial differential equations, and in the context of data fitting. A specific example from the latter class is the supervised training of overparameterised artificial neural networks. In this case, a large number of parameters and a complex problem structure make solving these problems challenging, and the development of efficient methods with guaranteed convergence is of paramount importance.
In this thesis, the relation between solutions of nonlinear least-squares problems and nonlinear systems of equations is explained. Further, a result on the existence of solutions that is based on the existence of a point with sufficiently small value of the residual function and a full rank assumption on the Jacobian of the residual function around this point is presented. This theoretical framework is discussed in the context of quadratic data fitting problems and supervised training problems.
However, in some cases a full rank property is not at hand, and regularisation techniques are required for guaranteeing existence of solutions and convergence of iterative schemes. For this purpose, two regularisation schemes based on the minimisation of a least-squares objective function with a regularised residual are introduced. These schemes preserve the underdetermined structure of the problem and the corresponding Jacobians satisfy the full rank property. Further, it is established that a sequence of solutions of the regularised problems converges to a solution of the original problem if the regularisation parameter decreases to zero.
To compute solutions of the considered underdetermined nonlinear least-squares problems, preconditioning approaches for gradient-based schemes are investigated. To this end, the standard gradient method, which serves as a basis for the proposed preconditioning approaches, is discussed. Specifically, a semi-local convergence result is presented, where, in contrast to local convergence theorems, the existence of a solution is not assumed a priori but follows from the convergence of a sequence obtained by this gradient scheme. The assumptions for this convergence result are transferred to the case of quadratic data fitting problems and supervised training problems. Moreover, the application of the gradient method to minimise the underdetermined regularised least-squares objective function that appear in both regularisation strategies is investigated. It is proven that the sequence of solutions obtained by the gradient method for regularised problems with varying regularisation parameter converges to a solution of the original problem if the regularisation parameter tends to zero. Results of numerical experiments illustrate this property.
Preconditioning approaches with fixed transformation matrices are introduced. Motivated from the linear case, these schemes are classified as left, right, and split preconditioning methods depending on the space in which the transformation is applied. A convergence result for a left preconditioning method is proven. Further, flexible preconditioning schemes where the transformation matrix is allowed to vary during the gradient iteration are addressed.
For nonlinear least-squares problems, a left preconditioning scheme with fixed transformation matrix based on a random subspace embedding is designed. A relation of the condition number of the Jacobian of the transformed residual function to the distortion of the subspace embedding is established. Results from numerical experiments on supervised learning problems are shown, which demonstrate a striking improvement of the convergence rate of the randomised preconditioned method compared to the standard gradient method.
Inspired by spectral multigrid preconditioners, a flexible right preconditioning scheme is defined using the eigendecomposition of the Hessian of the least-squares objective function that complements the gradient method. Based on the resemblance to algebraic multigrid schemes, an approach to compute a similar transformation matrix with less computational effort is suggested. Additionally, the combination of this gradient and coarse-level correction scheme with the randomised left preconditioning approach is analysed. The resulting scheme gives a flexible split preconditioned gradient method. A numerical investigation of these flexible right and split preconditioning schemes is included. These results demonstrate that the combination of the gradient method with a coarse-level correction leads to a faster reduction of the least-squares objective function in terms of iterations compared to the standard gradient method, and that the split preconditioned gradient scheme converges even faster.
Another efficient method for solving nonlinear systems of equations is the class of quasi-Newton methods, which represent flexible left preconditioned gradient schemes. In this context, an update formula for the Moore-Penrose inverse of the Jacobian approximations obtained by the Broyden update for underdetermined problems is developed. A semi-local convergence result for general quasi-Newton methods is proven. Sufficient conditions for the convergence of the quasi-Newton scheme resulting from the developed new updating procedure based on the Broyden update are given. These conditions are transferred to the context of quadratic data fitting problems and the supervised training of shallow neural networks. Further, for the considered regularised problems, it is established that the sequence of solutions obtained by the proposed quasi-Newton scheme applied to find a zero of the regularised residual functions converges to a solution of the original problem if the regularisation parameters decrease to zero. Results of numerical experiments on quadratic data fitting problems, eigenvalue problems, and supervised training problems are included to support the
theoretical findings.
A description of the problems' settings, the specifications of the applied algorithms, and the Python program used for the numerical experiments is included. / Diese Arbeit widmet sich der theoretischen und numerischen Untersuchung von Vorkonditionierungsmethoden für Gradientenschemata zur Lösung unterbestimmter nichtlinearer Kleinste-Quadrate-Probleme. Insbesondere werden Probleme mit Nullresiduen betrachtet, die dem Problem der Lösung unterbestimmter nichtlinearer Gleichungssysteme entsprechen. Diese Probleme treten in verschiedenen Bereichen auf, z. B. bei nichtlinearen Eigenwertproblemen, partiellen Differentialgleichungen und im Zusammenhang mit Datenanpassung. Ein spezifisches Beispiel aus der letztgenannten Klasse ist das überwachte Training von überparametrisierten künstlichen neuronalen Netzen. In diesem Fall machen eine große Anzahl von Parametern und eine komplexe Problemstruktur die Lösung dieser Probleme zu einer Herausforderung, und die Entwicklung effizienter Methoden mit garantierter Konvergenz ist von größter Bedeutung.
In dieser Arbeit wird der Zusammenhang zwischen Lösungen von nichtlinearen Kleinste-Quadrate-Probleme und nichtlinearen Gleichungssystemen erläutert. Außerdem wird ein Ergebnis über die Existenz von Lösungen vorgestellt, das auf der Existenz eines Punktes mit einem hinreichend kleinem Wert der Residuenfunktion und einer Vollrangannahme für die Jacobimatrix der Residuenfunktion um diesen Punkt herum beruht. Dieser theoretische Rahmen wird im Zusammenhang mit quadratischen Datenanpassungsproblemen und überwachten Trainingsproblemen diskutiert.
In einigen Fällen liegt jedoch keine Vollrang-Eigenschaft vor, und es sind Regularisierungstechniken erforderlich, um die Existenz von Lösungen und die Konvergenz von Iterationsverfahren zu gewährleisten. Zu diesem Zweck werden zwei Regularisierungsverfahren eingeführt, die auf der Minimierung einer Kleinste-Quadrate-Zielfunktion mit einer regularisierten Residuenfunktion beruhen. Diese Verfahren bewahren die unterbestimmte Struktur des Problems, und die entsprechenden Jacobimatrizen haben vollen Rang. Ferner wird festgestellt, dass eine Folge von Lösungen der regularisierten Probleme zu einer Lösung des ursprünglichen Problems konvergiert, wenn der Regularisierungsparameter auf Null sinkt.
Um Lösungen für die betrachteten unterbestimmten nichtlinearen Kleinste-Quadrate-Probleme zu berechnen, werden Vorkonditionierungsansätze für gradientenbasierte Verfahren untersucht. Zu diesem Zweck wird das Standard-Gradientenverfahren, das als Grundlage für die vorgeschlagenen Vorkonditionierungsansätze dient, diskutiert. Insbesondere wird ein semilokales Konvergenzergebnis vorgestellt, bei dem im Gegensatz zu lokalen Konvergenztheoremen die Existenz einer Lösung nicht a priori vorausgesetzt wird, sondern aus der Konvergenz einer mit diesem Gradientenschema erhaltenen Sequenz folgt. Die Annahmen für dieses Konvergenzergebnis werden auf den Fall von quadratischen Datenanpassungsproblemen und überwachten Trainingsproblemen übertragen. Darüber hinaus wird die Anwendung der Gradientenmethode zur Minimierung der unterbestimmten regularisierten Kleinste-Quadrate-Zielfunktion untersucht, die in beiden Regularisierungsstrategien auftritt. Es wird bewiesen
dass die Folge von Lösungen, die durch die Gradientenmethode für regularisierte Probleme mit variierenden Regularisierungsparametern erhalten wird, zu einer Lösung des ursprünglichen Problems konvergiert, wenn der Regularisierungsparameter gegen Null tendiert. Ergebnisse von numerischen Experimenten veranschaulichen diese Eigenschaft.
Es werden Vorkonditionierungsansätze mit festen Transformationsmatrizen vorgestellt. Ausgehend vom linearen Fall werden diese Verfahren als linke, rechte und geteilte Vorkonditionierungsmethoden klassifiziert, je nach dem Raum, in dem die Transformation angewendet wird. Es wird ein Konvergenzergebnis für eine linke Vorkonditionierungsmethode bewiesen. Außerdem werden flexible Vorkonditionierungsverfahren behandelt, bei denen die Transformationsmatrix während der Gradienteniteration variieren kann.
Für nichtlineare Kleinste-Quadrate-Probleme wird ein linkes Vorkonditionierungsschema mit fester Transformationsmatrix auf der Grundlage einer zufälligen Unterraumeinbettung entworfen. Es wird eine Beziehung zwischen der Konditionszahl der Jacobimatrix der transformierten Residuenfunktion und der Verzerrung der Unterraumeinbettung hergestellt. Es werden Ergebnisse aus numerischen Experimenten zu überwachten Lernproblemen gezeigt, die eine deutliche Verbesserung der Konvergenzrate der randomisierten vorkonditionierten Methode im Vergleich zur Standard-Gradientenmethode belegen.
Inspiriert von spektralen Mehrgitterkonditionierern wird ein flexibles rechtes Vorkonditionierungsschema definiert, das die Eigenwertzerlegung der Hessematrix der Kleinste-Quadrate-Zielfunktion verwendet und die Gradientenmethode ergänzt. Aufgrund der Ähnlichkeit mit algebraischen Mehrgitterverfahren wird ein Ansatz zur Berechnung einer ähnlichen Transformationsmatrix mit geringerem Rechenaufwand vorgeschlagen. Darüber hinaus wird die Kombination dieses Gradienten- und Grobkorrekturverfahrens mit dem randomisierten linken Vorkonditionierungsansatz analysiert. Das resultierende Schema ergibt ein flexibles, geteiltes vorkonditioniertes Gradientenverfahren. Eine numerische Untersuchung dieser flexiblen rechten und geteilten Vorkonditionierungsverfahren ist enthalten. Die Ergebnisse zeigen, dass die Kombination der Gradientenmethode mit einer Grobkorrektur zu einer schnelleren Reduktion der Kleinste-Quadrate-Zielfunktion in Bezug auf die Iterationen im Vergleich zur Standard-Gradientenmethode führt und dass das geteilte vorkonditionierte Gradientenverfahren sogar noch schneller konvergiert.
Eine weitere effiziente Methode zur Lösung nichtlinearer Gleichungssysteme ist die Klasse der Quasi-Newton-Methoden, die flexible linkskonditionierte Gradientenverfahren darstellen. In diesem Zusammenhang wird eine Aktualisierungsformel für die Moore-Penrose-Inverse der durch die Broyden-Aktualisierung erhaltenen Jacobi-Approximationen für unterbestimmte Probleme entwickelt. Es wird ein halblokales Konvergenzergebnis für allgemeine Quasi-Newton-Verfahren bewiesen. Es werden hinreichende Bedingungen für die Konvergenz des Quasi-Newton-Verfahrens gegeben, das aus dem entwickelten neuen Aktualisierungsverfahren auf der Grundlage der Broyden-Aktualisierung resultiert. Diese Bedingungen werden auf den Kontext von quadratischen Datenanpassungsproblemen und das überwachte Training von flachen neuronalen Netzen übertragen. Ferner wird für die betrachteten regularisierten Probleme festgestellt, dass die durch das vorgeschlagene Quasi-Newton-Schema, das angewendet wird, um eine Nullstelle der regularisierten Restfunktionen zu finden, erhaltene Folge von Lösungen zu einer Lösung des ursprünglichen Problems konvergiert, wenn die Regularisierungsparameter auf Null sinken. Die Ergebnisse numerischer Experimente zu quadratischen Datenanpassungsproblemen, Eigenwertproblemen und überwachten Trainingsproblemen sind enthalten, um die theoretischen Erkenntnisse zu untermauern.
Eine Beschreibung der Problemstellungen, der Spezifikationen der angewandten Algorithmen und des für die numerischen Experimente verwendeten Python-Programms ist ebenfalls enthalten.
|
607 |
Zügiges Strafverfahren bei jugendlichen Mehrfach- und Intensivtätern das Münsteraner Modellprojekt "B-Verfahren"Khostevan, Alireza January 2008 (has links)
Zugl.: Münster (Westfalen), Univ., Diss., 2008
|
608 |
Tourenplanung mittelständischer Speditionsunternehmen : Modelle und Methoden /Rieck, Julia. January 2008 (has links)
Zugl.: Clausthal, Techn. Universiẗat, Diss., 2008.
|
609 |
Mamma-MRT als primäres bildgebendes Verfahren in der Brustkrebsfrüherkennung (Mamma-MRT-Screening) / Breast MRI as the primary imaging modality in breast cancer screening (breast MRI screening)Korthauer, Annette 15 December 2015 (has links)
No description available.
|
610 |
Adaptive Isoflächenextraktion aus großen VolumendatenHelbig, Andreas 17 September 2007 (has links)
Aus besonders großen Volumendaten extrahierte Isoflächen besitzen eine kaum beherrschbare Anzahl an Polygonen, weshalb die Extraktion von adaptiven, also bezüglich einer geometrischen Fehlermetrik reduzierten, Isoflächen wünschenswert ist. Ein häufiges Problem gängiger adaptiver Verfahren ist, dass sie Datenstrukturen verwenden, die gerade für große Daten besonders viel Hauptspeicher benötigen und daher nicht direkt anwendbar sind. Nachdem auf die Grundlagen zur Isoflächenextration eingegangen wurde, wird im Rahmen dieser Diplomarbeit ein auf Dual Contouring basierendes Verfahren entworfen, das die adaptive Isoflächenextraktion aus sehr großen Volumendaten auch bei begrenztem Hauptspeicher mit einem zeitlich vertretbaren Aufwand erlaubt. Der verwendete Octree wird dazu nur implizit aufgebaut und temporär nicht benötigte Daten werden unter Nutzung von Out-of-core-Techniken in den Sekundärspeicher ausgelagert. Die verschiedenen Implementierungsansätze werden unter Berücksichtigung maximaler Effizienz verglichen. Die Tauglichkeit des Verfahrens wird an verschiedenen sehr großen Testdatensätzen nachgewiesen. / Isosurfaces that are extracted from massive volume data sets consist of a hardly processable amount of polygons. Hence adaptive isosurfaces should be extracted with respect to a geometric error metric. Popular adaptive methods frequently require an amount of memory that turns them unfeasible for large data sets. After dwelling on the fundamentals of isosurfaces, a dual contouring based method will be developed that allows for the extraction of adaptive isosurfaces from massive volume data sets. The required octree is built implicitly, and temporarily unneeded data is swapped out on a secondary storage using out of core techniques. Various implementation approaches will be discussed and compared concerning maximum efficiency. The suitability of the method will be demonstrated with various massive volume data sets.
|
Page generated in 0.0967 seconds