Spelling suggestions: "subject:"bildgebendes brennverfahren"" "subject:"bildgebendes schreibverfahren""
51 |
X-Ray Dark-Field Tensor Tomography : a Hitchhiker's Guide to Tomographic Reconstruction and Talbot Imaging / Röntgen-Dunkelfeld-Tensor-Tomographie : ein Handbuch zur Tomographischen Rekonstruktion und Talbot-BildgebungGraetz [geb. Dittmann], Jonas January 2022 (has links) (PDF)
X-ray dark-field imaging allows to resolve the conflict between the demand for centimeter scaled fields of view and the spatial resolution required for the characterization of fibrous materials structured on the micrometer scale. It draws on the ability of X-ray Talbot interferometers to provide full field images of a sample's ultra small angle scattering properties, bridging a gap of multiple orders of magnitude between the imaging resolution and the contrasted structure scale. The correspondence between shape anisotropy and oriented scattering thereby allows to infer orientations within a sample's microstructure below the imaging resolution. First demonstrations have shown the general feasibility of doing so in a tomographic fashion, based on various heuristic signal models and reconstruction approaches. Here, both a verified model of the signal anisotropy and a reconstruction technique practicable for general imaging geometries and large tensor valued volumes is developed based on in-depth reviews of dark-field imaging and tomographic reconstruction techniques.
To this end, a wide interdisciplinary field of imaging and reconstruction methodologies is revisited. To begin with, a novel introduction to the mathematical description of perspective projections provides essential insights into the relations between the tangible real space properties of cone beam imaging geometries and their technically relevant description in terms of homogeneous coordinates and projection matrices. Based on these fundamentals, a novel auto-calibration approach is developed, facilitating the practical determination of perspective imaging geometries with minimal experimental constraints. A corresponding generalized formulation of the widely employed Feldkamp algorithm is given, allowing fast and flexible volume reconstructions from arbitrary tomographic imaging geometries. Iterative reconstruction techniques are likewise introduced for general projection geometries, with a particular focus on the efficient evaluation of the forward problem associated with tomographic imaging. A highly performant 3D generalization of Joseph's classic linearly interpolating ray casting algorithm is developed to this end and compared to typical alternatives. With regard to the anisotropic imaging modality required for tensor tomography, X-ray dark-field contrast is extensively reviewed. Previous literature is brought into a joint context and nomenclature and supplemented by original work completing a consistent picture of the theory of dark-field origination. Key results are explicitly validated by experimental data with a special focus on tomography as well as the properties of anisotropic fibrous scatterers. In order to address the pronounced susceptibility of interferometric images to subtle mechanical imprecisions, an efficient optimization based evaluation strategy for the raw data provided by Talbot interferometers is developed. Finally, the fitness of linear tensor models with respect to the derived anisotropy properties of dark-field contrast is evaluated, and an iterative scheme for the reconstruction of tensor valued volumes from projection images is proposed. The derived methods are efficiently implemented and applied to fiber reinforced plastic samples, imaged at the ID19 imaging beamline of the European Synchrotron Radiation Facility. The results represent unprecedented demonstrations of X-ray dark-field tensor tomography at a field of view of 3-4cm, revealing local fiber orientations of both complex shaped and low-contrast samples at a spatial resolution of 0.1mm in 3D. The results are confirmed by an independent micro CT based fiber analysis. / Die Röntgen-Dunkelfeld-Bildgung vermag den Widerspruch zwischen dem Bedarf nach großen Sichtfeldern im Zentimeterbereich und der nötigen Bildauflösung zur Charakterisierung von Fasermaterialien mit Strukturgrößen im Mikrometerbereich aufzulösen. Sie bedient sich dafür der Eigenschaft von Röntgen-Talbot-Interferometern, Ultrakleinwinkelstreueigenschaften einer Probe vollflächig abzubilden, womit eine Lücke von mehreren Größenordnung zwischen der Bildauflösung und der konstrastgebenden Strukturgröße überbrückt werden kann. Der Zusammenhang zwischen Strukturanisotropie und gerichteter Streuung ermöglicht dabei Rückschlüsse auf die Orientierung der Mikrostruktur einer Probe unterhalb der Bildauflösung. Erste Demonstrationen haben, basiered auf verschiedenen heuristischen Signalmodellen und Rekonstruktrionsansätzen, die grundsätzliche Erweiterbarkeit auf die Volumen-Bildgebung gezeigt. In der vorliegenden Arbeit wird, aufbauend auf einer umfassenden Analyse der Dunkelfeld-Bildgebung und tomographischer Rekonstruktionsmethoden, sowohl ein verifiziertes Modell der Signalanisotropie als auch eine Rekonstruktionstechnik entwickelt, die für große tensorwertige Volumina und allgemeine Abbildungsgeometrien praktikabel ist.
In diesem Sinne wird ein weites interdisziplinäres Feld von Bildgebungs- und Rekonstruktionsmethoden aufgearbeitet. Zunächst werden anhand einer neuen Einführung in die mathematische Beschreibung perspektivischer Projektionen essenzielle Einsichten in die Zusammenhänge zwischen der greifbaren Realraum-Darstellung der Kegelstrahl-Geometrie und ihrer technisch relevanten Beschreibung mittels homogener Koordinaten und Projektionsmatrizen gegeben. Aufbauend auf diesen Grundlagen wird eine neue Methode zur Auto-Kalibration entwickelt, die die praktische Bestimmung von perspektivischen Abbildungsgeometrien unter minimalen Anforderungen an die experimentelle Ausführung ermöglicht. Passend dazu wird eine verallgemeinerte Formulierung des weit verbreiteten Feldkamp-Algorithmus gegeben, um eine schnelle und flexible Volumenrekonstruktion aus beliebigen tomographischen Bildgebungsgeometrien zu ermöglichen. Iterative Rekonstruktionsverfahren werden ebenfalls für allgemeine Aufnahmegeometrien eingeführt, wobei ein Schwerpunkt auf der effizienten Berechnung des mit der tomographischen Bildgebung assoziierten Vorwärtsproblems liegt. Zu diesem Zweck wird eine hochperformante 3D-Erweiterung des klassischen, linear interpolierenden Linienintegrationsalgorithmus von Joseph entwickelt und mit typischen Alternativen verglichen. In Bezug auf die anisotrope Bildmodalität, die die Grundlage der Tensortomographie bildet, wird der Röntgen-Dunkelfeld-Kontrast umfassend besprochen. Die vorhandende Literatur wird dazu in einen gemeinsamen Kontext und eine gemeinsame Nomenklatur gebracht und mit neuen Überlegungen zu einer konsistenten Darstellung der Theorie zur Dunkelfeldsignalentstehung vervollständigt. Zentrale Ergebnisse werden dabei explizit anhand experimenteller Daten verifiziert, wobei besonders die Tomographie und die Eigenschaften anisotroper, faseriger Streuer im Vordergrund stehen. Um die ausgeprägte Empfindlichkeit interferometrischer Bilder auf feinste mechanische Instabilitäten zu kompensieren, wird ein effizientes Optimierungsverfahren zur Auswertung der Rohdaten aus Talbot-Interferometern entwickelt. Schließlich wird die Anwendbarkeit von linearen Tensor-Modellen in Bezug auf die hergeleiteten Anisotropie-Eigenschaften des Dunkelfeld-Kontrastes diskutiert, und ein iteratives Verfahren für die Rekonstruktion tensorwertiger Volumen aus Projektionsbildern vorgeschlagen. Die entwickelten Methoden werden effizient implementiert und auf Proben aus faserverstärktem Kunstoff angewandt, die dafür an der Bildgebungs-Strahllinie ID19 des Europäischen Synchrotrons ESRF abgebildet wurden. Die Ergebnisse stellen eine bisher einmalige Demonstration von Röntgen-Dunkelfeld-Tensor-Tomographie mit einem Sichtfeld von 3-4cm dar, wobei lokale Faserorientierung sowohl für komplex geformte als auch kontrastarme Objekte mit einer räumlichen Auflösung von 0.1mm in 3D dargestellt werden kann. Ein unabhängiger Vergleich mit Mikro-CT basierter Faser-Analyse bestätigt die Ergebnisse.
|
52 |
Accelerated inversion recovery MRI of the myocardium using spiral acquisition / Beschleunigte Inversion-Recovery MR-Bildgebung des Myokards mit spiralen AuslesezügenPortmann, Johannes January 2023 (has links) (PDF)
This work deals with the acceleration of cardiovascular MRI for the assessment
of functional information in steady-state contrast and for viability assessment
during the inversion recovery of the magnetization. Two approaches
are introduced and discussed in detail. MOCO-MAP uses an exponential
model to recover dynamic image data, IR-CRISPI, with its low-rank plus
sparse reconstruction, is related to compressed sensing.
MOCO-MAP is a successor to model-based acceleration of parametermapping
(MAP) for the application in the myocardial region. To this end, it
was augmented with a motion correction (MOCO) step to allow exponential
fitting the signal of a still object in temporal direction. Iteratively, this
introduction of prior physical knowledge together with the enforcement of
consistency with the measured data can be used to reconstruct an image
series from distinctly shorter sampling time than the standard exam (< 3 s
opposed to about 10 s). Results show feasibility of the method as well as
detectability of delayed enhancement in the myocardium, but also significant
discrepancies when imaging cardiac function and artifacts caused already by
minor inaccuracy of the motion correction.
IR-CRISPI was developed from CRISPI, which is a real-time protocol
specifically designed for functional evaluation of image data in steady-state
contrast. With a reconstruction based on the separate calculation of low-rank
and sparse part, it employs a softer constraint than the strict exponential
model, which was possible due to sufficient temporal sampling density via
spiral acquisition. The low-rank plus sparse reconstruction is fit for the use on
dynamic and on inversion recovery data. Thus, motion correction is rendered
unnecessary with it.
IR-CRISPI was equipped with noise suppression via spatial wavelet filtering.
A study comprising 10 patients with cardiac disease show medical
applicability. A comparison with performed traditional reference exams offer
insight into diagnostic benefits. Especially regarding patients with difficulty
to hold their breath, the real-time manner of the IR-CRISPI acquisition provides
a valuable alternative and an increase in robustness.
In conclusion, especially with IR-CRISPI in free breathing, a major acceleration
of the cardiovascular MR exam could be realized. In an acquisition
of less than 100 s, it not only includes the information of two traditional
protocols (cine and LGE), which take up more than 9.6 min, but also allows
adjustment of TI in retrospect and yields lower artifact level with similar
image quality. / Diese Arbeit behandelt die Beschleunigung der kardiovaskulären MRT zum
Erfassen funktioneller Information bei Steady-State-Kontrast und zur Unter-
suchung der Vitalität bei Wiederherstellung der Magnetisierung nach ihrer
Inversion. Zwei Ansätze werden eingeführt und im Detail diskutiert: MOCO-
MAP, welches ein exponentielles Modell nutzt, um dynamische Daten zu
rekonstruieren, und IR-CRISPI, welches mit seinem “low-rank plus sparse"-
Algorithmus mit Compressed Sensing verwandt ist.
MOCO-MAP ist der Nachfolger der modellbasierten Beschleunigung des
Parameter-Mappings (MAP) für die Anwendung im Bereich des Myokards.
Hierzu wurde es mit einer Bewegungskorrektur (MOCO) versehen, um expo-
nentielles Fitten eines unbewegten Objects in Zeitrichtung zu ermöglichen.
Das Einbringen dieses physikalischen Vorwissens zusammen mit dem Erzwin-
gen von Konsistenz mit den Messdaten wird dazu genutzt, iterativ eine
Bildfolge aus Daten einer deutlich kürzeren Messung als herkömmlich zu
rekonstruieren (< 3 s gegenüber ca. 10 s). Die Ergebnisse zeigen die Umsetz-
barkeit der Methode sowie die Nachweisbarkeit von Delayed Enhancements
im Myokard, aber deutliche funktionelle Abweichungen und Artefakte bereits
aufgrund von kleinen Ungenauigkeiten der Bewegungskorrektur.
IR-CRISPI geht aus CRISPI hervor, welches zur Auswertung von funk-
tionellen Echtzeitdaten bei konstantem Kontrast dient. Mit der Rekon-
struktion durch getrennte Berechnung von niedrigrangigem und dünnbe-
setztem Matrixanteil wird hier bei der Datenrekonstruktion weniger stark
eingeschränkt als bei einem strikten exponentiellen Modell. Die pirale Auf-
nahmeweise erlaubt hierzu ausreichend effiziente k-Raumabdeckung. Die
“low-rank plus sparse"-Rekonstruktion ist kompatibel mit dynamischen und
mit Inversion-Recovery-Daten. Eine Bewegungskorrektur ist folglich nicht
nötig.
IR-CRISPI wurde mit einer Rauschunterdrückung durch räumliche Wavelet-
Filterung versehen. Eine Studie, die 10 Patienten einschließt, zeigt die
Eignung für die medizinische Anwendung. Der Vergleich mit herkömm-
lichen Aufnahmetechniken lässt auf den gewonnenen diagnostischen Nutzen
schließen. Besonders für Patienten, die Schwierigkeiten mit dem Luftanhal-
ten haben, eröffnet diese Echtzeitaufnahmemethode eine wertvolle Alterna-
tive und erhöhte Stabilität.
Am Ende konnte gerade mittels IR-CRISPI eine bemerkenswerte Beschleu-
nigung der kardiovaskulären MR-Untersuchung verwirklicht werden. Trotz
der kurzen Aufnahmezeit von weniger als 100 s für den kompletten linken Ven-
trikel schließt es nicht nur die Information zweier herkömmlicher Protokolle
mit ein (Cine und LGE), die zusammen mehr als 9,6 min dauern, sondern es
erlaubt zusätzlich auch das Einstellen der TI-Zeit im Nachhinein und liefert
Ergebnisse mit geringerem Artefaktlevel bei ähnlicher Bildqualität
|
53 |
Variational networks in magnetic resonance imaging - Application to spiral cardiac MRI and investigations on image quality / Variational Networks in der Magnetresonanztomographie - Anwendung auf spirale Herzbildgebung und Untersuchungen zur BildqualitätKleineisel, Jonas January 2024 (has links) (PDF)
Acceleration is a central aim of clinical and technical research in magnetic resonance imaging (MRI) today, with the potential to increase robustness, accessibility and patient comfort, reduce cost, and enable entirely new kinds of examinations. A key component in this endeavor is image reconstruction, as most modern approaches build on advanced signal and image processing. Here, deep learning (DL)-based methods have recently shown considerable potential, with numerous publications demonstrating benefits for MRI reconstruction. However, these methods often come at the cost of an increased risk for subtle yet critical errors. Therefore, the aim of this thesis is to advance DL-based MRI reconstruction, while ensuring high quality and fidelity with measured data. A network architecture specifically suited for this purpose is the variational network (VN). To investigate the benefits these can bring to non-Cartesian cardiac imaging, the first part presents an application of VNs, which were specifically adapted to the reconstruction of accelerated spiral acquisitions. The proposed method is compared to a segmented exam, a U-Net and a compressed sensing (CS) model using qualitative and quantitative measures. While the U-Net performed poorly, the VN as well as the CS reconstruction showed good output quality. In functional cardiac imaging, the proposed real-time method with VN reconstruction substantially accelerates examinations over the gold-standard, from over 10 to just 1 minute. Clinical parameters agreed on average.
Generally in MRI reconstruction, the assessment of image quality is complex, in particular for modern non-linear methods. Therefore, advanced techniques for precise evaluation of quality were subsequently demonstrated.
With two distinct methods, resolution and amplification or suppression of noise are quantified locally in each pixel of a reconstruction. Using these, local maps of resolution and noise in parallel imaging (GRAPPA), CS, U-Net and VN reconstructions were determined for MR images of the brain. In the tested images, GRAPPA delivers uniform and ideal resolution, but amplifies noise noticeably. The other methods adapt their behavior to image structure, where different levels of local blurring were observed at edges compared to homogeneous areas, and noise was suppressed except at edges. Overall, VNs were found to combine a number of advantageous properties, including a good trade-off between resolution and noise, fast reconstruction times, and high overall image quality and fidelity of the produced output. Therefore, this network architecture seems highly promising for MRI reconstruction. / Eine Beschleunigung des Bildgebungsprozesses ist heute ein wichtiges Ziel von klinischer und technischer Forschung in der Magnetresonanztomographie (MRT). Dadurch könnten Robustheit, Verfügbarkeit und Patientenkomfort erhöht, Kosten gesenkt und ganz neue Arten von Untersuchungen möglich gemacht werden. Da sich die meisten modernen Ansätze hierfür auf eine fortgeschrittene Signal- und Bildverarbeitung stützen, ist die Bildrekonstruktion ein zentraler Baustein. In diesem Bereich haben Deep Learning (DL)-basierte Methoden in der jüngeren Vergangenheit bemerkenswertes Potenzial gezeigt und eine Vielzahl an Publikationen konnte deren Nutzen in der MRT-Rekonstruktion feststellen. Allerdings besteht dabei das Risiko von subtilen und doch kritischen Fehlern. Daher ist das Ziel dieser Arbeit, die DL-basierte MRT-Rekonstruktion weiterzuentwickeln, während gleichzeitig hohe Bildqualität und Treue der erzeugten Bilder mit den gemessenen Daten gewährleistet wird. Eine Netzwerkarchitektur, die dafür besonders geeignet ist, ist das Variational Network (VN). Um den Nutzen dieser Netzwerke für nicht-kartesische Herzbildgebung zu untersuchen, beschreibt der erste Teil dieser Arbeit eine Anwendung von VNs, welche spezifisch für die Rekonstruktion von beschleunigten Akquisitionen mit spiralen Auslesetrajektorien angepasst wurden. Die vorgeschlagene Methode wird mit einer segmentierten Rekonstruktion, einem U-Net, und einem Compressed Sensing (CS)-Modell anhand von qualitativen und quantitativen Metriken verglichen. Während das U-Net schlecht abschneidet, zeigen die VN- und CS-Methoden eine gute Bildqualität. In der funktionalen Herzbildgebung beschleunigt die vorgeschlagene Echtzeit-Methode mit VN-Rekonstruktion die Aufnahme gegenüber dem Goldstandard wesentlich, von etwa zehn zu nur einer Minute. Klinische Parameter stimmen im Mittel überein.
Die Bewertung von Bildqualität in der MRT-Rekonstruktion ist im Allgemeinen komplex, vor allem für moderne, nichtlineare Methoden. Daher wurden anschließend forgeschrittene Techniken zur präsizen Analyse von Bildqualität demonstriert. Mit zwei separaten Methoden wurde einerseits die Auflösung und andererseits die Verstärkung oder Unterdrückung von Rauschen in jedem Pixel eines untersuchten Bildes lokal quantifiziert. Damit wurden lokale Karten von Auflösung und Rauschen in Rekonstruktionen durch Parallele Bildgebung (GRAPPA), CS, U-Net und VN für MR-Aufnahmen des Gehirns berechnet. In den untersuchten Bildern zeigte GRAPPA gleichmäßig eine ideale Auflösung, aber merkliche Rauschverstärkung. Die anderen Methoden verhalten sich lokal unterschiedlich je nach Struktur des untersuchten Bildes. Die gemessene lokale Unschärfe unterschied sich an den Kanten gegenüber homogenen Bildbereichen, und Rauschen wurde überall außer an Kanten unterdrückt. Insgesamt wurde für VNs eine Kombination von verschiedenen günstigen Eigenschaften festgestellt, unter anderem ein guter Kompromiss zwischen Auflösung und Rauschen, schnelle Laufzeit, und hohe Qualität und Datentreue der erzeugten Bilder. Daher erscheint diese Netzwerkarchitektur als ein äußerst vielversprechender Ansatz für MRT-Rekonstruktion.
|
54 |
Der Einfluss von Aufmerksamkeit und Interferenzkontrolle auf die Verarbeitung visueller Stimuli / The influence of attention and interference control on the processing of visual stimuliSchreppel, Theresa January 2008 (has links) (PDF)
Gegenstand der vorliegenden Arbeit war die Frage, inwieweit die neuronale Verarbeitung visueller Stimuli durch Prozesse der Aufmerksamkeit und des Arbeitsgedächtnisses moduliert werden kann. Darüber hinaus wurde untersucht, welche „top down“ Prozesse diese Modulation steuern. Dabei wurden zwei konkurrierende Ansichten als mögliche Erklärungsmodelle zugrunde gelegt und überprüft. Zum einen wäre es möglich, dass selektive Aufmerksamkeit zwei qualitativ unterschiedliche Mechanismen beinhaltet. Demnach würde neben dem Fokussieren auf relevante Informationen auch ein aktiver Prozess der Inhibition der Verarbeitung irrelevanter Stimuli existieren. Zum anderen ist es aber auch denkbar, dass aufgrund begrenzter Verarbeitungsressourcen das Fokussieren auf relevante Reize automatisch mit dem Nichtbeachten irrelevanter Stimuli einhergeht und nur ein Mechanismus existiert. In einem ersten Experiment wurde vorab die Alertness als ein grundlegender Prozess der Aufmerksamkeit mit der Nah-Infrarot Spektroskopie (NIRS) untersucht. Mittels eines zweigestuften Studiendesigns wurden in einem ersten Schritt für die Alertness relevante Regionen über fronto-temporalen Hirnarealen definiert. Als relevant erwiesen sich Areale des mittleren und superioren temporalen Kortex der rechten Hemisphäre und der ventrale Teil des inferioren frontalen Kortex der linken Hemisphäre. In einer zweiten Datenerhebung konnte für diese Regionen eine signifikant höhere Aktivierung während der Alertnessbedingung im Vergleich zu einer visuellen und motorischen Kontrollbedingung gefunden werden. Mit dem zweiten Experiment sollten bestehende, mit dem Elektroenzephalogramm (EEG) erhobene, Befunde zur Modulation der neuronalen Verarbeitung visueller Stimuli repliziert werden. Dies geschah mithilfe eines neu entwickelten Untersuchungsparadigmas, einer modifizierten n-back Aufgabe. Wie erwartet fand sich eine erhöhte Verarbeitung aufgaben-relevanter Reize im Vergleich zu einer perzeptuellen Kontrollbedingung. Die Verarbeitung irrelevanter Reize wurde allerdings nicht unterdrückt. Explorativ fand sich ein entsprechendes Korrelat der Aufmerksamkeitslenkung über frontalen Elektroden. In einem dritten Experiment wurde das modifizierte n-back Paradigma an die Anforderungen einer NIRS Messung angepasst, um frontale Effekte der Aufmerksamkeitslenkung direkter erfassen zu können als mit dem EEG. Wie erwartet fand sich bezüglich des Beachtens wie auch des Ignorierens von Stimuli eine Beteiligung frontaler Strukturen. Auf beachtete Stimuli folgte eine bilaterale Aktivierung des dorsolateralen präfrontalen Kortex (DL-PFK) und eine Aktivierung des linken inferioren frontalen Kortex bis hin zum prä- und postzentralen Kortex. Das Ignorieren visueller Stimuli führte zu einer weitläufigen Aktivierung des rechten präfrontalen Kortex (PFK). Eine Beteiligung des linken inferioren frontalen Gyrus an der Interferenzkontrolle konnte nicht wie erwartet nachgewiesen werden. Der Vergleich der beiden Aktivierungsmuster ergab keine signifikanten Unterschiede. Die zugrunde liegenden Prozesse des Arbeitsgedächtnisses und der Interferenzkontrolle führten also zu einer Aktivierung stark überlappender Hirnregionen. Nachdem die Ergebnisse der Experimente 2 und 3 keinerlei Hinweise auf einen aktiven Prozess der Interferenzinhibition nachweisen konnten, wurde im Experiment 4 die bisher genutzte 1-back Aufgabe durch eine schwierigere 2-back Aufgabe ersetzt. Aufgrund der erhöhten Auslastung des Arbeitsgedächtnisses sollte eine stärkere Anstrengung und damit eine verstärkte frontale Aktivierung bei der Interferenzinhibition auftreten. Diese Hypothese wurde mit einer frontalen NIRS Messung überprüft (Experiment 4a). Wie erwartet führte die erhöhte Auslastung des Arbeitsgedächtnisses zu einer verstärkten Aktivierung des PFK bezüglich beachteter Reize. Hinsichtlich ignorierter Reize fand sich allerdings keine frontale Beteiligung. Parallel erhobene EEG Daten zeigten keinen Unterschied zwischen der Verarbeitung beachteter und ignorierter Gesichter. Die Verarbeitung passiv betrachteter Gesichter war im Gegensatz zu beachteten und ignorierten Gesichtern vermindert. Im zweiten Teil der Studie (Experiment 4b) wurden erstmals die okzipitalen Effekte der Aufmerksamkeitslenkung mit der NIRS erfasst. Im Einklang mit den Ergebnissen der ersten EEG Studie (Experiment 2) fand sich zwar eine verstärkte Verarbeitung beachteter, aber keine verminderte Verarbeitung ignorierter Reize. Zusammengenommen sprechen die fehlende aktive Inhibition von Distraktorreizen im okzipitalen Kortex und die vergleichbaren neuronalen Korrelate von Prozessen des Arbeitsgedächtnisses und der Interferenzinhibition im frontalen Kortex für die Hypothese einer Aufteilung von begrenzten Verarbeitungsressourcen zugunsten beachteter Reize. / The aim of the present work was to investigate, to what extend the neural processing of visual stimuli could be modulated by processes of attention and working memory and which top down processes control this modulation. Two competing explanatory models were proved in the present work. On the one hand it is possible that selective attention comprise two qualitatively different mechanisms, the focussing on relevant information and the active inhibition of irrelevant stimuli. On the other hand it is possible that the limited processing capacities lead to an automatic disregard of irrelevant stimuli when focussing on relevant information. According to this, there would be only one mechanism. In a first experiment alertness was investigated with near-infrared spectroscopy (NIRS) as a basic process of attention. In a two step design relevant areas for alertness over the fronto-temporal cortex were defined first. Alertness related activity was found in the middle and superior temporal cortex of the right hemisphere and in the ventral part of the inferior frontal cortex of the left hemisphere. The analyses of a second measurement for these specific regions revealed a significantly increased activation for alertness in contrast to a visual and a motor control condition. The aim of a second experiment was to replicate existing electroencephalographic (EEG) results of the modulation of the neural processing of visual stimuli with a new developed paradigm, a modified version of the n-back task. As expected there was a higher processing of relevant stimuli in comparison to a perceptual control condition. The processing of irrelevant stimuli was not suppressed. Explorative, there was an analogue result of the modulation of attention over frontal electrodes. In a third experiment the modified n-back paradigm was adjusted to the standards of NIRS measurements to capture frontal effects of attentional modulation more immediate than with EEG. As expected both attended and ignored stimuli were associated with activation of frontal structures. Relevant stimuli were linked with a bilateral activation of the dorsolateral prefrontal cortex (DL-PFC) and activation from the left inferior frontal cortex to the pre- and postcentral cortex. Irrelevant stimuli were linked with a distributed activation of the right PFC. An involvement of the left frontal gyrus could not be verified. The comparison of the two activation patterns revealed no significant difference, the basic processes of working memory and interference control led to an activation of highly overlapping brain regions. The results of the experiments 2 and 3 revealed no evidence of an active process of interference control. Therefore, the 1-back task was replaced by a more difficult 2-back task in experiment 4. Due to the higher working memory load, there should be a stronger effort and therefore a stronger frontal activation during interference inhibition. This hypothesis was proved with a frontal NIRS measurement (experiment 4a). As expected, the higher working memory load led to a stronger activation of the PFC in respect of the relevant stimuli. Concerning irrelevant stimuli, there was no frontal activation. EEG data that were collected simultaneously showed no difference between the processing of attended and ignored faces. In comparison to that the processing of passively viewed faces was decreased. The second part of this study examined occipital effects of attentional modulation with NIRS for the first time. In line with the results of the first EEG study (experiment 2) there was an enhanced processing of relevant, but no decreased processing of ignored stimuli. In sum, the absent active inhibition of distractors in the occipital cortex and the similar neural correlates of processes of working memory and interference inhibition in the frontal cortex argue for the hypothesis of one uniform mechanism of focussing attention without an active and independent mechanism of interference inhibition.
|
55 |
Entwicklung und Erprobung eines standardisierten Auswerteverfahrens für die Bestimmung der Myokardperfusion mit der MRT / Development and evaluation of a standardized evaluation process for determination of myocardial perfusion by using MRIReiß-Zimmermann, Martin January 2008 (has links) (PDF)
Mit dem hier vorgestellten Untersuchungs- und Auswertealgorithmus konnte die Myokardperfusion weitgehend automatisiert semiquantitativ und quantitativ bestimmt werden. Dafür wurden zunächst die Bilddaten segmentiert und in Signalintensitäts-Zeit-Kurven transferiert. Durch eine Basislinien- und Kontaminationskorrektur wurden Artefakte minimiert. Mit Anwendung des Parallel-Bildgebungs-Verfahrens Auto-SENSE konnte zusätzlich eine Erhöhung der Schichtanzahl erreicht werden. Durch die angewendete Basislinienkorrektur konnten Inhomogenitäten verringert werden, welche durch Verwendung einer Oberflächenspule methodenbedingt auftreten. Partialvolumeneffekte, die durch die Morphologie des Herzens insbesondere basis- und spitzennah auftraten, führten durch eine Mischung aus KM-Anflutung im Myokard und Kontamination aus dem Ventrikellumen zu einer Beeinflussung der Perfusionsergebnisse. Durch die Verwendung der vorgestellten Kontaminationskorrektur konnten diese Artefakte erheblich minimiert werden. Die so errechneten Perfusionswerte korrelierten gut mit den in der Literatur angegebenen Daten, welche sowohl in tierexperimentellen als auch Probanden- und auch Patientenstudien mit unterschiedlichen Modalitäten ermittelt wurden. Eine regionale Heterogenität konnte nicht signifikant nachgewiesen werden. Molekular-physiologische Untersuchungen legen zwar nahe, dass es diese Heterogenität gibt, die regionale Verteilung der Perfusion wird jedoch kontrovers und noch keinesfalls abschließend in der Literatur diskutiert. Durch Anwendung von Auto-SENSE konnte mit einer Erhöhung der Schichtanzahl bei gleichbleibender Schichtdicke das gesamte linksventrikuläre Myokard untersucht werden. Trotz verringertem SNR waren die Ergebnisse vergleichbar mit der konventionellen Turbo-FLASH-Technik. Ob das Potential der Parallelbildgebung für eine Abdeckung des gesamten Herzens oder für eine höhere Auflösung von 3-4 Schichten pro Untersuchungen genutzt werden soll, ist in der aktuellen Literatur noch Gegenstand der Diskussion. Die hochaufgelösten Untersuchungen scheinen jedoch derzeit vorteilhafter aufgrund geringerer Partialvolumeneffekte sowie der besseren Beurteilbarkeit einer subendokardialen Zone und eines transmuralen Perfusionsgradienten. Die MR-Perfusionsbildgebung ist ein aktives und rasch wachsendes Gebiet innerhalb der kardialen Bildgebung mit großem Entwicklungspotential. Durch Einbindung in ein umfassendes Herz-MR-Untersuchungsprotokoll (z.B. Morphologie, Kinetik, evtl. MR-Koronarangiographie) ist in einem Untersuchungsgang eine umfassende Diagnostik bei Patienten mit Verdacht auf KHK möglich. / Using the presented algorithm for examination and analysis, a nearly fully automated quantitative and semi-quantitative assessment of myocardial perfusion had been performed. In a first step image data had been segmented and transformed into signal intensity time curves. Auto-SENSE, being a parallel imaging method, enabled increment of the amount of slices. Applying the proposed baseline and contamination correction had minimized artifacts. Baseline correction also minimized inhomogeneities that are caused by using surface coils. Partial volume effects, which had been seen especially in the basis and apex of the heart, lead to interference of the myocardial perfusion due to interaction of the myocardial enhancement and contamination of the lumen of the ventricle. Using the proposed contamination correction largely minimized these artifacts. The achieved myocardial perfusion results correspond well with literature data, which had been determined in animal and human studies using different modalities. We did not find a regional heterogeneity in myocardial perfusion, which is being discussed controversially in literature. Due to applying Auto-SENSE, examination of the whole left ventricular myocardium had been performed by increasing the amount of slices, while thickness of every single slice stayed even. Despite decrease of SNR, perfusion results had been equal to conventional Turbo-FLASH technique. Whether the potential of parallel imaging should be used for evaluation of the whole heart or higher resolution of 3-4 slices per examination is being discussed controversially in recent literature. High-resolution examinations seem to be advantageous due to reduced partial volume effects as well as better discrimination of the subendocardial zone and a transmural perfusion gradient. MR imaging of the cardial perfusion is an active and fast growing field of research in cardiac imaging with a large developmental potential. Integration in a cardiac MR protocol (for example morphology, kinetics, optional MR-coronary angiography) enables a comprehensive diagnostic tool in a single examination for patients with suspected cardiac heart disease.
|
56 |
Adaptive Isoflächenextraktion aus großen VolumendatenHelbig, Andreas 15 November 2007 (has links) (PDF)
Aus besonders großen Volumendaten extrahierte Isoflächen besitzen eine kaum beherrschbare Anzahl an Polygonen, weshalb die Extraktion von adaptiven, also bezüglich einer geometrischen Fehlermetrik reduzierten, Isoflächen wünschenswert ist. Ein häufiges Problem gängiger adaptiver Verfahren ist, dass sie Datenstrukturen verwenden, die gerade für große Daten besonders viel Hauptspeicher benötigen und daher nicht direkt anwendbar sind. Nachdem auf die Grundlagen zur Isoflächenextration eingegangen wurde, wird im Rahmen dieser Diplomarbeit ein auf Dual Contouring basierendes Verfahren entworfen, das die adaptive Isoflächenextraktion aus sehr großen Volumendaten auch bei begrenztem Hauptspeicher mit einem zeitlich vertretbaren Aufwand erlaubt. Der verwendete Octree wird dazu nur implizit aufgebaut und temporär nicht benötigte Daten werden unter Nutzung von Out-of-core-Techniken in den Sekundärspeicher ausgelagert. Die verschiedenen Implementierungsansätze werden unter Berücksichtigung maximaler Effizienz verglichen. Die Tauglichkeit des Verfahrens wird an verschiedenen sehr großen Testdatensätzen nachgewiesen. / Isosurfaces that are extracted from massive volume data sets consist of a hardly processable amount of polygons. Hence adaptive isosurfaces should be extracted with respect to a geometric error metric. Popular adaptive methods frequently require an amount of memory that turns them unfeasible for large data sets. After dwelling on the fundamentals of isosurfaces, a dual contouring based method will be developed that allows for the extraction of adaptive isosurfaces from massive volume data sets. The required octree is built implicitly, and temporarily unneeded data is swapped out on a secondary storage using out of core techniques. Various implementation approaches will be discussed and compared concerning maximum efficiency. The suitability of the method will be demonstrated with various massive volume data sets.
|
57 |
Accelerated nonrigid image registrationRohrer, Jonathan January 2009 (has links)
Zugl.: Zürich, Techn. Hochsch., Diss., 2009
|
58 |
Non-linear registration based on mutual information theory, numerics, and applicationHeldmann, Stefan January 1900 (has links)
Zugl.: Lübeck, Univ., Diss., 2006
|
59 |
Hybrid geometry representations with applications in medical imaging and model repair /Bischoff, Stephan Michael. January 2007 (has links)
Zugl.: Aachen, Techn. Hochsch., Diss., 2007.
|
60 |
Interaktive und dynamische Visualisierung für die chirurgische Ausbildung und InterventionsplanungBade, Ragnar January 2008 (has links)
Zugl.: Magdeburg, Univ., Diss., 2008
|
Page generated in 0.2587 seconds