Spelling suggestions: "subject:"bildgebung"" "subject:"herzbildgebung""
151 |
Essays in experimental and neuroeconomicsGerhardt, Holger 22 April 2013 (has links)
Ausgangspunkt dieser Dissertation ist, dass mit stabilen Präferenzen unvereinbares Verhalten für die Standardökonomik eine Herausforderung darstellt. Eines der sich stellenden Probleme ist, dass sich wandelnde Präferenzen der normativen Analyse abträglich sind: Wenn nicht vorhersagbar ist, ob und wie Präferenzen abhängig von der Situation und von institutionellen Arrangements variieren, lässt sich keine optimale Wirtschaftspolitik bestimmen. Es wird argumentiert, dass die Ökonomik daher auch in Betracht ziehen muss, wie Präferenzen evolvieren und wie ökonomische Akteure Informationen - z. B. Wahrscheinlichkeiten und Auszahlungen -verarbeiten. In den folgenden Kapiteln werden zwei Studien vorgestellt, die dieses Ziel verfolgen, indem sie den Prozess der Entscheidungsfindung experimentell untersuchen. Die erste Studie, "Kognitive Last erhöht Risikoaversion", zeigt, dass eine spezifische Änderung des Entscheidungsumfelds - nämlich eine Erhöhung der kognitiven Last - einen messbaren Einfluss auf die Risikoeinstellungen der Versuchspersonen hatte. Zudem werden die beobachteten Verhaltensänderungen in Verbindung zu existierenden Mehr-System-Modellen der Entscheidungsfindung gesetzt. Die ebenfalls gemessenen Reaktionszeiten bestätigt die Interpretation, dass die Entscheidungsfindung unter Risiko das Produkt interagierender Systeme im menschlichen Hirn ist. Die zweite Studie, "Soziales Lernen auf Finanzmärkten", verfolgt das Ziel, die normalerweise verborgenen Komponenten Präferenzen und Überzeugungen beobachtbar zu machen. Zu diesem Zweck absolvierten Versuchspersonen ein Experiment, während ihre Hirnaktivierung per funktioneller Magnetresonanztomografie gemessen wurde. Dies erweitert den analysierbaren Datensatz über die getroffenen Entscheidungen hinaus um Maße der Hirnaktivierung. Dadurch trägt diese Studie zur Identifizierung der Faktoren bei, die bestimmen, in welchem Umfang wir aus der Beobachtung der Entscheidungen anderer lernen. / The point of departure of this dissertation is that behavior which is inconsistent with stable preferences poses a challenge for mainstream economics. One of the issues that arise is that changing preferences are detrimental to the objective of normative economics: If one cannot predict whether and how people’s preferences vary across situations or institutions, one cannot determine which economic policy would be optimal. Based on this, it is argued that economics has to take into account how preferences evolve and how information - e.g., probabilities and payoffs - is processed by economic agents. In the following two chapters, two experimental studies are presented that pursue this goal by investigating the process by which people make decisions. The first study, "Cognitive load increases risk aversion," shows that a specific change in the environment - in this case, an increase in cognitive load - had a measurable impact on subjects’ risk attitudes. Importantly, it also relates the observed changes to existing dual-system models of decision making. The response times which were recorded in addition to subjects’ choices contribute to the interpretation of the study’s findings, since they support the view that decision making under risk is the product of interacting systems in the human brain. The second study, "Social learning in asset markets," has the objective of making the latent components preferences and beliefs observable. To this end, subjects participated in a social-learning experiment while their brain activation was recorded via functional magnetic-resonance imaging. This enlarges the analyzable dataset through measures of subjects’ brain activation in addition to subjects’ choices. In doing so, the study contributes to identifying the factors that shape to what extent we learn from observing the choices of other human beings.
|
152 |
Nichtinvasiv neuronavigierte transkranielle Dopplersonographie / Non-invasively neuronavigated transcranial Doppler sonographyGreke, Christian 17 April 2012 (has links)
No description available.
|
153 |
Innovative MRT-Kontraste zur in-vivo-Differenzierung von Patienten mit typischem idiopathischen Parkinson und atypischen Parkinsonsyndromen / Innovative MRI contrasts for in-vivo-differentiation of patients with typical idiopathic Parkinson's syndromes and atypical parkinsonian syndromesPantel, Pia Marie 13 January 2014 (has links)
HINTERGRUND/ ZIELSETZUNG:
Vom idiopathischen Parkinsonsyndrom (IPS) können so genannte „atypische“ Parkinsonsyndrome (APS) mit einem Anteil von ca. 20% bezogen auf die Gesamtinzidenz unterschieden werden. Neben zusätzlichen Krankheitssymptomen und einem progredienteren Verlauf zeichnen sie sich durch eine schlechtere Prognose aus, die häufig auf einem Nichtansprechen auf eine dopaminerge Therapie beruht. Eine frühzeitige, korrekte Diagnose ist daher sehr entscheidend, aber im Einzelfall auch für Spezialisten äußerst schwierig. Trotz anerkannter klinischer Diagnosekriterien gibt es besonders im Frühstadium eine hohe Rate an Fehldiagnosen.
Das zur Zeit vorherrschende Verfahren in der bildgebenden Diagnostik ist die Magnetresonanztomographie, wobei die konventionelle, qualitative MRT bislang keine zufriedenstellenden Ergebnisse bezüglich ihrer Spezifität und Sensitivität gezeigt hat.
Die vorliegende Arbeit untersucht in einer direkten Vergleichsstudie das differenzialdiagnostische Potential der sogenannten „erweiterten“ quantitativen MRT-Verfahren.
MATERIAL UND METHODEN:
Ein Gesamtkollektiv von insgesamt 44 Probanden (IPS/ APS/ gesunde Kontrollen) durchlief ein umfassendes quantitatives MRT- Protokoll (R1/R2(*)-, DTI-, MTR- Mapping) um in manuell bilateral markierten, definierten Regionen (ROIs) in den Basalganglienkernen quantitative Parameter zu erheben.
ERGEBNISSE:
Die beste hochsignifikante Trennung der MSA-P- Patienten sowohl von IPS- Patienten (p = 0,001) als auch von Kontrollen (p = 0,004) konnte anhand des R2 * - Mappings im Putamen erreicht werden. Es zeigte sich eine Vorhersagekraft AUC von > / = 0,96 mit einer Sensitivität von 77,8 % (bei einer Spezifität von 100 %). Dies bestätigt die große Bedeutung der Eisensensitivität des R2*-Mappings bei der Identifizierung von MSA-P- Patienten.
Auch anhand des MTR-Mappings konnte eine MSA-P anhand der putaminalen (p = 0,005) und nigralen (p = 0,003) Signalveränderungen signifikant vorhergesagt werden.
Die beste signifikante Abgrenzung der PSP- Patienten von den Kontrollen gelang anhand der DTI- Messungen in der Substantia nigra (p = 0,001) sowie im Globus pallidus (p = 0,004).
Für die diagnostische Vorhersage eines IPS konnten keine nutzbaren Signalunterschiede festgestellt werden. Insbesondere in der Substantia nigra zeigten sich gegenüber Kontrollen keine signifikanten Gruppenunterschiede.
FAZIT:
Unter den angewandten MRT- Verfahren zeigt das R2*-Mapping die beste Vorhersagekraft zur Differenzierung der MSA von IPS- Patienten und das DTI- Mapping zur Identifizierung der PSP- Patienten. Das Besondere unseres Arbeitsansatzes war, im Gegensatz zu vorherigen Studien, die Durchführung der Untersuchung an nur einer Kohorte. Dadurch konnte die Güte der verschiedenen MRT-Verfahren direkt und quantitativ miteinander verglichen werden.
Insgesamt unterstreichen die Erkenntnisse dieser Arbeit den Stellenwert und die mögliche klinische Relevanz der quantitativen MRT, insbesondere bei der Identifizierung atypischer Parkinsonsyndrome.
|
154 |
Modelling cortical laminae with 7T magnetic resonance imagingWähnert, Miriam 28 January 2015 (has links) (PDF)
To fully understand how the brain works, it is necessary to relate the
brain’s function to its anatomy. Cortical anatomy is subject-specific. It is character-
ized by the thickness and number of intracortical layers, which differ from one cortical
area to the next. Each cortical area fulfills a certain function. With magnetic res-
onance imaging (MRI) it is possible to study structure and function in-vivo within
the same subject. The resolution of ultra-high field MRI at 7T allows to resolve
intracortical anatomy. This opens the possibility to relate cortical function of a sub-
ject to its corresponding individual structural area, which is one of the main goals of
neuroimaging.
To parcellate the cortex based on its intracortical structure in-vivo, firstly, im-
ages have to be quantitative and homogeneous so that they can be processed fully-
automatically. Moreover, the resolution has to be high enough to resolve intracortical
layers. Therefore, the in-vivo MR images acquired for this work are quantitative T1
maps at 0.5 mm isotropic resolution.
Secondly, computational tools are needed to analyze the cortex observer-independ-
ently. The most recent tools designed for this task are presented in this thesis. They
comprise the segmentation of the cortex, and the construction of a novel equi-volume
coordinate system of cortical depth. The equi-volume model is not restricted to in-
vivo data, but is used on ultra-high resolution post-mortem data from MRI as well.
It could also be used on 3D volumes reconstructed from 2D histological stains.
An equi-volume coordinate system yields firstly intracortical surfaces that follow
anatomical layers all along the cortex, even within areas that are severely folded
where previous models fail. MR intensities can be mapped onto these equi-volume
surfaces to identify the location and size of some structural areas. Surfaces com-
puted with previous coordinate systems are shown to cross into different anatomical
layers, and therefore also show artefactual patterns. Secondly, with the coordinate
system one can compute cortical traverses perpendicularly to the intracortical sur-
faces. Sampling intensities along equi-volume traverses results in cortical profiles that
reflect an anatomical layer pattern, which is specific to every structural area. It is
shown that profiles constructed with previous coordinate systems of cortical depth
disguise the anatomical layer pattern or even show a wrong pattern. In contrast to
equi-volume profiles these profiles from previous models are not suited to analyze the
cortex observer-independently, and hence can not be used for automatic delineations
of cortical areas.
Equi-volume profiles from four different structural areas are presented. These pro-
files show area-specific shapes that are to a certain degree preserved across subjects.
Finally, the profiles are used to classify primary areas observer-independently.
|
155 |
Reconstructing Functions on the Sphere from Circular MeansQuellmalz, Michael 09 April 2020 (has links)
The present thesis considers the problem of reconstructing a function f that is defined on the d-dimensional unit sphere from its mean values along hyperplane sections. In case of the two-dimensional sphere, these plane sections are circles. In many tomographic applications, however, only limited data is available. Therefore, one is interested in the reconstruction of the function f from its mean values with respect to only some subfamily of all hyperplane sections of the sphere. Compared with the full data case, the limited data problem is more challenging and raises several questions. The first one is the injectivity, i.e., can any function be uniquely reconstructed from the available data? Further issues are the stability of the reconstruction, which is closely connected with a description of the range, as well as the demand for actual inversion methods or algorithms.
We provide a detailed coverage and answers of these questions for different families of hyperplane sections of the sphere such as vertical slices, sections with hyperplanes through a common point and also incomplete great circles. Such reconstruction problems arise in various practical applications like Compton camera imaging, magnetic resonance imaging, photoacoustic tomography, Radar imaging or seismic imaging. Furthermore, we apply our findings about spherical means to the cone-beam transform and prove its singular value decomposition. / Die vorliegende Arbeit beschäftigt sich mit dem Problem der Rekonstruktion einer Funktion f, die auf der d-dimensionalen Einheitssphäre definiert ist, anhand ihrer Mittelwerte entlang von Schnitten mit Hyperebenen. Im Fall d=2 sind diese Schnitte genau die Kreise auf der Sphäre. In vielen tomografischen Anwendungen sind aber nur eingeschränkte Daten verfügbar. Deshalb besteht das Interesse an der Rekonstruktion der Funktion f nur anhand der Mittelwerte bestimmter Familien von Hyperebenen-Schnitten der Sphäre. Verglichen mit dem Fall vollständiger Daten birgt dieses Problem mehrere Herausforderungen und Fragen. Die erste ist die Injektivität, also können alle Funktionen anhand der gegebenen Daten eindeutig rekonstruiert werden? Weitere Punkte sind die die Frage nach der Stabilität der Rekonstruktion, welche eng mit einer Beschreibung der Bildmenge verbunden ist, sowie der praktische Bedarf an Rekonstruktionsmethoden und -algorithmen.
Diese Arbeit gibt einen detaillierten Überblick und Antworten auf diese Fragen für verschiedene Familien von Hyperebenen-Schnitten, angefangen von vertikalen Schnitten über Schnitte mit Hyperebenen durch einen festen Punkt sowie Kreisbögen. Solche Rekonstruktionsprobleme treten in diversen Anwendungen auf wie der Bildgebung mittels Compton-Kamera, Magnetresonanztomografie, fotoakustischen Tomografie, Radar-Bildgebung sowie der Tomografie seismischer Wellen. Weiterhin nutzen wir unsere Ergebnisse über sphärische Mittelwerte, um eine Singulärwertzerlegung für die Kegelstrahltomografie zu zeigen.
|
156 |
Nuclear methods for real-time range verification in proton therapy based on prompt gamma-ray imagingHueso González, Fernando 07 June 2016 (has links)
Accelerated protons are excellent candidates for treating several types of tumours. Such charged particles stop at a defined depth, where their ionisation density is maximum. As the dose deposit beyond this distal edge is very low, proton therapy minimises the damage to normal tissue compared to photon therapy.
Nonetheless, inherent range uncertainties cast doubts on the irradiation of tumours close to organs at risk and lead to the application of conservative safety margins. This constrains significantly the potential benefits of proton over photon therapy and limits its ultimate aspirations. Prompt gamma rays, a by-product of the irradiation that is correlated to the dose deposition, are reliable signatures for the detection of range deviations and even for three-dimensional in vivo dosimetry.
In this work, two methods for Prompt Gamma-ray Imaging (PGI) are investigated: the Compton camera (Cc) and the Prompt Gamma-ray Timing (PGT). Their applicability in a clinical scenario is discussed and compared. The first method aspires to reconstruct the prompt gamma ray emission density map based on an iterative imaging algorithm and multiple position sensitive gamma ray detectors. These are arranged in scatterer and absorber plane. The second method has been recently proposed as an alternative to collimated PGI systems and relies on timing spectroscopy with a single monolithic detector. The detection times of prompt gamma rays encode essential information about the depth-dose profile as a consequence of the measurable transit time of ions through matter. At Helmholtz-Zentrum Dresden-Rossendorf (HZDR) and OncoRay, detector components are characterised in realistic radiation environments as a step towards a clinical Cc. Conventional block detectors deployed in commercial Positron Emission Tomography (PET) scanners, made of Cerium-doped lutetium oxyorthosilicate - Lu2SiO5:Ce (LSO) or Bismuth Germanium Oxide - Bi4Ge3O12 (BGO) scintillators, are suitable candidates for the absorber of a Cc due to their high density and absorption efficiency with respect to the prompt gamma ray energy range (several MeV). LSO and BGO block detectors are compared experimentally in clinically relevant radiation fields in terms of energy, spatial and time resolution. On a different note, two BGO block detectors (from PET scanners), arranged as the BGO block Compton camera (BbCc), are deployed for simple imaging tests with high energy prompt gamma rays produced in homogeneous Plexiglas targets by a proton pencil beam. The rationale is to maximise the detection efficiency in the scatterer plane despite a moderate energy resolution. Target shifts, increase of the target thickness and beam energy variation experiments are conducted. Concerning the PGT concept, in a collaboration among OncoRay, HZDR and IBA, the first test at a clinical proton accelerator (Westdeutsches Protonentherapiezentrum Essen) with several detectors and heterogeneous phantoms is performed. The sensitivity of the method to range shifts is investigated, the robustness against background and stability of the beam bunch time profile is explored, and the bunch time spread is characterised for different proton energies.
With respect to the material choice for the absorber of the Cc, the BGO scintillator closes the gap with respect to the brighter LSO. The reason behind is the high energies of prompt gamma rays compared to the PET scenario, which increase significantly the energy, spatial and time resolution of BGO. Regarding the BbCc, shifts of a point-like radioactive source are correctly detected, line sources are reconstructed, and one centimetre proton range deviations are identified based on the evident changes of the back projection images. Concerning the PGT experiments, for clinically relevant doses, range differences of five millimetres in defined heterogeneous targets are identified by numerical comparison of the spectrum shape. For higher statistics, range shifts down to two millimetres are detectable. Experimental data are well reproduced by analytical modelling. The Cc and the PGT are ambitious approaches for range verification in proton therapy based on PGI. Intensive detector characterisation and tests in clinical facilities are mandatory for developing robust prototypes, since the energy range of prompt gamma rays spans over the MeV region, not used traditionally in medical applications. Regarding the material choice for the Cc: notwithstanding the overall superiority of LSO, BGO catches up in the field of PGI. It can be considered as a competitive alternative to LSO for the absorber plane due to its lower price, higher photoabsorption efficiency, and the lack of intrinsic radioactivity.
The results concerning the BbCc, obtained with relatively simple means, highlight the potential application of Compton cameras for high energy prompt gamma ray imaging. Nevertheless, technical constraints like the low statistics collected per pencil beam spot (if clinical currents are used) question their applicability as a real-time and in vivo range verification method in proton therapy. The PGT is an alternative approach, which may have faster translation into clinical practice due to its lower price and higher efficiency.
A proton bunch monitor, higher detector throughput and quantitative range retrieval are the upcoming steps towards a clinically applicable prototype, that may detect significant range deviations for the strongest beam spots. The experimental results emphasise the prospects of this straightforward verification method at a clinical pencil beam and settle this novel approach as a promising alternative in the field of in vivo dosimetry.:1 Introduction
1.1 Proton therapy
1.1.1 The beginnings
1.1.2 Essential features
1.1.3 Advantages and drawbacks
1.2 Range uncertainties and their consequences
1.3 Range verification methods
1.4 Prompt gamma-ray imaging
1.4.1 Passive collimation
1.4.2 Active collimation
1.4.3 Correlation to dose
1.5 Aim of this work
2 Compton camera
2.1 Theoretical background
2.1.1 Compton formula and Klein-Nishina cross section
2.1.2 Detection principle
2.1.3 Intersection of cone surface and plane
2.1.4 Practical considerations
2.2 Motivation
2.3 Goals
2.4 Materials
2.4.1 Scintillator properties
2.4.2 Block detector properties
2.4.3 Electronics and data acquisition
2.4.4 High efficiency Compton camera setup
2.5 Experimental setup
2.5.1 Accelerators
2.5.2 Detector setup
2.5.3 Trigger regime
2.6 Methods
2.6.1 Energy calibration
2.6.2 Spatial calibration
2.6.3 Time calibration
2.6.4 Error analysis
2.6.5 Systematic measurement program
2.7 Results – absorber choice
2.7.1 Energy resolution
2.7.2 Spatial resolution
2.7.3 Time resolution
2.8 Discussion – absorber choice
2.9 Results – BbCc setup
2.10 Discussion – BbCc setup
3 Prompt gamma-ray timing
3.1 Theoretical background
3.1.1 Detection principle
3.1.2 Kinematics
3.1.3 Detector model
3.1.4 Quantitative assessment
3.2 Goals
3.3 Materials
3.3.1 Detectors
3.3.2 Electronics
3.3.3 Accelerators
3.4 Methods
3.4.1 Detector and module settings
3.4.2 Proton bunch phase stability
3.4.3 Proton bunch time structure
3.4.4 Systematic measurement program
3.4.5 Data acquisition rate
3.4.6 Data analysis
3.4.7 Modelling of PGT spectra
3.5 Results
3.5.1 Intrinsic detector time resolution
3.5.2 Illustrative energy over time spectra
3.5.3 Proton bunch phase stability
3.5.4 Proton bunch time structure
3.5.5 Systematic measurement program
3.6 Discussion
3.7 Conclusions
4 Discussion
4.1 Detector load, event throughput and spot duration
4.2 Comparison of PGI systems
4.3 Summary
4.4 Zusammenfassung
Bibliography / Beschleunigte Protonen sind ausgezeichnete Kandidaten für die Behandlung von diversen Tumorarten. Diese geladenen Teilchen stoppen in einer bestimmten Tiefe, bei der die Ionisierungsdichte maximal ist. Da die deponierte Dosis hinter der distalen Kante sehr klein ist, minimiert die Protonentherapie den Schaden an normalem Gewebe verglichen mit der Photonentherapie. Inhärente Reichweitenunsicherheiten stellen jedoch die Bestrahlung von Tumoren in der Nähe von Risikoorganen in Frage und führen zur Anwendung von konservativen Sicherheitssäumen. Dadurch werden die potentiellen Vorteile der Protonen- gegenüber der Photonentherapie sowie ihre letzten Ziele eingeschränkt. Prompte Gammastrahlung, ein Nebenprodukt der Bestrahlung, welche mit der Dosisdeposition korreliert, ist eine zuverlässige Signatur um Reichweitenunterschiede zu detektieren und könnte sogar für eine dreidimensionale in vivo Dosimetrie genutzt werden.
In dieser Arbeit werden zwei Methoden für Prompt Gamma-ray Imaging (PGI) erforscht: die Compton-Kamera (CK) und das Prompt Gamma-ray Timing (PGT)-Konzept. Des Weiteren soll deren Anwendbarkeit im klinischen Szenario diskutiert und verglichen werden. Die erste Methode strebt nach der Rekonstruktion der Emissionsdichtenverteilung der prompten Gammastrahlung und basiert auf einem iterativen Bildgebungsalgorithmus sowie auf mehreren positionsempfindlichen Detektoren. Diese werden in eine Streuer- und Absorberebene eingeteilt. Die zweite Methode ist vor Kurzem als eine Alternative zu kollimierten PGI Systemen vorgeschlagen worden, und beruht auf dem Prinzip der Zeitspektroskopie mit einem einzelnen monolithischen Detektor. Die Detektionszeiten der prompten Gammastrahlen beinhalten entscheidende Informationen über das Tiefendosisprofil aufgrund der messbaren Durchgangszeit von Ionen durch Materie. Am Helmholtz-Zentrum Dresden-Rossendorf (HZDR) und OncoRay werden Detektorkomponenten in realistischen Strahlungsumgebungen als ein Schritt zur klinischen CK charakterisiert. Konventionelle Blockdetektoren, welche in kommerziellen Positronen-Emissions-Tomographie (PET)-Scannern zum Einsatz kommen und auf Cer dotiertem Lutetiumoxyorthosilikat - Lu2SiO5:Ce (LSO) oder Bismutgermanat - Bi4Ge3O12 (BGO) Szintillatoren basieren, sind geeignete Kandidaten für den Absorber einer CK wegen der hohen Dichte und Absorptionseffizienz im Energiebereich von prompten Gammastrahlen (mehrere MeV). LSO- und BGO-Blockdetektoren werden in klinisch relevanten Strahlungsfeldern in Bezug auf Energie-, Orts- und Zeitauflösung verglichen. Weiterhin werden zwei BGO-Blockdetektoren (von PET-Scannern), angeordnet als BGO Block Compton-Kamera (BBCK), benutzt, um die Bildgebung von hochenergetischen prompten Gammastrahlen zu untersuchen, die in homogenen Plexiglas-Targets durch einen Protonen-Bleistiftstrahl emittiert werden. Die Motivation hierfür ist, die Detektionseffizienz der Streuerebene zu maximieren, wobei jedoch die Energieauflösung vernachlässigt wird.
Targetverschiebungen, sowie Änderungen der Targetdicke und der Teilchenenergie werden untersucht. In einer Kollaboration zwischen OncoRay, HZDR and IBA, wird der erste Test des PGT-Konzepts an einem klinischen Protonenbeschleuniger (Westdeutsches Protonentherapiezentrum Essen) mit mehreren Detektoren und heterogenen Phantomen durchgeführt. Die Sensitivität der Methode hinsichtlich Reichweitenveränderungen wird erforscht. Des Weiteren wird der Einfluss von Untergrund und Stabilität des Zeitprofils des Strahlenbündels untersucht, sowie die Zeitverschmierung des Bündels für verschiedene Protonenenergien charakterisiert. Für die Materialauswahl für den Absorber der CK ergibt sich, dass sich BGO dem lichtstärkeren LSO Szintillator angleicht. Der Grund dafür sind die höheren Energien der prompten Gammastrahlung im Vergleich zum PET Szenario, welche die Energie-, Orts- und Zeitauflösung von BGO stark verbessern. Anhand von offensichtlichen Änderungen der Rückprojektionsbilder zeigt sich, dass mit der BBCK Verschiebungen einer punktförmigen radioaktiven Quelle erfolgreich detektiert, Linienquellen rekonstruiert und Verschiebungen der Protonenreichweite um einen Zentimeter identifiziert werden.
Für die PGT-Experimente können mit einem einzigen Detektor Reichweitenunterschiede von fünf Millimetern für definierte heterogene Targets bei klinisch relevanten Dosen detektiert werden. Dies wird durch den numerischen Vergleich der Spektrumform ermöglicht. Bei größerer Ereigniszahl können Reichweitenunterschiede von bis zu zwei Millimetern detektiert werden. Die experimentellen Daten werden durch analytische Modellierung wiedergegeben. Die CK und das PGT-Konzept sind ambitionierte Ansätze zur Verifizierung der Reichweite in der Protonentherapie basierend auf PGI. Intensive Detektorcharakterisierung und Tests an klinischen Einrichtungen sind Pflicht für die Entwicklung geeigneter Prototypen, da der Energiebereich prompter Gammastrahlung sich über mehrere MeV erstreckt, was nicht dem Normbereich der traditionellen medizinischen Anwendungen entspricht. Im Bezug auf die Materialauswahl der CK wird ersichtlich, dass BGO trotz der allgemeinen Überlegenheit von LSO für die Anwendung im Bereich PGI aufholt. Wegen des niedrigeren Preises, der höheren Photoabsorptionseffizienz und der nicht vorhandenen Eigenaktivität erscheint BGO als eine konkurrenzfähige Alternative für die Absorberebene der CK im Vergleich zu LSO.
Die Ergebnisse der BBCK, welche mit relativ einfachen Mitteln gewonnen werden, heben die potentielle Anwendung von Compton-Kameras für die Bildgebung prompter hochenergetischer Gammastrahlen hervor. Trotzdem stellen technische Beschränkungen wie die mangelnde Anzahl von Messereignissen pro Bestrahlungspunkt (falls klinische Ströme genutzt werden) die Anwendbarkeit der CK als Echtzeit- und in vivo Reichweitenverifikationsmethode in der Protonentherapie in Frage. Die PGT-Methode ist ein alternativer Ansatz, welcher aufgrund der geringeren Kosten und der höheren Effizienz eine schnellere Umsetzung in die klinische Praxis haben könnte. Ein Protonenbunchmonitor, höherer Detektordurchsatz und eine quantitative Reichweitenrekonstruktion sind die weiteren Schritte in Richtung eines klinisch anwendbaren Prototyps, der signifikante Reichweitenunterschiede für die stärksten Bestrahlungspunkte detektieren könnte. Die experimentellen Ergebnisse unterstreichen das Potential dieser Reichweitenverifikationsmethode an einem klinischen Bleistiftstrahl und lassen diesen neuartigen Ansatz als eine vielversprechende Alternative auf dem Gebiet der in vivo Dosimetrie erscheinen.:1 Introduction
1.1 Proton therapy
1.1.1 The beginnings
1.1.2 Essential features
1.1.3 Advantages and drawbacks
1.2 Range uncertainties and their consequences
1.3 Range verification methods
1.4 Prompt gamma-ray imaging
1.4.1 Passive collimation
1.4.2 Active collimation
1.4.3 Correlation to dose
1.5 Aim of this work
2 Compton camera
2.1 Theoretical background
2.1.1 Compton formula and Klein-Nishina cross section
2.1.2 Detection principle
2.1.3 Intersection of cone surface and plane
2.1.4 Practical considerations
2.2 Motivation
2.3 Goals
2.4 Materials
2.4.1 Scintillator properties
2.4.2 Block detector properties
2.4.3 Electronics and data acquisition
2.4.4 High efficiency Compton camera setup
2.5 Experimental setup
2.5.1 Accelerators
2.5.2 Detector setup
2.5.3 Trigger regime
2.6 Methods
2.6.1 Energy calibration
2.6.2 Spatial calibration
2.6.3 Time calibration
2.6.4 Error analysis
2.6.5 Systematic measurement program
2.7 Results – absorber choice
2.7.1 Energy resolution
2.7.2 Spatial resolution
2.7.3 Time resolution
2.8 Discussion – absorber choice
2.9 Results – BbCc setup
2.10 Discussion – BbCc setup
3 Prompt gamma-ray timing
3.1 Theoretical background
3.1.1 Detection principle
3.1.2 Kinematics
3.1.3 Detector model
3.1.4 Quantitative assessment
3.2 Goals
3.3 Materials
3.3.1 Detectors
3.3.2 Electronics
3.3.3 Accelerators
3.4 Methods
3.4.1 Detector and module settings
3.4.2 Proton bunch phase stability
3.4.3 Proton bunch time structure
3.4.4 Systematic measurement program
3.4.5 Data acquisition rate
3.4.6 Data analysis
3.4.7 Modelling of PGT spectra
3.5 Results
3.5.1 Intrinsic detector time resolution
3.5.2 Illustrative energy over time spectra
3.5.3 Proton bunch phase stability
3.5.4 Proton bunch time structure
3.5.5 Systematic measurement program
3.6 Discussion
3.7 Conclusions
4 Discussion
4.1 Detector load, event throughput and spot duration
4.2 Comparison of PGI systems
4.3 Summary
4.4 Zusammenfassung
Bibliography
|
157 |
Treatment verification in proton therapy based on the detection of prompt gamma-raysGolnik, Christian 22 July 2016 (has links)
Background
The finite range of a proton beam in tissue and the corresponding steep distal dose gradient near the end of the particle track open new vistas for the delivery of a highly target-conformal dose distribution in radiation therapy. Compared to a classical photon treatment, the potential therapeutic benefit of a particle treatment is a significant dose reduction in the tumor-surrounding tissue at a comparable dose level applied to the tumor.
Motivation
The actually applied particle range, and therefor the dose deposition in the target volume, is quite sensitive to the tissue composition in the path of the protons. Particle treatments are planned via computed tomography images, acquired prior to the treatment. The conversion from photon stopping power to proton stopping power induces an important source of range-uncertainty. Furthermore, anatomical deviations from planning situation affect the accurate dose deposition. Since there is no clinical routine measurement of the actually applied particle range, treatments are currently planned to be robust in favor of optimal regarding the dose delivery. Robust planning incorporates the application of safety margins around the tumor volume as well as the usage of (potentially) unfavorable field directions. These pretreatment safety procedures aim to secure dose conformality in the tumor volume, however at the price of additional dose to the surrounding tissue. As a result, the unverified particle range constraints the principle benefit of proton therapy. An on-line, in-vivo range-verification would therefore bring the potential of particle therapy much closer to the daily clinical routine.
Materials and methods
This work contributes to the field of in-vivo treatment verification by the methodical investigation of range assessment via the detection of prompt gamma-rays, a side product emitted due to proton-tissue interaction. In the first part, the concept of measuring the spatial prompt gamma-ray emission profile with a Compton camera is investigated with a prototype system consisting of a CdZnTe cross strip detector as scatter plane and three side-by-side arranged, segmented BGO block detectors as absorber planes. In the second part, the novel method of prompt gamma-ray timing (PGT) is introduced. This technique has been developed in the scope of this work and a patent has been applied for. The necessary physical considerations for PGT are outlined and the feasibility of the method is supported with first proof-of-principle experiments.
Results
Compton camera: Utilizing a 22-Na source, the feasibility of reconstructing the emission scene of a point source at 1.275 MeV was verified. Suitable filters on the scatter-absorber coincident timing and the respective sum energy were defined and applied to the data. The source position and corresponding source displacements could be verified in the reconstructed Compton images.
In a next step, a Compton imaging test at 4.44 MeV photon energy was performed. A suitable test setup was identified at the Tandetron accelerator at the Helmholtz-Zentrum Dresden-Rossendorf, Germany. This measurement setup provided a monoenergetic, point-like source of 4.44 MeV gamma-rays, that was nearly free of background. Here, the absolute gamma-ray yield was determined. The Compton imaging prototype was tested at the Tandetron regarding (i) the energy resolution, timing resolution, and spatial resolution of the individual detectors, (ii) the imaging capabilities of the prototype at 4.44 MeV gamma-ray energy and (iii) the Compton imaging efficiency. In a Compton imaging test, the source position and the corresponding source displacements were verified in the reconstructed Compton images. Furthermore, via the quantitative gamma-ray emission yield, the Compton imaging efficiency at 4.44 MeV photon energy was determined experimentally.
PGT: The concept of PGT was developed and introduced to the scientific community in the scope of this thesis. A theoretical model for PGT was developed and outlined. Based on the theoretical considerations, a Monte Carlo (MC) algorithm, capable of simulating PGT distributions was implemented. At the KVI-CART proton beam line in Groningen, The Netherlands, time-resolved prompt gamma-ray spectra were recorded with a small scale, scintillator based detection system. The recorded data were analyzed in the scope of PGT and compared to the measured data, yielding in an excellent agreement and thus verifying the developed theoretical basis. For a hypothetical PGT imaging setup at a therapeutic proton beam it was shown, that the statistical error on the range determination could be reduced to 5 mm at a 90 % confidence level for a single spot of 5x10E8 protons.
Conclusion
Compton imaging and PGT were investigated as candidates for treatment verification, based on the detection of prompt gamma-rays. The feasibility of Compton imaging at photon energies of several MeV was proven, which supports the approach of imaging high energetic prompt $gamma$-rays. However, the applicability of a Compton camera under therapeutic conditions was found to be questionable, due to (i) the low device detection efficiency and the corresponding limited number of valid events, that can be recorded within a single treatment and utilized for image reconstruction, and (ii) the complexity of the detector setup and attached readout electronics, which make the development of a clinical prototype expensive and time consuming. PGT is based on a simple time-spectroscopic measurement approach. The collimation-less detection principle implies a high detection efficiency compared to the Compton camera. The promising results on the applicability under treatment conditions and the simplicity of the detector setup qualify PGT as method well suited for a fast translation towards a clinical trial.:1. Particle therapy
1.1 Introduction
1.2 The problem of particle range uncertainty
1.3 Currently investigated methods for treatment verification
1.4 Methods for prompt gamma-ray based treatment verification
1.4.1 Prompt gamma-ray imaging (PGI)
1.4.2 Prompt gamma-ray timing (PGT)
2. Physical relations
2.1 Interactions of protons with matter
2.1.1 Stopping of protons
2.1.2 Multiple Coulomb scattering (MCS)
2.1.3 Nonelastic collisions
2.2 Definition of deposited dose and proton range
2.2.1 Definition of dose D
2.2.2 The dose depth Dx , the proton fluence Φ, and the Bragg peak
2.2.3 The particle range
2.3 Production and delivery of proton beams
2.3.1 Acceleration of protons in a isochronous cyclotron
2.3.2 Beam delivery
2.4 Prompt gamma-ray emission
2.4.1 The production of prompt gamma-rays via nonelastic nuclear interactions
2.5 Interactions of photons with matter
2.5.1 Photoelectric absorption
2.5.2 Compton scattering
2.5.3 Pair production
2.5.4 Mass attenuation coefficient μ/ρ
2.6 Detection of photons
2.6.1 Semiconductor detectors
2.6.2 Scintillation detectors
3 Tests of a Compton camera for PGI
3.1 Principle of operation
3.2 Status of preceding work
3.3 Modifications to the existing Compton imaging prototype
3.4 Detectors of the prototype
3.4.1 The CZT scatter plane
3.4.2 The BGO absorber plane
3.4.3 The Compton imaging prototype
3.5 Electronic readout and event generation
3.6 Detector calibration
3.6.1 Calibration of the CZT detector
3.6.2 Calibration of a BGO detector
3.7 Compton imaging at 1.275 MeV photon energy
3.7.1 Imaging setup
3.7.2 Coincident timing
3.7.3 Coincident energy deposition
3.7.4 Image reconstruction
3.8 Compton imaging at 4.44 MeV photon energy
3.8.1 Beam setup at the Tandetron accelerator
3.8.2 Beam tuning at the Tandetron accelerator
3.8.3 The gamma-ray emission yield
3.8.4 Measurement setup
3.8.5 Energy detection
3.8.6 Spatial detection
3.8.7 Coincident timing
3.8.8 Coincident energy deposition
3.8.9 Detection efficiency η
3.8.10 Imaging setup
3.8.11 Image reconstruction
3.9 Implications for a therapeutic Compton imaging scenario
3.10 Summary and discussion
4 Prompt gamma-ray timing (PGT)
4.1 Theoretical description of PGT
4.1.1 Timing of prompt gamma-ray emission
4.1.2 Kinematics of protons
4.1.3 The correlation between spatial and temporal prompt gamma-ray emission in a thick target
4.1.4 Setup for time-resolved measurements of prompt gamma-rays
4.1.5 Uncertainty of the reference time
4.1.6 Standard error of the mean and confidence intervals of statistical momenta
4.1.7 A simplified MC method for the modeling of PGT
4.2 Experimental results
4.2.1 The GAGG detector
4.2.2 Detector energy resolution
4.2.3 Detector time resolution with 60-Co
4.2.4 Energy-resolved detector time resolution - the ELBE experiment
4.2.5 The KVI-CART proton beam line
4.2.6 Time-resolved measurement of prompt gamma-rays
4.2.7 Experimental determination of the system time resolution σ
4.2.8 PGT in dependence of proton transit time
4.3 Towards treatment verification with PGT
4.3.1 MC based PGT in dependence of proton range
4.3.2 MC based PGT at inhomogeneous targets
4.4 Implications for a therapeutic PGT scenario
4.4.1 Range verification for an exemplary PGT setup
4.4.2 Practical restrictions for the therapeutic PGT scenario
4.4.3 Principal limitations of the PGT method
4.5 Summary and outlook
5 Discussion
Summary
Zusammenfassung
Bibliography
Acknowledgement / Hintergrund
Strahlentherapie ist eine wichtige Modalität der therapeutischen Behandlung von Krebs. Das Ziel dieser Behandlungsform ist die Applikation einer bestimmten Strahlendosis im Tumorvolumen, wobei umliegendes, gesundes Gewebe nach Möglichkeit geschont werden soll. Bei der Bestrahlung mit einem hochenergetischen Protonenstrahl erlaubt die wohldefinierte Reichweite der Teilchen im Gewebe, in Kombination mit dem steilen, distalen Dosisgradienten, eine hohe Tumor-Konformalität der deponierten Dosis. Verglichen mit der klassisch eingesetzten Behandlung mit Photonen ergibt sich für eine optimiert geplante Behandlung mit Protonen ein deutlich reduziertes Dosisnivau im den Tumor umgebenden Gewebe.
Motivation
Die tatsächlich applizierte Reichweite der Protonen im Körper, und somit auch die lokal deponierte Dosis, ist stark abhängig vom Bremsvermögen der Materie im Strahlengang der Protonen. Bestrahlungspläne werden mit Hilfe eines Computertomographen (CT) erstellt, wobei die CT Bilder vor der eigentlichen Behandlung aufgenommen werden. Ein CT misst allerdings lediglich den linearen Schwächungskoeffizienten für Photonen in der Einheit Hounsfield Units (HU). Die Ungenauigkeit in der Umrechnung von HU in Protonen-Bremsvermögen ist, unter anderem, eine wesentliche Ursache für die Unsicherheit über die tatsächliche Reichweite der Protonen im Körper des Patienten. Derzeit existiert keine routinemäßige Methode, um die applizierte Dosis oder auch die Protonenreichweite in-vivo und in Echtzeit zu bestimmen. Um das geplante Dosisniveau im Tumorvolumen trotz möglicher Reichweiteunterschiede zu gewährleisten, werden die Bestrahlungspläne für Protonen auf Robustheit optimiert, was zum Einen das geplante Dosisniveau im Tumorvolumen trotz auftretender Reichweiteveränderungen sicherstellen soll, zum Anderen aber auf Kosten der möglichen Dosiseinsparung im gesunden Gewebe geht. Zusammengefasst kann der Hauptvorteil einer Therapie mit Protonen wegen der Unsicherheit über die tatsächlich applizierte Reichweite nicht wirklich realisiert. Eine Methode zur Bestimmung der Reichweite in-vivo und in Echtzeit wäre daher von großem Nutzen, um das theoretische Potential der Protonentherapie auch in der praktisch ausschöpfen zu können.
Material und Methoden
In dieser Arbeit werden zwei Konzepte zur Messung prompter Gamma-Strahlung behandelt, welche potentiell zur Bestimmung der Reichweite der Protonen im Körper eingesetzt werden können. Prompte Gamma-Strahlung entsteht durch Proton-Atomkern-Kollision auf einer Zeitskala unterhalb von Picosekunden entlang des Strahlweges der Protonen im Gewebe. Aufgrund der prompten Emission ist diese Form der Sekundärstrahlung ein aussichtsreicher Kandidat für eine Bestrahlungs-Verifikation in Echtzeit. Zum Einen wird die Anwendbarkeit von Compton-Kameras anhand eines Prototyps untersucht. Dabei zielt die Messung auf die Rekonstruktion des örtlichen Emissionsprofils der prompten Gammas ab. Zum Zweiten wird eine, im Rahmen dieser Arbeit neu entwickelte Messmethode, das Prompt Gamma-Ray Timing (PGT), vorgestellt und international zum Patent angemeldet. Im Gegensatz zu bereits bekannten Ansätzen, verwendet PGT die endliche Flugzeit der Protonen durch das Gewebe und bestimmt zeitliche Emissionsprofile der prompten Gammas.
Ergebnisse
Compton Kamera: Die örtliche Emissionsverteilung einer punktförmigen 22-Na Quelle wurde wurde bei einer Photonenenergie von 1.275 MeV nachgewiesen. Dabei konnten sowohl die absolute Quellposition als auch laterale Verschiebungen der Quelle rekonstruiert werden. Da prompte Gamma-Strahlung Emissionsenergien von einigen MeV aufweist, wurde als nächster Schritt ein Bildrekonstruktionstest bei 4.44 MeV durchgeführt. Ein geeignetes Testsetup wurde am Tandetron Beschleuniger am Helmholtz-Zentrum Dresden-Rossendorf, Deutschland, identifiziert, wo eine monoenergetische, punktförmige Emissionverteilung von 4.44 MeV Photonen erzeugt werden konnte. Für die Detektoren des Prototyps wurden zum Einen die örtliche und zeitliche Auflösung sowie die Energieauflösungen untersucht. Zum Anderen wurde die Emissionsverteilung der erzeugten 4.44 MeV Quelle rekonstruiert und die zugehörige Effizienz des Prototyps experimentell bestimmt.
PGT: Für das neu vorgeschlagene Messverfahren PGT wurden im Rahmen dieser Arbeit die theoretischen Grundlagen ausgearbeitet und dargestellt. Darauf basierend, wurde ein Monte Carlo (MC) Code entwickelt, welcher die Modellierung von PGT Spektren ermöglicht. Am Protonenstrahl des Kernfysisch Verschneller Institut (KVI), Groningen, Niederlande, wurden zeitaufgelöste Spektren prompter Gammastrahlung aufgenommen und analysiert. Durch einen Vergleich von experimentellen und modellierten Daten konnte die Gültigkeit der vorgelegten theoretischen Überlegungen quantitativ bestätigt werden. Anhand eines hypothetischen Bestrahlungsszenarios wurde gezeigt, dass der statistische Fehler in der Bestimmung der Reichweite mit einer Genauigkeit von 5 mm bei einem Konfidenzniveau von 90 % für einen einzelnen starken Spot 5x10E8 Protonen mit PGT erreichbar ist.
Schlussfolgerungen
Für den Compton Kamera Prototyp wurde gezeigt, dass eine Bildgebung für Gamma-Energien einiger MeV, wie sie bei prompter Gammastrahlung auftreten, möglich ist. Allerdings erlaubt die prinzipielle Abbildbarkeit noch keine Nutzbarkeit unter therapeutischen Strahlbedingungen nicht. Der wesentliche und in dieser Arbeit nachgewiesene Hinderungsgrund liegt in der niedrigen (gemessenen) Nachweiseffizienz, welche die Anzahl der validen Daten, die für die Bildrekonstruktion genutzt werden können, drastisch einschränkt. PGT basiert, im Gegensatz zur Compton Kamera, auf einem einfachen zeit-spektroskopischen Messaufbau. Die kollimatorfreie Messmethode erlaubt eine gute Nachweiseffizienz und kann somit den statistischen Fehler bei der Reichweitenbestimmung auf ein klinisch relevantes Niveau reduzieren. Die guten Ergebnissen und die ausgeführten Abschätzungen für therapeutische Bedingungen lassen erwarten, dass PGT als Grundlage für eine Bestrahlungsverifiktation in-vivo und in Echtzeit zügig klinisch umgesetzt werden kann.:1. Particle therapy
1.1 Introduction
1.2 The problem of particle range uncertainty
1.3 Currently investigated methods for treatment verification
1.4 Methods for prompt gamma-ray based treatment verification
1.4.1 Prompt gamma-ray imaging (PGI)
1.4.2 Prompt gamma-ray timing (PGT)
2. Physical relations
2.1 Interactions of protons with matter
2.1.1 Stopping of protons
2.1.2 Multiple Coulomb scattering (MCS)
2.1.3 Nonelastic collisions
2.2 Definition of deposited dose and proton range
2.2.1 Definition of dose D
2.2.2 The dose depth Dx , the proton fluence Φ, and the Bragg peak
2.2.3 The particle range
2.3 Production and delivery of proton beams
2.3.1 Acceleration of protons in a isochronous cyclotron
2.3.2 Beam delivery
2.4 Prompt gamma-ray emission
2.4.1 The production of prompt gamma-rays via nonelastic nuclear interactions
2.5 Interactions of photons with matter
2.5.1 Photoelectric absorption
2.5.2 Compton scattering
2.5.3 Pair production
2.5.4 Mass attenuation coefficient μ/ρ
2.6 Detection of photons
2.6.1 Semiconductor detectors
2.6.2 Scintillation detectors
3 Tests of a Compton camera for PGI
3.1 Principle of operation
3.2 Status of preceding work
3.3 Modifications to the existing Compton imaging prototype
3.4 Detectors of the prototype
3.4.1 The CZT scatter plane
3.4.2 The BGO absorber plane
3.4.3 The Compton imaging prototype
3.5 Electronic readout and event generation
3.6 Detector calibration
3.6.1 Calibration of the CZT detector
3.6.2 Calibration of a BGO detector
3.7 Compton imaging at 1.275 MeV photon energy
3.7.1 Imaging setup
3.7.2 Coincident timing
3.7.3 Coincident energy deposition
3.7.4 Image reconstruction
3.8 Compton imaging at 4.44 MeV photon energy
3.8.1 Beam setup at the Tandetron accelerator
3.8.2 Beam tuning at the Tandetron accelerator
3.8.3 The gamma-ray emission yield
3.8.4 Measurement setup
3.8.5 Energy detection
3.8.6 Spatial detection
3.8.7 Coincident timing
3.8.8 Coincident energy deposition
3.8.9 Detection efficiency η
3.8.10 Imaging setup
3.8.11 Image reconstruction
3.9 Implications for a therapeutic Compton imaging scenario
3.10 Summary and discussion
4 Prompt gamma-ray timing (PGT)
4.1 Theoretical description of PGT
4.1.1 Timing of prompt gamma-ray emission
4.1.2 Kinematics of protons
4.1.3 The correlation between spatial and temporal prompt gamma-ray emission in a thick target
4.1.4 Setup for time-resolved measurements of prompt gamma-rays
4.1.5 Uncertainty of the reference time
4.1.6 Standard error of the mean and confidence intervals of statistical momenta
4.1.7 A simplified MC method for the modeling of PGT
4.2 Experimental results
4.2.1 The GAGG detector
4.2.2 Detector energy resolution
4.2.3 Detector time resolution with 60-Co
4.2.4 Energy-resolved detector time resolution - the ELBE experiment
4.2.5 The KVI-CART proton beam line
4.2.6 Time-resolved measurement of prompt gamma-rays
4.2.7 Experimental determination of the system time resolution σ
4.2.8 PGT in dependence of proton transit time
4.3 Towards treatment verification with PGT
4.3.1 MC based PGT in dependence of proton range
4.3.2 MC based PGT at inhomogeneous targets
4.4 Implications for a therapeutic PGT scenario
4.4.1 Range verification for an exemplary PGT setup
4.4.2 Practical restrictions for the therapeutic PGT scenario
4.4.3 Principal limitations of the PGT method
4.5 Summary and outlook
5 Discussion
Summary
Zusammenfassung
Bibliography
Acknowledgement
|
158 |
The influence of lumbar spinal drainage on diffusion parameters in patients with suspected normal pressure hydrocephalus using 3T MRIReiss-Zimmermann, Martin, Scheel, Michael, Dengl, Markus, Preuß, Matthias, Fritzsch, Dominik, Hoffmann, Karl-Titus 18 September 2019 (has links)
Background: Normal pressure hydrocephalus (NPH) has been an ongoing and challenging field of research for the past decades because two main issues are still not fully understood: the pathophysiologic mechanisms underlying ventricular enlargement and prediction of outcome after surgery. Purpose: To evaluate changes in diffusion tensor imaging (DTI) derived parameters in patients with suspected normal pressure hydrocephalus before and after withdrawal of cerebrospinal fluid (CSF). Material and Methods: Twenty-four consecutive patients with clinical and radiological suspicion of NPH and 14 agematched control subjects were examined with DTI on a clinical 3T scanner. Patients were examined before and 6–36 h after CSF drainage (interval between scans, 5 days). Fifteen patients were finally included in data analysis. Fractional anisotropy (FA) and mean, parallel, and radial diffusivity (MD, PD, RD) were evaluated using a combination of a ROI-based approach and a whole-brain voxel-by-voxel analysis. Results: Alteration of DTI parameters in patients with suspected NPH is regionally different. Compared to the control group, we found an elevation of FA in the subcortical white matter (SCWM) and corpus callosum, whereas the other diffusion parameters showed an increase throughout the brain in variable extent.We also found a slight normalization of RD in the SCWM in patients after lumbar drainage. Conclusion: Our results show that DWI parameters are regionally dependent and reflect multifactorial (patho-) physiological mechanisms, which need to be interpreted carefully. It seems that improvement of gait is caused by a decrease of interstitial water deposition in the SCWM.
|
159 |
Cerebellar Development and Neurogenesis in ZebrafishKaslin, Jan, Brand, Michael 19 March 2019 (has links)
Cerebellar organization and function have been studied in numerous species of fish. Fish models such as goldfish and weakly electric fish have led to important findings about the cerebellar architecture, cerebellar circuit physiology and brain evolution. However, most of the studied fish models are not well suited for developmental and genetic studies of the cerebellum. The rapid transparent ex utero development in zebrafish allows direct access and precise visualization of all the major events in cerebellar development. The superficial position of the cerebellar primordium and cerebellum further facilitates in vivo imaging of cerebellar structures and developmental events at single cell resolution. Furthermore, zebrafish is amenable to high-throughput screening techniques and forward genetics because of its fecundity and easy keeping. Forward genetics screens in zebrafish have resulted in several isolated cerebellar mutants and substantially contributed to the understanding of the genetic networks involved in hindbrain development (Bae et al. 2009; Brand et al. 1996). Recent developments in genetic tools, including the use of site specific recombinases, efficient transgenesis, inducible gene expression systems, and the targeted genome lesioning technologies TALEN and Cas9/CRISPR has opened up new avenues to manipulate and edit the genome of zebrafish (Hans et al. 2009; Scott 2009; Housden et al. 2016; Li et al. 2016)}. These tools enable the use of genome-wide genetic approaches, such as enhancer/exon traps and cell specific temporal control of gene expression in zebrafish. Several seminal papers have used these technologies to successfully elucidate mechanisms involved in the morphogenesis, neurogenesis and cell migration in the cerebellum (Bae et al. 2009; Chaplin et al. ; Hans et al. 2009; Volkmann et al. ; Volkmann et al. 2008). In addition, the use of genetically encoded sensors and probes that allows detection and manipulation of neuronal activity using optical methods have open up new means to study the physiology and function of the cerebellum (Simmich et al. 2012; Matsui et al. 2014). Taken together, these features have allowed zebrafish to emerge as a complete model for studies of molecular, cellular and physiological mechanisms involved in cerebellar development and function at both cell and circuit level.
|
160 |
Differentiation of Occlusal Discolorations and Carious Lesions with Hyperspectral Imaging In VitroVosahlo, Robin, Golde, Jonas, Walther, Julia, Koch, Edmund, Hannig, Christian, Tetschke, Florian 19 April 2024 (has links)
Stains and stained incipient lesions can be challenging to differentiate with established clinical tools. New diagnostic techniques are required for improved distinction to enable early noninvasive treatment. This in vitro study evaluates the performance of artificial intelligence (AI)-based classification of hyperspectral imaging data for early occlusal lesion detection and differentiation from stains. Sixty-five extracted permanent human maxillary and mandibular bicuspids and molars (International Caries Detection and Assessment System [ICDAS] II 0–4) were imaged with a hyperspectral camera (Diaspective Vision TIVITA® Tissue, Diaspective Vision, Pepelow, Germany) at a distance of 350 mm, acquiring spatial and spectral information in the wavelength range 505–1000 nm; 650 fissural spectra were used to train classification algorithms (models) for automated distinction between stained but sound enamel and stained lesions. Stratified 10-fold cross-validation was used. The model with the highest classification performance, a fine k-nearest neighbor classification algorithm, was used to classify five additional tooth fissural areas. Polarization microscopy of ground sections served as reference. Compared to stained lesions, stained intact enamel showed higher reflectance in the wavelength range 525–710 nm but lower reflectance in the wavelength range 710–1000 nm. A fine k-nearest neighbor classification algorithm achieved the highest performance with a Matthews correlation coefficient (MCC) of 0.75, a sensitivity of 0.95 and a specificity of 0.80 when distinguishing between intact stained and stained lesion spectra. The superposition of color-coded classification results on further tooth occlusal projections enabled qualitative assessment of the entire fissure’s enamel health. AI-based evaluation of hyperspectral images is highly promising as a complementary method to visual and radiographic examination for early occlusal lesion detection.
|
Page generated in 0.0429 seconds