Spelling suggestions: "subject:"homogeneity""
31 |
Antennes reseaux pour la transmission parallele en irm a ultra haut champ : conception, réalisation et stratégie de pilotage / Phased Array RF Coils for Parallel Transmission in Ultra High Field MRI : design, Construction and Driving ConceptFerrand, Guillaume 19 September 2011 (has links)
Le projet Iseult-Inumac mené au sein d’un consortium franco-allemand vise à développer les techniques associées à l’imagerie par résonance magnétique à ultra haut champ, notamment à travers la construction d’un imageur à 11,7 teslas. La résolution accrue du nouvel imageur devrait apporter une meilleure compréhension du système nerveux et de ses dysfonctionnements pour aboutir à un dépistage plus précoce des pathologies telles que la maladie d’Alzheimer, les accidents vasculaires cérébraux ou les tumeurs.La principale difficulté technique du projet, en dehors de la construction de l’aimant statique, réside dans la capacité d’émettre une onde électromagnétique d’amplitude uniforme dans tout le cerveau du patient : problème de l’inhomogénéité de B1 (ou radiofréquence). Une solution proposée consiste à utiliser une antenne réseau à transmission parallèle et des séquences d’excitation IRM spécifiques dites de compensation.Cette thèse se concentre sur la conception des antennes réseaux à transmission parallèle pour l’IRM à 7 et 11,7 T. Un prototype à 8 canaux indépendants utilisant une technologie innovante de résonateurs linéaires est présentée pour l’IRM 7 T. Il a été conçu par la simulation numérique. Un protocole de validation a été développé pour la caractérisation et l’analyse des performances des antennes réseaux. Le succès de cette validation a permis de développer par la simulation une nouvelle antenne à 12 canaux et une stratégie de pilotage innovante permettant de n’utiliser que 8 chaînes de pilotage au lieu de 12. Enfin, la même méthodologie a été appliquée pour concevoir et prédire les performances d’une antenne réseau à 11,7 T. / The Iseult-Inumac project led by a franco-german consortium aims at developing the ultra-high field MRI technologies, especially with the building of an 11.7 tesla scanner. The high resolution of this new scanner may improve the understanding of human nervous system and its dysfunctions in order to detect pathologies like the Alzheimer disease, strokes or tumors earlier.The biggest technical difficulty, besides the building of the static magnet itself, lies in the emission of a uniform electromagnetic wave in the entire brain of the patient. It is usually referred as to B1 (or RF) inhomogeneity issues. A solution consists in using a phased array RF coil and specific MRI sequences for shimming in a parallel transmit approach.This thesis deals with the study of parallel transmit phased arrays RF coils for 7 T and 11.7 T MRI. An eight independent channels prototype-coil that uses a new planar strip array technology is described for 7 T MRI. It was designed based on numerical simulation. A validation methodology has been developed for characterization and performance analysis of transmit phased arrays. After a successful validation of this first prototype, a more efficient 12-channel coil and a new driving strategy that only requires 8 driving channels instead of 12 were designed. Finally, the same methodology was applied to a phased array RF coil for 11.7 T MRI.
|
32 |
Optically Active Chiral Mediums Fabricated with Glancing Angle DepositionYang, Jian 06 July 2012 (has links)
Optically active helical microparticles are studied in the forms of thin films, suspensions and powders. From fabricated helical porous thin films, microparticle suspensions are obtained by removing the microparticles (film columns) from their substrates and dispersing them into water. For removing microparticles, four methods are explored and compared: sacrificial NaCl layer, gold (Au) layer, buffered oxide etching, and direct ultrasonic agitation. The primary film material studied in this work is amorphous silicon (Si). Physical morphology of the microparticles is examined with scanning electron microscopy (SEM). Methods employed to characterize optical activity of the microparticles include: polarimetry, spectrophotometry, and spectroscopic ellipsometry (SE). The produced chiral microparticles exhibit optical activity: optical rotation (OR) and circular dichroism (CD - in the form of differential circular transmission (DCT)). Significant findings include: (a) we observe the largest optical rotatory power ever reported in scientific literature, 11◦/μm at 610 nm wavelength for a Si film; (b) for the helical thin films, there is one dominant DCT band in the measured wavelength range; however for microparticle suspensions and powders, there exist two DCT bands: one broad band at long wavelengths, and one narrow band in the short wavelength range; compared to their thin film forms, microparticle suspensions and powders have inverted sign for the broad DCT band. A discrete dipole approximation (DDA) model is employed to calculate optical response (e.g. extinction, scattering, and absorption cross-sections) of the microparticles, so as to enable us to understand the effects of different structural parameters of the microparticles on their optical response. Calculation confirms that optical activity of chiral microparticles is due to coherent light scatterings with the chiral structures of the particles. The inversion in sign of the broad DCT bands of microparticle suspensions and powders is likely due to the averaging effect from random orientation of the helical microparticles, as is indicated both from experimental results and from calculation. / Thesis (Ph.D, Physics, Engineering Physics and Astronomy) -- Queen's University, 2012-07-06 09:59:20.751
|
33 |
Über die Entwicklung der Realraumindikatoren Cp mit besonderem Hinblick auf C0.6Finzel, Kati 19 October 2011 (has links) (PDF)
Es besteht der Wunsch nach Indikatoren, deren Signaturen dem chemischen Verständnis entsprechen. Die Suche nach chemischen Signaturen im Realraum ist unter anderem deshalb ein so fruchtbares Arbeitsfeld, weil trotz der Fülle von Indikatoren (die alle einen unterschiedlichen Aspekt der Bindung beleuchten) die Frage nach dem Abbild der chemischen Bindung im Realraum immer noch auf Antwort wartet. Ein Teil von Indikatoren zerlegt den Raum in Bereiche, in denen sich Elektronenpopulationen berechnen lassen. Die Güte dieser Realrauminidkatoren wird daher in der Regel danach beurteilt, ob sie den Gesamtraum in genau solche Teile zerlegen, in denen sich die nach dem Aufbauprinzip erwartete Elektronenpopulation findet: das heißt bei Atomen in sphärische Schalen; bei Molekülen und Festkörpern in Rümpfe, Bindungen und freie Elektronenpaare mit jeweils ganzen, dem Aufbauprinzip entsprechenden Elektronenzahlen. Neben dem Wunsch nach chemischen Signaturen kann man bei der Arbeit mit Realraumindikatoren auch andere Ergebnisse erzielen, wenn man die Indikatoren auf derselben Basis entwickelt, das heißt, wenn man sie vergleichbar macht. Ein Satz vergleichbarer Indikatoren ermöglicht die Suche nach Gemeinsamkeiten und Unterschieden zwischen den einzelnen Indikatoren. Die gewonnenen Ergebnisse können dann auf die den Indikatoren zugrunde liegenden Eigenschaften übertragen werden und in anderen Bereichen der Theorie genutzt werden. Eine solche gemeinsame Basis bietet das Konzept der w-bestimmten Populationen. In der vorliegenden Arbeit wird am Beispiel der Realraumindikatoren Cp gezeigt, wie man anhand dieses Konzeptes eine ganze Schar von Funktionalen kreieren und deren Eigenschaften systematisch testen kann.
Das Konzept der w-bestimmten Populationen besteht im Wesentlichen aus zwei Teilschritten. Im ersten Schritt, der w-bestimmten Partitionierung des Raumes (w-RSP), wird der Gesamtraum in kompakte, raumfüllende, nicht überlappende Zellen, sogenannte Mikrozellen, zerlegt, wobei die Summe der Volumina der Mikrozellen stets das Volumen des Gesamtraums ergibt. Die Forderung, dass die Mikrozellen kompakt sein müssen, gewährleistet eine lokale Beschreibung. Aus den möglichen Partitionierungen wählt man nun eine derjenigen aus, für die die Mikrozellen alle dieselbe Menge w einer bestimmten Kontrollgröße haben, das heißt, das Integral über die Kontrollfunktion soll in jeder Mikrozelle denselben Wert w haben. Dadurch erhält man Probenräume, die bezüglich der Kontrolleigenschaft gleich sind. Im zweiten Schritt wird dann in den so erhaltenen Mikrozellen der Wert einer zweiten Größe, der Probengröße, bestimmt. Die resultierende Verteilung der Pobengröße ist natürlich vom expliziten Wert der Kontrolleigenschaft abhängig. Um diese Abhängigkeit zu umgehen, wird die diskrete Verteilung der Probengröße durch eine geeignete Potenz von w geteilt. Nach diesem Reskalierungsprozess liegt eine quasi-kontinuierliche Verteilung vor. Sie ist diskret per Definition, kann jedoch an jedem beliebigen (endlichen) Set von Aufpunkten (und eventuell weiterer Aufpunkte) berechnet werden. Der Limes nach Reskalieren ergibt eine kontinuierliche Funktion. Je nach Wahl der Kontroll- und Probenfunktion können mit diesem Konzept ganze Klassen von Funktionalen erzeugt werden. Die Funktionale sind besonders dann leicht miteinander vergleichbar, wenn sie entweder die Kontroll- oder Probenfunktion gemeinsam haben.
Dieser Weg wurde in der vorliegenden Doktorarbeit beschritten. Anhand des eben dargestellten Konzeptes wurden die Realraumindikatoren Cp hergeleitet. Wie auch bei ELI-D ist die Probenfunktion bei den Cp-Indikatoren die Elektronendichte, das heißt die in den Mikrozellen geprobte Größe ist die Elektronenpopulation. Während für ELI-D die Raumpartitionierung durch die Anzahl der Paare in den Mikrozellen bestimmt wird, wird bei den Cp-Indikatoren die Inhomogenität der Elektronendichte als Kontrollgröße gewählt. Die Inhomogenität der Elektronendichte wird anhand des Abstandes der Elektronendichte zu ihrem Mittelwert in der jeweiligen Mikrozelle definiert:
Ip(i) = pvuutZmi
|r (~r)−r¯i|p dV . (1)
Die Inhomogenität ist für jeden positiven Parameter p definiert. Je nach Wahl des Inhomogenitätsparameters p kommen kleinen beziehungsweise großen Abständen mehr Bedeutung zu. Die anhand des Konzeptes der w-bestimmten Populierung hergeleitete Funktionalschar Cp berechnet sich näherungsweise aus der Dichte und dem Dichtegradienten an den Aufpunkten ~ai der Mikrozellen:
Cp(~ai) r (~ai) \"[2p(p+1)]
|~Ñr (~ai)|p #3/(p+3)
r (~ai) VIp , (2)
wobei die Volumenfunktion VIp proportional zum Volumen einer festen Größe an Elektronendichteinhomogenität ist. Cp beruht ausschließlich auf Einelektroneneigenschaften, die sich aus der Elektronendichte ableiten lassen. Daher ist es prinzipiell möglich, Cp direkt aus dem Experiment zu bestimmen. ELI-D hingegen beruht sowohl auf der Elektronendichte, als auch auf der Paardichte, einer Zweiteilcheneigenschaft:
¡D(~ai) r (~ai) 12
g(~ai)| 3/8
r (~ai) VD . (3)
Zur Berechnung der Paarvolumenfunktion VD ist die Kenntnis der Krümmung des Fermiloches g an der Elektronenkoaleszenz von Nöten. Die freie Wahl des Inhomogenitätsparameters p erlaubt es, die Volumenfunktion VIp zu justieren. Gelänge es, für ein bestimmtes Inhomogenitätsmaß die Proportionalität von VD und VIp zu erzeugen, so hätte man mit der entsprechenden Inhomogenität den Raumanspruch eines Paares abgebildet. Letztlich hätte dies zu einem Ausdruck für die Fermilochkrümmung als Funktion der Dichte geführt. (Dieser Ausdruck wiederum wäre in vielen Bereichen der Theorie von großem Nutzen.) Im Rahmen dieser Doktorarabeit konnte gezeigt werden, dass eine direkte Anpassung der Volumenfunktionen jedoch nicht in befriedigendem Maße gelingt. Daher wurde die Forderung der Proportionalität beider Indikatoren ein wenig abgeschwächt und lediglich verlangt, dass die Kurvenverläufe von Cp und ELI-D ähnlich sind. Besonderer Fokus wurde hier auf die Lage der Extrema gelegt. Die Forderung der ähnlichen Verläufe kann man durch die Anpassung der logarithmischen Gradienten der Volumenfunktionen gewährleisten. Die Anpassung erfolgte durch die Methode der kleinsten Fehlerquadrate und wurde für die Atome Li bis Xe durchgeführt. Die nach diesen Gesichtspunkten idealen Inhomgenitätsparameter konzentrieren sich alle unabhängig vom berechneten System bei Werten um p = 0.6. Das erhaltene Funktional C0.6 ist somit unabhängig vom Atomtyp und kann daher auch bei Molekülen und Festkörpern angewandt werden.
C0.6 zeigt bei Atomen eine ähnliche Schalenstruktur wie ELI-D. Insbesondere die Elektronenpopulationen in den inneren Schalen spiegeln recht gut das Aufbauprinzip wieder. Bei den Übergangselementen und den direkt nachfolgenden Elementen fehlt allerdings der erwartete Separator zwischen der Valenz- und der letzten Rumpfschale. Bei Molekülen verlaufen die Bassingrenzen der Rumpfregionen sehr ähnlich, sodass die Elektronenpopulationen bis auf eine Differenz von 0.1 Elektron gleich sind. Im Bereich der freien Elektronenpaare zeigen beide Indikatoren dieselbe Anzahl von Attraktoren, wobei die C0.6-Attraktoren im Vergleich zu denen der ELI-D etwas näher am Kernort liegen. In den Regionen der freien Elektronenpaare können die Bassinpopulationen beider Indikatoren durchaus voneinander abweichen. Hierbei liegen die Elektronenpopulation von C0.6 im Mittel näher an den nach dem Lewisbild erwarteten Elektronenzahlen. Im Bereich der Bindung können große Unterschiede zwischen den Indikatoren auftreten, da C0.6 hier hauptsächlich durch den Gradiententerm dominiert ist und an jedem bindungskritischen Punkt einen Attraktor aufweisen muss. Atomare Verbindunglinien werden durch C0.6 entweder einfach zweifach oder dreifach markiert, wobei einfach markierte Linien bei unpolaren Bindungen und zweifach markierte bei polaren Bindungen zu finden sind. Dreifach markierte Linien entsprechen ungebundenen Zuständen. ELI-D hingegen zeigt keine Mehrfachmarkierung bei Einfachbindungen. Die an Molekülen abgeleiteten Aussagen über die Bindungsmarkierung lassen sich bei Festkörpern auf die nächsten Nachbarn übertragen. Durch die Zweifachmarkierung bei polaren Bindungen kann man auf einfache Weise die Gesamtelektronenpopulation eines Elementes im Verbund bestimmen (es gibt in der Regel keine geteilten Bassins). Dadurch lassen sich Ladungen berechnen und eine Skala der topologischen Kenngröße (vergleichbar mit einer Elektronegativitätsskala) aufstellen.
Letzlich ist zu konstatieren, dass C0.6 nicht in der Lage ist, ELI-D hinreichend gut abzubilden. In Molekülen und Festkörpern erreicht der Gradient der Elektronendichte den Wert Null. An diesen Stellen ist C0.6 nicht an ELI-D anpassbar, da C0.6 hier einen Attraktor ausbilden muss. Dennoch hat diese Arbeit gezeigt, wie man anhand des Konzeptes der w-bestimmten Populationen Funktionale generieren und systematisch vergleichen, sowie gegebenenfalls aneinander anpassen kann. Die so gewonnenen Ergebnisse lassen sich auch in anderen Bereichen der Theorie anwenden. So mag C0.6 nicht nur in der Bindungsanalyse - wo es im Gegensatz zu ELI-D direkt aus dem Experiment bestimmt werden kann - Verwendung finden, sondern kann möglicherweise auch hilfreich bei der Entwicklung von Funktionalen in der Dichtefunktionaltheorie sein, da hier Funktionaltypen Anwendung finden, deren ortsabhängige Mischung der Austauschanteile durch Funktionen des Typs ˜Cp geregelt werden.
|
34 |
Influence of Tissue Conductivity Inhomogeneity and Anisotropy on EEG/MEG based Source Localization in the Human BrainWolters, Carsten H. 28 November 2004 (has links) (PDF)
The inverse problem in Electro- and Magneto-EncephaloGraphy (EEG/MEG) aims at reconstructing the underlying current distribution in the human brain using potential differences and/or magnetic fluxes that are measured non-invasively directly, or at a close distance, from the head surface. The solution requires repeated computation of the forward problem, i.e., the simulation of EEG and MEG fields for a given dipolar source in the brain using a volume-conduction model of the head. The associated differential equations are derived from the Maxwell equations. Not only do various head tissues exhibit different conductivities, some of them are also anisotropic conductors as, e.g., skull and brain white matter. To our knowledge, previous work has not extensively investigated the impact of modeling tissue anisotropy on source reconstruction. Currently, there are no readily available methods that allow direct conductivity measurements. Furthermore, there is still a lack of sufficiently powerful software packages that would yield significant reduction of the computation time involved in such complex models hence satisfying the time-restrictions for the solution of the inverse problem. In this dissertation, techniques of multimodal Magnetic Resonance Imaging (MRI) are presented in order to generate high-resolution realistically shaped anisotropic volume conductor models. One focus is the presentation of an improved segmentation of the skull by means of a bimodal T1/PD-MRI approach. The eigenvectors of the conductivity tensors in anisotropic white matter are determined using whole head Diffusion-Tensor-MRI. The Finite Element (FE) method in combination with a parallel algebraic multigrid solver yields a highly efficient solution of the forward problem. After giving an overview of state-of-the-art inverse methods, new regularization concepts are presented. Next, the sensitivity of inverse methods to tissue anisotropy is tested. The results show that skull anisotropy affects significantly EEG source reconstruction whereas white matter anisotropy affects both EEG and MEG source reconstructions. Therefore, high-resolution FE forward modeling is crucial for an accurate solution of the inverse problem in EEG and MEG. / Motivation und Einordnung: Seit nun fast drei Jahrzehnten werden im Bereich der Kognitionswissenschaften und in klinischer Forschung und Routine die Quellen elektrischer Aktivitaet im menschlichen Gehirn anhand ihrer ueber das Elektroenzephalogramm (EEG) an der Kopfoberflaeche gemessenen Potentialverteilung bzw. ihres ueber das Magnetoenzephalogramm (MEG) in einigen Zentimetern Entfernung davon gemessenen magnetischen Flusses rekonstruiert. Im Vergleich zu anderen funktionellen Bildgebungsmethoden wie z.B. die Positronen-Emissions-Tomographie (PET) oder die funktionelle Magnetresonanztomographie (fMRT) hat die EEG/MEG-Quellrekonstruktion den Vorteil einer sehr hohen zeitlichen Aufloesung. Die gemessene Aktivitaet ist das Resultat von Ionenbewegungen in aktivierten kortikalen Regionen des Gehirns, den sog. Primaerstroemen. Schon im Jahr 1949 wurden erstmals die Primaerstroeme ueber Stromdipole mathematisch modelliert. Der Primaerstrom erzeugt R\"uckstr\"ome im leitf\"ahigen Gewebe des Kopfes, die sog. {\em Sekund\"arstr\"ome}. Die Rekonstruktion der Dipolquellen wird das {\em EEG/MEG inverse Problem} genannt. Dessen L\"osung erfordert die wiederholte Berechnung des {\em Vorw\"arts\-problems}, d.h. der Simulation der EEG/MEG-Feldverteilung f\"ur eine gegebene Dipolquelle im Gehirn. Ein erstes Anwendungsgebiet f\/indet sich in der Diagnose und Therapie von pharma-resistenten Epilepsien, von denen ca. 0,25\% der Weltbev\"olkerung betroffen sind und f\"ur die sich in den letzten Jahrzehnten eine systematische chirurgische Behandlung ent\-wickelt hat. Voraussetzung f\"ur einen die restlichen Gehirnregionen schonenden chirurgischen Eingrif\/f ist die Kenntnis der Lage und Ausdehnung der epileptischen Zentren. Bisher wurden diese Charakteristika in den Patienten stark belastenden invasiven Untersuchungen wie zum Beispiel Subdural- oder Tiefen-Elektroden gewonnen. Die bioelektrischen Signale von Epilepsiekranken weisen zwischen den Anfallsereignissen sog. interiktale Spikes auf. Die nicht-invasive Messung des EEG/MEG dieser interiktalen Spikes und die anschlie{\ss}ende Berechnung des epileptischen Zentrums belastet den Patienten nicht. Ein weiteres Anwendungsfeld ist die pr\"aoperative Ermittlung der Lage wichtiger funk\-tio\-nell-zu\-sam\-men\-h\"angender Zentren im Gehirn, z.B.~des prim\"ar-mo\-to\-ri\-schen, des prim\"ar-au\-di\-to\-rischen oder prim\"ar-somatosensorischen Cortex. Bei Operationen in diesen Bereichen (z.B.~Tumoroperationen) k\"onnten L\"ahmungen, H\"or- und Sensibilit\"atsst\"orungen vermieden werden. Dazu werden \"uber akustische oder sensorische Reize charakteristische Signale evoziert und \"uber Summationstechniken sichtbar gemacht. Durch das L\"osen des inversen Problems wird versucht, die zugrunde liegende Quellstruktur zu ermitteln. Neben den aufgef\"uhrten klinischen Anwendungen ergeben sich auch zahlreiche Anwendungsfelder in der Kognitionswissenschaft. Von Interesse sind z.B.~funktionelle Zusammenh\"ange im Gehirn und die Aufdeckung der aktivierten Areale w\"ahrend der Verarbeitung eines Reizes, wie z.B. der Sprachverarbeitung im Gehirn. Die L\"osung des Vorw\"artsproblems impliziert die Mo\-del\-lierung des Kopfes als Volumenleiter. Es ist bekannt, dass in makroskopischer Hinsicht Gewebe wie die Kopfhaut, der Sch\"adel, die Zerebrospinalfl\"ussigkeit (engl.: CSF) und die Hirngewebe graue und wei{\ss}e Substanz (engl.: GM und WM) verschiedene Leitf\"ahigkeiten besitzen. Der menschliche Sch\"adel ist aus drei Schichten aufgebaut, eine relativ gut leitf\"ahige spongi\"ose Schicht wird von zwei stark isolierenden Schichten, den \"au{\ss}eren und inneren Kompakta, eingeschlossen. In radialer Richtung durch den Sch\"adel handelt es sich also um eine Reihenschaltung von hohem, niedrigem und hohem Widerstand, wohingegen in den tangentialen Richtungen die Leiter parallel geschaltet sind. Als Ganzes gesehen besitzt der Sch\"adel demnach eine richtungsabh\"angige oder {\em anisotrope} Leitf\"ahigkeit mit einem gemessenen Verh\"altnis von bis zu 1 zu 10. F\"ur die faserige WM wurde ebenfalls eine Anisotropie mit einem \"ahnlichen Verh\"altnis (senkrecht zu parallel zu den Fasern) nachgewiesen. Leider existiert bis heute keine direkte Methode, die Leitf\"ahigkeit der WM nicht-invasiv in gen\"ugender Aufl\"osung zu ermittelt. Seit einigen Jahren werden aller\-dings Formalismen diskutiert, die den gesuchten Leitf\"ahigkeitstensor in Bezug setzen zum Wasserdiffusionstensor, der in WM nicht-invasiv \"uber die Diffusionstensor-MRT (DT-MRT) gemessen werden kann. Nat\"urlich wird keine fundamentale Beziehung zwischen der freien Beweglichkeit von Ionen und Wasserteilchen angenommen, sondern lediglich, dass die eingeschr\"ankte Mobilit\"at \"uber die Fasergeometrie der WM in Beziehung steht. Heutzutage werden verschiedene Ans\"atze f\"ur die L\"osung des Vor\-w\"arts\-pro\-blems genutzt und mit steigender Genauigkeit der Modellierung des Kopfvolumenleiters erh\"oht sich die Komplexit\"at der numerischen Feldberechnungen. Einfache Modelle, die immer noch am h\"aufigsten Gebrauchten, beschreiben den Kopf als Mehrschalenkugel-Leiter mit \"ublicherweise drei Schichten, die die Kopfhaut, den Sch\"adel und das Gehirn repr\"asentieren. Um besser auf die Geometrie der drei modellierten Oberfl\"achen einzugehen, wurden sog. BE-Modelle (von engl.: Boundary Element) entwickelt, die sich f\"ur isotrop leitf\"ahige Schichten eignen. Um sowohl auf realistische Geometrien als auch auf Anisotropien und Inhomogenit\"aten eingehen zu k\"onnen, wurden Finite-Elemente (FE) Modelle des Kopfes ent\-wi\-ckelt. Zwei wichtige Fragen stellen sich nun: Ist eine exakte Modellierung der vorgestellten Gewebeleitf\"ahigkeits-Anisotropien n\"otig und in welchen F\"allen reichen weniger berechnungsaufwendige Verfahren aus? Wie k\"onnen komplexe FE-Vorw\"artsmodelle hinreichend beschleunigt werden, um den Zeitrestriktionen f\"ur inverse Quellrekonstruktionen in den Anwendungen zu gen\"ugen? Es existieren zahlreiche Arbeiten, die, basierend auf FE-Modellen des Kopfes, gezeigt haben, dass \"Offnungen im Sch\"adel wie z.B. diejenige, durch die der optische Nerv eintritt oder das okzipitale Loch des Hirnstamms, oder Inhomogenit\"aten wie L\"asionen im Gehirn oder die Sutura des Sch\"adels (insbesondere bei Kleinkindern, wo die Sutura noch nicht geschlossen sind) einen nicht vernachl\"assigbaren Einfluss auf das EEG/MEG-Vorw\"arts\-problem haben. Eine erste Studie bzgl. der Sensitivit\"at zweier ausgew\"ahlter EEG-Rekonstruktionsverfahren wies teils gro{\ss}e Fehler im Falle der Nichtbeachtung von Sch\"adel-Anisotropie nach. Insbesondere f\"ur diverse klinische Anwendungen wird der sog. {\em single dipole fit} im kontinuierlichen Parameterraum verwendet. Aufgrund des hohen Berechnungsaufwands wurden solche Verfahren bisher noch nicht auf ihre Sensitivit\"at auf Sch\"adel\-anisotropie getestet. Obwohl bereits eine Studie einen nicht-vernachl\"assigbaren Einfluss auf die EEG/MEG-Vorw\"artssimulation zeigte, gibt es noch keinerlei Ergebnis zur Aus\-wir\-kung der WM-Anisotropie auf inverse Rekonstruktionsverfahren. Die L\"osung des inversen Problems ist im allgemeinen nicht eindeutig. Viele Dipol-Quell\-konfi\-gura\-tionen k\"onnen ein und dieselbe EEG und MEG Feldverteilung erzeugen. Zus\"atz\-liche Annahmen \"uber die Quellen sind dementsprechend unerl\"asslich. Bei den sog. {\em fokalen Rekonstruktionsmethoden} wird die Annahme gemacht, dass einige wenige Dipole den gemessenen Daten zugrunde liegen. Diese Dipole (Anzahl, Ort, Richtung, St\"arke) sollen innerhalb des anatomisch und physiologisch sinnvollen Suchgebiets so ermittelt werden, dass die Messwerte m\"oglichst genau erkl\"art werden, gleichzeitig aber das Rauschen keinen zu starken Einfluss auf die L\"osung nimmt und die Algorithmen stabil in Bezug auf eine \"Ubersch\"atzung der Anzahl aktiver Quellen bleiben. Bei diesen, wie auch bei den sog. {\em Stromdichterekonstruktionsverfahren}, wird sich das Konzept der Regularisierung als eine wichtige Methode herausstellen. Wissenschaftliche Ergebnisse der Dissertation: Die Ergebnisse der vorgelegten Dissertation k\"onnen in vier Teilbereiche aufgeteilt werden. Im ersten Teilbereich wurden Methoden zur Registrierung und Segmentierung multimodaler MR-Bilder vorgestellt mit dem Ziel, ein {\bf realistisches anisotropes Multigewebe Kopfmodell} zu generieren. In der Literatur wurde von gr\"o{\ss}eren EEG- und MEG-Quell\-rekonstruktions\-fehlern aufgrund mangelhafter Modellierung insbesondere der inneren Sch\"a\-del\-kante berichtet. Ein erster Fokus dieser Arbeit lag dementsprechend auf einer verbesserten Segmentierung dieser Kante, die \"uber ein auf dem T1-gewichteten MRT (T1-MRT) registrierten Protonendichte-ge\-wich\-teten MRT (PD-MRT) gewonnen wurde. Die innere Sch\"a\-del\-kante zeichnet sich im PD-MRT im Gegensatz zum T1-MRT durch einen hohen Kontrast zwischen CSF (protonenreich) und Knochen (protonenarm) aus. Das T1-MRT wurde hingegen f\"ur die Segmentierung der Kopfhaut, der GM und der WM verwendet. Die Standardtechnik im Bereich der EEG/MEG-Quellrekonstruktion nutzt lediglich ein T1-MRT und gewinnt die gesuchte innere Sch\"adelkante \"uber ein Gl\"atten und Aufblasen der segmentierten Hirnoberfl\"ache. Im Vergleich beider Methoden konnte eine Verbesserung der Segmentierung von bis zu 8,5mm in Gebieten erzielt werden, in denen die Standardmethode die Dicke der CSF-Schicht untersch\"atzte. \"Uber die vorgestellten Methoden, insbesondere der Segmentierung unter Ber\"ucksichtigung der MR-Inhomogenit\"aten, konnte zudem eine sehr exakte Modellierung der GM erzielt werden, welche dann als anatomische und auch physiologische Nebenbedingung in die Quellrekonstruktion eingebettet werden kann. Zur realistischen Modellierung der An\-iso\-tropie der Sch\"adelschicht wurde ein deformierbares Modell eingesetzt, welches eine gegl\"attete Spongiosaoberfl\"ache darstellt und somit ein Abgreifen der Leitf\"ahigkeitstensor-Eigenvektoren in radialer Knochenrichtung erm\"oglicht. Die Eigenvektoren der WM-Tensoren wurden \"uber Ganzkopf-DT-MRT gemessen. Sch\"adel- und WM-Tensor-Eigen\-werte wurden entweder unter Ausnutzung publizierter Werte simuliert oder gem\"a{\ss} einem differentialen EMA (von engl.: Effective Medium Approach) ermittelt. Der zweite Teilbereich betraf die {\bf schnelle hochaufgel\"oste FE-Modellierung} des EEG/ MEG-Vorw\"artsproblems. Zun\"achst wurde ein \"Uberblick \"uber die Theorie gegeben und die praktische Realisierung der sp\"ater eingesetzten hochaufgel\"osten anisotropen FE-Volumen\-leiter\-modelle vorgestellt. In numerischen Genauigkeitsstudien konnte nachgewiesen werden, dass Hexaeder-FE-Netze, welche ein Verschieben der St\"utzpunkte zur Gl\"attung an Gewebekanten nutzen, vorteilhaft sind zu herk\"ommlichen Hexaeder-Netzen. Dazu wurden die Reihenentwicklungsformeln f\"ur das Mehrschalenkugel-Modell eingesetzt. Ein wei\-terer Fokus dieser Arbeit lag auf dem Einsatz schneller FE-L\"osungsmethoden, welche die praktische Anwendbarkeit von hochaufgel\"osten anisotropen FE-Kopfmodellen in den verschiedenen Anwendungsgebieten erm\"oglichen sollte. In einem Zeitvergleich zwischen dem neu in die Software integrierten parallelen (12 Prozessoren) algebraischen Mehrgitter- und dem Standard-Einprozessor-Jacobi-Vor\-kon\-di\-tio\-nierer f\"ur das Verfahren der konjugierten Gradienten konnte f\"ur hochaufgel\"oste anisotrope FE-Kopfmodelle ein Beschleunigungsfaktor von mehr als 100 erzielt werden. Im dritten Teilbereich, den {\bf Methoden zum inversen Problem}, wurden neben einem \"Uber\-blick \"uber fokale Rekonstruktions\-verfahren und Stromdichte\-rekon\-struk\-tions\-verfahren algorithmische Neuentwicklungen pr\"asentiert. Es wurde zun\"achst die Methode des {\em single dipole fit} in die FE-Modellierung eingef\"uhrt. F\"ur multiple dipolare Quellen wurde ein {\em Si\-mu\-lated Annealing} Algorithmus in Kombination mit einer abgeschnittenen Singul\"arwertzerlegung im diskreten Parameterraum entwickelt. Im Vergleich zu Standardmethoden zeigte der Algorithmus in verschiedenen Si\-mu\-lations\-studien eine ver\-bes\-serte F\"ahigkeit der Unterscheidung zwischen realen und sog. {\em ghost} Quellen. Des Weiteren wurde eine k\"urzlich in der Literatur vorgestellte raum-zeitliche Regularisierungsme\-thode auf die Stromdichterekonstruktion und, als zweite Anwendung, auf die dynamische Impedanztomographie angewandt. Der raum-zeitliche Ansatz konnte dabei eine stabilisierende Wirkung auf die Rekonstruktionsergebnisse erzielen und zeigte im Hinblick auf seine Genauigkeit und den Speicher- und Rechenzeitbedarf Vorteile gegen\"uber einem sog. {\em Kal\-man-Gl\"atter}. Im letzten Teilbereich der Dissertation wurden Untersuchungen zur {\bf An\-iso\-tro\-pie-Sensi\-tivi\-t\"at} durchgef\"uhrt. Der erste Teil bezog sich dabei auf das Vorw\"arts\-problem, wo die Resultate im Einklang mit der verf\"ugbaren Literatur waren. Es kann festgehalten werden, dass Sch\"adelanisotropie einen nicht-vernachl\"assigbaren Einfluss auf die EEG-Simulation hatte, wohingegen das MEG unbeeinflusst blieb. Je mehr eine Quelle von WM umgeben war, desto gr\"o{\ss}er war der Einfluss der WM-Anisotropie auf sowohl EEG als auch MEG. F\"ur das MEG wirkte sich WM-Anisotropie insbesondere auf Quellen mit starken radialen Anteilen aus. Lokale Leitf\"ahigkeits\"anderungen im Bereich der Quelle sollten sowohl im Hinblick auf das EEG als auch auf das MEG modelliert werden. Im zweiten Teil wurden die Einfl\"usse auf die inverse Quellrekonstruktion untersucht. Mit 18mm maximalem Fehler des EEG basierten {\em single dipole fit} war die Lokalisation einer haupts\"achlich tangential orientierten oberfl\"achennahen Quelle besonders sensitiv gegen\"uber einer 1 zu 10 Sch\"adelanisotropie. Da die tangentialen Quellen im temporalen Bereich (Sch\"adel re\-la\-tiv d\"unn) zu tief und im parietalen und okzipitalen Bereich (Sch\"adel relativ dick) zu oberfl\"achennah lokalisiert wurden, scheint eine Approximation der Sch\"adelanisotropie in BE-Modellen \"uber eine Anpassung des skalaren Sch\"adelleitf\"ahigkeitswertes nicht m\"oglich zu sein. Obwohl bei Vernachl\"assigung der WM-Anisotropie der maximale EEG-Lokalisierungsfehler mit 6,2mm f\"ur eine tiefe Quelle wesentlich geringer ausfiel, kann aufgrund eines maximalen Orientierungsfehlers von 24$^{\circ}$ und einer mehr als zweifach untersch\"atzten Quellst\"arke eine Missinterpretation des Ergebnisses nicht ausgeschlossen werden. F\"ur die Rekonstruktion der vier tangentialen oberfl\"achennahen Dipole, welche als Aktivit\"atszentren der sog. {\em Early Left Anterior Negativity} (ELAN) Komponente bei der Syntaxanalyse von Sprache betrachtet werden, stellte sich WM und Sch\"adel\-anisotropie als vernachl\"assigbar im Hinblick auf eine MEG-Rekonstruk\-tion heraus. Im Gegensatz dazu wurde das EEG-Rekonstruktionsergebnis f\"ur alle getesteten inversen Verfahren stark verf\"alscht. Anisotropie verschob das Aktivit\"ats\-zentrum von $L_1$ und $L_2$ Norm Stromdichterekonstruktionsverfahren entlang der Sylvischen Furche in anteriore Richtung.
|
35 |
Quantitative MRI and Micro-CT of Bone Architecture: Applications and Limitations in OrthopaedicsHopper, Timothy Andrew John January 2005 (has links)
The aim of this thesis was to investigate some methods for quantitative analysis of bone structure, particularly techniques which might ultimately be applied post-operatively following orthopaedic reconstruction operations. Initially it was decided to explore the efficacy of MRI in quantifying the bone structure at high resolution by comparing high resolution MRI against 'gold standards' such as Scanning Electron Microscopy (SEM) and optical histology. This basic study provided a measure of the distortions in the morphological bone parameters derived from MR images due to susceptibility artefacts and partial volume effects. The study of bone architecture was then extended to a model of advanced renal osteodystrophy in a growing rat. For this study, high-resolution micro computed tomography (microCT) was used and as a result of the high resolution images obtained, three new bone morphological parameters were introduced to characterise the bone structure. The desire to study bone architecture post-operatively in hip replacements led to a preliminary study on ex-vivo sheep acetabulae following total hip replacement, to determine the extent that the bone architecture could be investigated around the acetabulum. The motivation for studying the acetabulum was based on the high occurrence of debonding at the bone / prosthesis interface. This study demonstrated the superior nature of 3D MRI over conventional x-ray radiographs in early quantitation of fibrous membranes located between the host bone and the non-metallic implant and/or the bone cement. The presence of such fibrous membranes is strongly indicative of failure of the prosthesis. When using clinical MRI to image post-operative hip replacement, the image quality is severely affected by the presence of the metallic implant. The head of the prosthesis is shaped like a metal sphere and is located in the acetabular cup. This problem was investigated by performing simulations of MR images in the presence of the field perturbation induced by the presence of a metal sphere, with the effects of slice excitation and frequency encoding incorporated into the simulations. The simulations were compared with experimental data obtained by imaging a phantom comprising a stainless steel ball bearing immersed in agarose gel. The simulations were used to predict the effects of changing imaging parameters that influence artefact size and also to show how current metal artefact reduction techniques such as view angle tilting (VAT) work and to identify their limitations. It was shown that 2D SE and VAT imaging techniques should not be used when metallic prosthesis are present due to extreme slice distortion, whereas 3D MRI provided a method that has no slice distortion, although the effects of using a frequency encoding gradient still remain.
|
36 |
Gravidade (2+1)-dimensional: um laboratório teórico para alguns dos desafios da relatividade geral / (2+1)-Dimensional gravity: A theoretical laboratory for some of the challenges of the general relativityMarina Reis Martins 27 April 2009 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O fenômeno do colapso gravitacional e a estrutura de estrelas relativísticas são de grande importância em astrofísica desde a formulação da relatividade geral. Alguns trabalhos mais
recentes revelam avanços importantes em nosso entendimento da formação de estruturas como buracos negros e singularidades nuas e do comportamento de fluidos exóticos tais como matéria e energia escura, incluindo aqui os fluidos fantasmas. A complexidade do estudo do colapso gravitacional está relacionada à existência de poucas soluções analíticas disponíveis para este fim. Recentemente, soluções auto-similares das equações de campo de Einstein têm atraído grande atenção, não somente pela possibilidade de serem estudadas analiticamente, simplificando o problema, mas também por sua relevância em astrofísica. Neste trabalho, estudamos o colapso gravitacional do fluido anisotrópico com auto-similaridade do segundo e primeiro tipos em espaços-tempos (2 + 1)-dimensionais, com simetria circular. Impondo as equações de estado pr = 0 e pθ = ωρ, onde ρ determina a densidade de energia e pr, pθ as pressões nas direções radial e tangencial do fluido, mostramos que, para soluções com auto-similaridade do segundo tipo, há
duas distintas famílias. Para uma delas, as únicas soluções são as que representam fluido de poeira. Todas as soluções para as equações de campo de Einstein são encontradas e suas propriedades locais e globais são estudadas em detalhes. Algumas delas podem ser interpretadas como um processo de colapso gravitacional, em que singularidades nuas e buracos negros são formados. Para a outra família de soluções, temos um modelo cosmológico, com expansão acelerada, que começa em uma singularidade inicial (t = 0), com todas as condições de energia satisfeitas. Nosso propósito foi investigar o papel da não-homogeneidade na aceleração do fluido. Na intenção de estudar as soluções com auto-similaridade do primeiro tipo, mostramos que existe uma solução que representa um processo de colapso gravitacional, resultando em uma estrutura final de buraco negro ou singularidade nua, que podem ser constituídos de um fluido bem comportado ou fantasma.
|
37 |
Gravidade (2+1)-dimensional: um laboratório teórico para alguns dos desafios da relatividade geral / (2+1)-Dimensional gravity: A theoretical laboratory for some of the challenges of the general relativityMarina Reis Martins 27 April 2009 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O fenômeno do colapso gravitacional e a estrutura de estrelas relativísticas são de grande importância em astrofísica desde a formulação da relatividade geral. Alguns trabalhos mais
recentes revelam avanços importantes em nosso entendimento da formação de estruturas como buracos negros e singularidades nuas e do comportamento de fluidos exóticos tais como matéria e energia escura, incluindo aqui os fluidos fantasmas. A complexidade do estudo do colapso gravitacional está relacionada à existência de poucas soluções analíticas disponíveis para este fim. Recentemente, soluções auto-similares das equações de campo de Einstein têm atraído grande atenção, não somente pela possibilidade de serem estudadas analiticamente, simplificando o problema, mas também por sua relevância em astrofísica. Neste trabalho, estudamos o colapso gravitacional do fluido anisotrópico com auto-similaridade do segundo e primeiro tipos em espaços-tempos (2 + 1)-dimensionais, com simetria circular. Impondo as equações de estado pr = 0 e pθ = ωρ, onde ρ determina a densidade de energia e pr, pθ as pressões nas direções radial e tangencial do fluido, mostramos que, para soluções com auto-similaridade do segundo tipo, há
duas distintas famílias. Para uma delas, as únicas soluções são as que representam fluido de poeira. Todas as soluções para as equações de campo de Einstein são encontradas e suas propriedades locais e globais são estudadas em detalhes. Algumas delas podem ser interpretadas como um processo de colapso gravitacional, em que singularidades nuas e buracos negros são formados. Para a outra família de soluções, temos um modelo cosmológico, com expansão acelerada, que começa em uma singularidade inicial (t = 0), com todas as condições de energia satisfeitas. Nosso propósito foi investigar o papel da não-homogeneidade na aceleração do fluido. Na intenção de estudar as soluções com auto-similaridade do primeiro tipo, mostramos que existe uma solução que representa um processo de colapso gravitacional, resultando em uma estrutura final de buraco negro ou singularidade nua, que podem ser constituídos de um fluido bem comportado ou fantasma.
|
38 |
Apport d'un algorithme de segmentation ultra-rapide et non supervisé pour la conception de techniques de segmentation d'images bruitées / Contribution of an ultrafast and unsupervised segmentation algorithm to the conception of noisy images segmentation techniquesLiu, Siwei 16 December 2014 (has links)
La segmentation d'image constitue une étape importante dans le traitement d'image et de nombreuses questions restent ouvertes. Il a été montré récemment, dans le cas d'une segmentation à deux régions homogènes, que l'utilisation de contours actifs polygonaux fondés sur la minimisation d'un critère issu de la théorie de l'information permet d'aboutir à un algorithme ultra-rapide qui ne nécessite ni paramètre à régler dans le critère d'optimisation, ni connaissance a priori sur les fluctuations des niveaux de gris. Cette technique de segmentation rapide et non supervisée devient alors un outil élémentaire de traitement.L'objectif de cette thèse est de montrer les apports de cette brique élémentaire pour la conception de nouvelles techniques de segmentation plus complexes, permettant de dépasser un certain nombre de limites et en particulier :- d'être robuste à la présence dans les images de fortes inhomogénéités ;- de segmenter des objets non connexes par contour actif polygonal sans complexifier les stratégies d'optimisation ;- de segmenter des images multi-régions tout en estimant de façon non supervisée le nombre de régions homogènes présentes dans l'image.Nous avons pu aboutir à des techniques de segmentation non supervisées fondées sur l'optimisation de critères sans paramètre à régler et ne nécessitant aucune information sur le type de bruit présent dans l'image. De plus, nous avons montré qu'il était possible de concevoir des algorithmes basés sur l'utilisation de cette brique élémentaire, permettant d'aboutir à des techniques de segmentation rapides et dont la complexité de réalisation est faible dès lors que l'on possède une telle brique élémentaire. / Image segmentation is an important step in many image processing systems and many problems remain unsolved. It has recently been shown that when the image is composed of two homogeneous regions, polygonal active contour techniques based on the minimization of a criterion derived from information theory allow achieving an ultra-fast algorithm which requires neither parameter to tune in the optimized criterion, nor a priori knowledge on the gray level fluctuations. This algorithm can then be used as a fast and unsupervised processing module. The objective of this thesis is therefore to show how this ultra-fast and unsupervised algorithm can be used as a module in the conception of more complex segmentation techniques, allowing to overcome several limits and particularly:- to be robust to the presence of strong inhomogeneity in the image which is often inherent in the acquisition process, such as non-uniform illumination, attenuation, etc.;- to be able to segment disconnected objects by polygonal active contour without complicating the optimization strategy;- to segment multi-region images while estimating in an unsupervised way the number of homogeneous regions in the image.For each of these three problems, unsupervised segmentation techniques based on the optimization of Minimum Description Length criteria have been obtained, which do not require the tuning of parameter by user or a priori information on the kind of noise in the image. Moreover, it has been shown that fast segmentation techniques can be achieved using this segmentation module, while keeping reduced implementation complexity.
|
39 |
Über die Entwicklung der Realraumindikatoren Cp mit besonderem Hinblick auf C0.6: sowie dessen Vergleich mit dem Lokalisierbarkeitsindikator hinsichtlich chemischer Signaturen bei Atomen, Molekülen und FestkörpernFinzel, Kati 04 October 2011 (has links)
Es besteht der Wunsch nach Indikatoren, deren Signaturen dem chemischen Verständnis entsprechen. Die Suche nach chemischen Signaturen im Realraum ist unter anderem deshalb ein so fruchtbares Arbeitsfeld, weil trotz der Fülle von Indikatoren (die alle einen unterschiedlichen Aspekt der Bindung beleuchten) die Frage nach dem Abbild der chemischen Bindung im Realraum immer noch auf Antwort wartet. Ein Teil von Indikatoren zerlegt den Raum in Bereiche, in denen sich Elektronenpopulationen berechnen lassen. Die Güte dieser Realrauminidkatoren wird daher in der Regel danach beurteilt, ob sie den Gesamtraum in genau solche Teile zerlegen, in denen sich die nach dem Aufbauprinzip erwartete Elektronenpopulation findet: das heißt bei Atomen in sphärische Schalen; bei Molekülen und Festkörpern in Rümpfe, Bindungen und freie Elektronenpaare mit jeweils ganzen, dem Aufbauprinzip entsprechenden Elektronenzahlen. Neben dem Wunsch nach chemischen Signaturen kann man bei der Arbeit mit Realraumindikatoren auch andere Ergebnisse erzielen, wenn man die Indikatoren auf derselben Basis entwickelt, das heißt, wenn man sie vergleichbar macht. Ein Satz vergleichbarer Indikatoren ermöglicht die Suche nach Gemeinsamkeiten und Unterschieden zwischen den einzelnen Indikatoren. Die gewonnenen Ergebnisse können dann auf die den Indikatoren zugrunde liegenden Eigenschaften übertragen werden und in anderen Bereichen der Theorie genutzt werden. Eine solche gemeinsame Basis bietet das Konzept der w-bestimmten Populationen. In der vorliegenden Arbeit wird am Beispiel der Realraumindikatoren Cp gezeigt, wie man anhand dieses Konzeptes eine ganze Schar von Funktionalen kreieren und deren Eigenschaften systematisch testen kann.
Das Konzept der w-bestimmten Populationen besteht im Wesentlichen aus zwei Teilschritten. Im ersten Schritt, der w-bestimmten Partitionierung des Raumes (w-RSP), wird der Gesamtraum in kompakte, raumfüllende, nicht überlappende Zellen, sogenannte Mikrozellen, zerlegt, wobei die Summe der Volumina der Mikrozellen stets das Volumen des Gesamtraums ergibt. Die Forderung, dass die Mikrozellen kompakt sein müssen, gewährleistet eine lokale Beschreibung. Aus den möglichen Partitionierungen wählt man nun eine derjenigen aus, für die die Mikrozellen alle dieselbe Menge w einer bestimmten Kontrollgröße haben, das heißt, das Integral über die Kontrollfunktion soll in jeder Mikrozelle denselben Wert w haben. Dadurch erhält man Probenräume, die bezüglich der Kontrolleigenschaft gleich sind. Im zweiten Schritt wird dann in den so erhaltenen Mikrozellen der Wert einer zweiten Größe, der Probengröße, bestimmt. Die resultierende Verteilung der Pobengröße ist natürlich vom expliziten Wert der Kontrolleigenschaft abhängig. Um diese Abhängigkeit zu umgehen, wird die diskrete Verteilung der Probengröße durch eine geeignete Potenz von w geteilt. Nach diesem Reskalierungsprozess liegt eine quasi-kontinuierliche Verteilung vor. Sie ist diskret per Definition, kann jedoch an jedem beliebigen (endlichen) Set von Aufpunkten (und eventuell weiterer Aufpunkte) berechnet werden. Der Limes nach Reskalieren ergibt eine kontinuierliche Funktion. Je nach Wahl der Kontroll- und Probenfunktion können mit diesem Konzept ganze Klassen von Funktionalen erzeugt werden. Die Funktionale sind besonders dann leicht miteinander vergleichbar, wenn sie entweder die Kontroll- oder Probenfunktion gemeinsam haben.
Dieser Weg wurde in der vorliegenden Doktorarbeit beschritten. Anhand des eben dargestellten Konzeptes wurden die Realraumindikatoren Cp hergeleitet. Wie auch bei ELI-D ist die Probenfunktion bei den Cp-Indikatoren die Elektronendichte, das heißt die in den Mikrozellen geprobte Größe ist die Elektronenpopulation. Während für ELI-D die Raumpartitionierung durch die Anzahl der Paare in den Mikrozellen bestimmt wird, wird bei den Cp-Indikatoren die Inhomogenität der Elektronendichte als Kontrollgröße gewählt. Die Inhomogenität der Elektronendichte wird anhand des Abstandes der Elektronendichte zu ihrem Mittelwert in der jeweiligen Mikrozelle definiert:
Ip(i) = pvuutZmi
|r (~r)−r¯i|p dV . (1)
Die Inhomogenität ist für jeden positiven Parameter p definiert. Je nach Wahl des Inhomogenitätsparameters p kommen kleinen beziehungsweise großen Abständen mehr Bedeutung zu. Die anhand des Konzeptes der w-bestimmten Populierung hergeleitete Funktionalschar Cp berechnet sich näherungsweise aus der Dichte und dem Dichtegradienten an den Aufpunkten ~ai der Mikrozellen:
Cp(~ai) r (~ai) \"[2p(p+1)]
|~Ñr (~ai)|p #3/(p+3)
r (~ai) VIp , (2)
wobei die Volumenfunktion VIp proportional zum Volumen einer festen Größe an Elektronendichteinhomogenität ist. Cp beruht ausschließlich auf Einelektroneneigenschaften, die sich aus der Elektronendichte ableiten lassen. Daher ist es prinzipiell möglich, Cp direkt aus dem Experiment zu bestimmen. ELI-D hingegen beruht sowohl auf der Elektronendichte, als auch auf der Paardichte, einer Zweiteilcheneigenschaft:
¡D(~ai) r (~ai) 12
g(~ai)| 3/8
r (~ai) VD . (3)
Zur Berechnung der Paarvolumenfunktion VD ist die Kenntnis der Krümmung des Fermiloches g an der Elektronenkoaleszenz von Nöten. Die freie Wahl des Inhomogenitätsparameters p erlaubt es, die Volumenfunktion VIp zu justieren. Gelänge es, für ein bestimmtes Inhomogenitätsmaß die Proportionalität von VD und VIp zu erzeugen, so hätte man mit der entsprechenden Inhomogenität den Raumanspruch eines Paares abgebildet. Letztlich hätte dies zu einem Ausdruck für die Fermilochkrümmung als Funktion der Dichte geführt. (Dieser Ausdruck wiederum wäre in vielen Bereichen der Theorie von großem Nutzen.) Im Rahmen dieser Doktorarabeit konnte gezeigt werden, dass eine direkte Anpassung der Volumenfunktionen jedoch nicht in befriedigendem Maße gelingt. Daher wurde die Forderung der Proportionalität beider Indikatoren ein wenig abgeschwächt und lediglich verlangt, dass die Kurvenverläufe von Cp und ELI-D ähnlich sind. Besonderer Fokus wurde hier auf die Lage der Extrema gelegt. Die Forderung der ähnlichen Verläufe kann man durch die Anpassung der logarithmischen Gradienten der Volumenfunktionen gewährleisten. Die Anpassung erfolgte durch die Methode der kleinsten Fehlerquadrate und wurde für die Atome Li bis Xe durchgeführt. Die nach diesen Gesichtspunkten idealen Inhomgenitätsparameter konzentrieren sich alle unabhängig vom berechneten System bei Werten um p = 0.6. Das erhaltene Funktional C0.6 ist somit unabhängig vom Atomtyp und kann daher auch bei Molekülen und Festkörpern angewandt werden.
C0.6 zeigt bei Atomen eine ähnliche Schalenstruktur wie ELI-D. Insbesondere die Elektronenpopulationen in den inneren Schalen spiegeln recht gut das Aufbauprinzip wieder. Bei den Übergangselementen und den direkt nachfolgenden Elementen fehlt allerdings der erwartete Separator zwischen der Valenz- und der letzten Rumpfschale. Bei Molekülen verlaufen die Bassingrenzen der Rumpfregionen sehr ähnlich, sodass die Elektronenpopulationen bis auf eine Differenz von 0.1 Elektron gleich sind. Im Bereich der freien Elektronenpaare zeigen beide Indikatoren dieselbe Anzahl von Attraktoren, wobei die C0.6-Attraktoren im Vergleich zu denen der ELI-D etwas näher am Kernort liegen. In den Regionen der freien Elektronenpaare können die Bassinpopulationen beider Indikatoren durchaus voneinander abweichen. Hierbei liegen die Elektronenpopulation von C0.6 im Mittel näher an den nach dem Lewisbild erwarteten Elektronenzahlen. Im Bereich der Bindung können große Unterschiede zwischen den Indikatoren auftreten, da C0.6 hier hauptsächlich durch den Gradiententerm dominiert ist und an jedem bindungskritischen Punkt einen Attraktor aufweisen muss. Atomare Verbindunglinien werden durch C0.6 entweder einfach zweifach oder dreifach markiert, wobei einfach markierte Linien bei unpolaren Bindungen und zweifach markierte bei polaren Bindungen zu finden sind. Dreifach markierte Linien entsprechen ungebundenen Zuständen. ELI-D hingegen zeigt keine Mehrfachmarkierung bei Einfachbindungen. Die an Molekülen abgeleiteten Aussagen über die Bindungsmarkierung lassen sich bei Festkörpern auf die nächsten Nachbarn übertragen. Durch die Zweifachmarkierung bei polaren Bindungen kann man auf einfache Weise die Gesamtelektronenpopulation eines Elementes im Verbund bestimmen (es gibt in der Regel keine geteilten Bassins). Dadurch lassen sich Ladungen berechnen und eine Skala der topologischen Kenngröße (vergleichbar mit einer Elektronegativitätsskala) aufstellen.
Letzlich ist zu konstatieren, dass C0.6 nicht in der Lage ist, ELI-D hinreichend gut abzubilden. In Molekülen und Festkörpern erreicht der Gradient der Elektronendichte den Wert Null. An diesen Stellen ist C0.6 nicht an ELI-D anpassbar, da C0.6 hier einen Attraktor ausbilden muss. Dennoch hat diese Arbeit gezeigt, wie man anhand des Konzeptes der w-bestimmten Populationen Funktionale generieren und systematisch vergleichen, sowie gegebenenfalls aneinander anpassen kann. Die so gewonnenen Ergebnisse lassen sich auch in anderen Bereichen der Theorie anwenden. So mag C0.6 nicht nur in der Bindungsanalyse - wo es im Gegensatz zu ELI-D direkt aus dem Experiment bestimmt werden kann - Verwendung finden, sondern kann möglicherweise auch hilfreich bei der Entwicklung von Funktionalen in der Dichtefunktionaltheorie sein, da hier Funktionaltypen Anwendung finden, deren ortsabhängige Mischung der Austauschanteile durch Funktionen des Typs ˜Cp geregelt werden.
|
40 |
Quality Assurance of the Spatial Accuracy of Large Field of View Magnetic Resonance Imaging / Kvalitetssäkring av den spatiella nogrannheten hos magnetresonanstomografi vid användning av ett stort Field of ViewIllerstam, Fredrik January 2014 (has links)
In todays Radiotherapy Treatment Planning, RTP, it is common to use Computed Tomography, CT, together with Magnetic Resonance Imaging, MRI, where CT provides electron density information and a geometrical reference, and where MRI provides superior soft tissue contrast. To sim- plify the workflow and improve treatment accuracy, research groups have demonstrated how to exclude CT and use a MRI-only approach. In this thesis, a method for spatial distortion analysis, ultimately enabling quality assurance, QA, of the spatial accuracy of MRI, was defined, tested and evaluated. A phantom was built to cover the entire clinical Field Of View, FOV, and 6mm-diameter fluid filled paintball markers were placed in a well-defined geometrical pattern within the phantom, and used as positive contrast. The phantom was imaged with a 3D Fast Gradient Echo sequence and a 3D Fast Spin Echo sequence. The markers were identified in the image data by a MATLAB-algorithm, and the location of the center of mass was calculated for each marker and compared to a theoretical reference. The location error was defined as the spatial distortion - a measurement of the spatial accuracy. Imaging parameters were altered and the effect on the spatial accuracy was analyzed. The spatial distortions were successfully measured within the entire (maximal) clinical FOV. It was shown that high readout bandwidth reduced distortions in the frequency encoding direction. These distortions could thus be attributed to B0-inhomogeneities. It was also determined that increasing the readout bandwidth to the maximum value reduced the maximum distortions in the frequency encoding direction to the same level as the maximum distortions in the other two phase-encoding directions of the 3D acquisitions. The voxel size had a very small effect on the spatial accuracy, enabling large voxelsize to be used when imaging the phantom, to decrease the scan time. The method was deemed capable of serving as a basis for QA of the spatial accuracy of large FOV MRI, which is needed in future MRI-only RTP approaches.
|
Page generated in 0.0755 seconds