• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 548
  • 94
  • 93
  • 91
  • 30
  • 22
  • 17
  • 15
  • 14
  • 12
  • 12
  • 9
  • 9
  • 8
  • 5
  • Tagged with
  • 1125
  • 419
  • 167
  • 149
  • 114
  • 108
  • 105
  • 94
  • 86
  • 85
  • 83
  • 71
  • 70
  • 64
  • 63
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
811

Influence of Tissue Conductivity Inhomogeneity and Anisotropy on EEG/MEG based Source Localization in the Human Brain

Wolters, Carsten H. 28 November 2004 (has links) (PDF)
The inverse problem in Electro- and Magneto-EncephaloGraphy (EEG/MEG) aims at reconstructing the underlying current distribution in the human brain using potential differences and/or magnetic fluxes that are measured non-invasively directly, or at a close distance, from the head surface. The solution requires repeated computation of the forward problem, i.e., the simulation of EEG and MEG fields for a given dipolar source in the brain using a volume-conduction model of the head. The associated differential equations are derived from the Maxwell equations. Not only do various head tissues exhibit different conductivities, some of them are also anisotropic conductors as, e.g., skull and brain white matter. To our knowledge, previous work has not extensively investigated the impact of modeling tissue anisotropy on source reconstruction. Currently, there are no readily available methods that allow direct conductivity measurements. Furthermore, there is still a lack of sufficiently powerful software packages that would yield significant reduction of the computation time involved in such complex models hence satisfying the time-restrictions for the solution of the inverse problem. In this dissertation, techniques of multimodal Magnetic Resonance Imaging (MRI) are presented in order to generate high-resolution realistically shaped anisotropic volume conductor models. One focus is the presentation of an improved segmentation of the skull by means of a bimodal T1/PD-MRI approach. The eigenvectors of the conductivity tensors in anisotropic white matter are determined using whole head Diffusion-Tensor-MRI. The Finite Element (FE) method in combination with a parallel algebraic multigrid solver yields a highly efficient solution of the forward problem. After giving an overview of state-of-the-art inverse methods, new regularization concepts are presented. Next, the sensitivity of inverse methods to tissue anisotropy is tested. The results show that skull anisotropy affects significantly EEG source reconstruction whereas white matter anisotropy affects both EEG and MEG source reconstructions. Therefore, high-resolution FE forward modeling is crucial for an accurate solution of the inverse problem in EEG and MEG. / Motivation und Einordnung: Seit nun fast drei Jahrzehnten werden im Bereich der Kognitionswissenschaften und in klinischer Forschung und Routine die Quellen elektrischer Aktivitaet im menschlichen Gehirn anhand ihrer ueber das Elektroenzephalogramm (EEG) an der Kopfoberflaeche gemessenen Potentialverteilung bzw. ihres ueber das Magnetoenzephalogramm (MEG) in einigen Zentimetern Entfernung davon gemessenen magnetischen Flusses rekonstruiert. Im Vergleich zu anderen funktionellen Bildgebungsmethoden wie z.B. die Positronen-Emissions-Tomographie (PET) oder die funktionelle Magnetresonanztomographie (fMRT) hat die EEG/MEG-Quellrekonstruktion den Vorteil einer sehr hohen zeitlichen Aufloesung. Die gemessene Aktivitaet ist das Resultat von Ionenbewegungen in aktivierten kortikalen Regionen des Gehirns, den sog. Primaerstroemen. Schon im Jahr 1949 wurden erstmals die Primaerstroeme ueber Stromdipole mathematisch modelliert. Der Primaerstrom erzeugt R\"uckstr\"ome im leitf\"ahigen Gewebe des Kopfes, die sog. {\em Sekund\"arstr\"ome}. Die Rekonstruktion der Dipolquellen wird das {\em EEG/MEG inverse Problem} genannt. Dessen L\"osung erfordert die wiederholte Berechnung des {\em Vorw\"arts\-problems}, d.h. der Simulation der EEG/MEG-Feldverteilung f\"ur eine gegebene Dipolquelle im Gehirn. Ein erstes Anwendungsgebiet f\/indet sich in der Diagnose und Therapie von pharma-resistenten Epilepsien, von denen ca. 0,25\% der Weltbev\"olkerung betroffen sind und f\"ur die sich in den letzten Jahrzehnten eine systematische chirurgische Behandlung ent\-wickelt hat. Voraussetzung f\"ur einen die restlichen Gehirnregionen schonenden chirurgischen Eingrif\/f ist die Kenntnis der Lage und Ausdehnung der epileptischen Zentren. Bisher wurden diese Charakteristika in den Patienten stark belastenden invasiven Untersuchungen wie zum Beispiel Subdural- oder Tiefen-Elektroden gewonnen. Die bioelektrischen Signale von Epilepsiekranken weisen zwischen den Anfallsereignissen sog. interiktale Spikes auf. Die nicht-invasive Messung des EEG/MEG dieser interiktalen Spikes und die anschlie{\ss}ende Berechnung des epileptischen Zentrums belastet den Patienten nicht. Ein weiteres Anwendungsfeld ist die pr\"aoperative Ermittlung der Lage wichtiger funk\-tio\-nell-zu\-sam\-men\-h\"angender Zentren im Gehirn, z.B.~des prim\"ar-mo\-to\-ri\-schen, des prim\"ar-au\-di\-to\-rischen oder prim\"ar-somatosensorischen Cortex. Bei Operationen in diesen Bereichen (z.B.~Tumoroperationen) k\"onnten L\"ahmungen, H\"or- und Sensibilit\"atsst\"orungen vermieden werden. Dazu werden \"uber akustische oder sensorische Reize charakteristische Signale evoziert und \"uber Summationstechniken sichtbar gemacht. Durch das L\"osen des inversen Problems wird versucht, die zugrunde liegende Quellstruktur zu ermitteln. Neben den aufgef\"uhrten klinischen Anwendungen ergeben sich auch zahlreiche Anwendungsfelder in der Kognitionswissenschaft. Von Interesse sind z.B.~funktionelle Zusammenh\"ange im Gehirn und die Aufdeckung der aktivierten Areale w\"ahrend der Verarbeitung eines Reizes, wie z.B. der Sprachverarbeitung im Gehirn. Die L\"osung des Vorw\"artsproblems impliziert die Mo\-del\-lierung des Kopfes als Volumenleiter. Es ist bekannt, dass in makroskopischer Hinsicht Gewebe wie die Kopfhaut, der Sch\"adel, die Zerebrospinalfl\"ussigkeit (engl.: CSF) und die Hirngewebe graue und wei{\ss}e Substanz (engl.: GM und WM) verschiedene Leitf\"ahigkeiten besitzen. Der menschliche Sch\"adel ist aus drei Schichten aufgebaut, eine relativ gut leitf\"ahige spongi\"ose Schicht wird von zwei stark isolierenden Schichten, den \"au{\ss}eren und inneren Kompakta, eingeschlossen. In radialer Richtung durch den Sch\"adel handelt es sich also um eine Reihenschaltung von hohem, niedrigem und hohem Widerstand, wohingegen in den tangentialen Richtungen die Leiter parallel geschaltet sind. Als Ganzes gesehen besitzt der Sch\"adel demnach eine richtungsabh\"angige oder {\em anisotrope} Leitf\"ahigkeit mit einem gemessenen Verh\"altnis von bis zu 1 zu 10. F\"ur die faserige WM wurde ebenfalls eine Anisotropie mit einem \"ahnlichen Verh\"altnis (senkrecht zu parallel zu den Fasern) nachgewiesen. Leider existiert bis heute keine direkte Methode, die Leitf\"ahigkeit der WM nicht-invasiv in gen\"ugender Aufl\"osung zu ermittelt. Seit einigen Jahren werden aller\-dings Formalismen diskutiert, die den gesuchten Leitf\"ahigkeitstensor in Bezug setzen zum Wasserdiffusionstensor, der in WM nicht-invasiv \"uber die Diffusionstensor-MRT (DT-MRT) gemessen werden kann. Nat\"urlich wird keine fundamentale Beziehung zwischen der freien Beweglichkeit von Ionen und Wasserteilchen angenommen, sondern lediglich, dass die eingeschr\"ankte Mobilit\"at \"uber die Fasergeometrie der WM in Beziehung steht. Heutzutage werden verschiedene Ans\"atze f\"ur die L\"osung des Vor\-w\"arts\-pro\-blems genutzt und mit steigender Genauigkeit der Modellierung des Kopfvolumenleiters erh\"oht sich die Komplexit\"at der numerischen Feldberechnungen. Einfache Modelle, die immer noch am h\"aufigsten Gebrauchten, beschreiben den Kopf als Mehrschalenkugel-Leiter mit \"ublicherweise drei Schichten, die die Kopfhaut, den Sch\"adel und das Gehirn repr\"asentieren. Um besser auf die Geometrie der drei modellierten Oberfl\"achen einzugehen, wurden sog. BE-Modelle (von engl.: Boundary Element) entwickelt, die sich f\"ur isotrop leitf\"ahige Schichten eignen. Um sowohl auf realistische Geometrien als auch auf Anisotropien und Inhomogenit\"aten eingehen zu k\"onnen, wurden Finite-Elemente (FE) Modelle des Kopfes ent\-wi\-ckelt. Zwei wichtige Fragen stellen sich nun: Ist eine exakte Modellierung der vorgestellten Gewebeleitf\"ahigkeits-Anisotropien n\"otig und in welchen F\"allen reichen weniger berechnungsaufwendige Verfahren aus? Wie k\"onnen komplexe FE-Vorw\"artsmodelle hinreichend beschleunigt werden, um den Zeitrestriktionen f\"ur inverse Quellrekonstruktionen in den Anwendungen zu gen\"ugen? Es existieren zahlreiche Arbeiten, die, basierend auf FE-Modellen des Kopfes, gezeigt haben, dass \"Offnungen im Sch\"adel wie z.B. diejenige, durch die der optische Nerv eintritt oder das okzipitale Loch des Hirnstamms, oder Inhomogenit\"aten wie L\"asionen im Gehirn oder die Sutura des Sch\"adels (insbesondere bei Kleinkindern, wo die Sutura noch nicht geschlossen sind) einen nicht vernachl\"assigbaren Einfluss auf das EEG/MEG-Vorw\"arts\-problem haben. Eine erste Studie bzgl. der Sensitivit\"at zweier ausgew\"ahlter EEG-Rekonstruktionsverfahren wies teils gro{\ss}e Fehler im Falle der Nichtbeachtung von Sch\"adel-Anisotropie nach. Insbesondere f\"ur diverse klinische Anwendungen wird der sog. {\em single dipole fit} im kontinuierlichen Parameterraum verwendet. Aufgrund des hohen Berechnungsaufwands wurden solche Verfahren bisher noch nicht auf ihre Sensitivit\"at auf Sch\"adel\-anisotropie getestet. Obwohl bereits eine Studie einen nicht-vernachl\"assigbaren Einfluss auf die EEG/MEG-Vorw\"artssimulation zeigte, gibt es noch keinerlei Ergebnis zur Aus\-wir\-kung der WM-Anisotropie auf inverse Rekonstruktionsverfahren. Die L\"osung des inversen Problems ist im allgemeinen nicht eindeutig. Viele Dipol-Quell\-konfi\-gura\-tionen k\"onnen ein und dieselbe EEG und MEG Feldverteilung erzeugen. Zus\"atz\-liche Annahmen \"uber die Quellen sind dementsprechend unerl\"asslich. Bei den sog. {\em fokalen Rekonstruktionsmethoden} wird die Annahme gemacht, dass einige wenige Dipole den gemessenen Daten zugrunde liegen. Diese Dipole (Anzahl, Ort, Richtung, St\"arke) sollen innerhalb des anatomisch und physiologisch sinnvollen Suchgebiets so ermittelt werden, dass die Messwerte m\"oglichst genau erkl\"art werden, gleichzeitig aber das Rauschen keinen zu starken Einfluss auf die L\"osung nimmt und die Algorithmen stabil in Bezug auf eine \"Ubersch\"atzung der Anzahl aktiver Quellen bleiben. Bei diesen, wie auch bei den sog. {\em Stromdichterekonstruktionsverfahren}, wird sich das Konzept der Regularisierung als eine wichtige Methode herausstellen. Wissenschaftliche Ergebnisse der Dissertation: Die Ergebnisse der vorgelegten Dissertation k\"onnen in vier Teilbereiche aufgeteilt werden. Im ersten Teilbereich wurden Methoden zur Registrierung und Segmentierung multimodaler MR-Bilder vorgestellt mit dem Ziel, ein {\bf realistisches anisotropes Multigewebe Kopfmodell} zu generieren. In der Literatur wurde von gr\"o{\ss}eren EEG- und MEG-Quell\-rekonstruktions\-fehlern aufgrund mangelhafter Modellierung insbesondere der inneren Sch\"a\-del\-kante berichtet. Ein erster Fokus dieser Arbeit lag dementsprechend auf einer verbesserten Segmentierung dieser Kante, die \"uber ein auf dem T1-gewichteten MRT (T1-MRT) registrierten Protonendichte-ge\-wich\-teten MRT (PD-MRT) gewonnen wurde. Die innere Sch\"a\-del\-kante zeichnet sich im PD-MRT im Gegensatz zum T1-MRT durch einen hohen Kontrast zwischen CSF (protonenreich) und Knochen (protonenarm) aus. Das T1-MRT wurde hingegen f\"ur die Segmentierung der Kopfhaut, der GM und der WM verwendet. Die Standardtechnik im Bereich der EEG/MEG-Quellrekonstruktion nutzt lediglich ein T1-MRT und gewinnt die gesuchte innere Sch\"adelkante \"uber ein Gl\"atten und Aufblasen der segmentierten Hirnoberfl\"ache. Im Vergleich beider Methoden konnte eine Verbesserung der Segmentierung von bis zu 8,5mm in Gebieten erzielt werden, in denen die Standardmethode die Dicke der CSF-Schicht untersch\"atzte. \"Uber die vorgestellten Methoden, insbesondere der Segmentierung unter Ber\"ucksichtigung der MR-Inhomogenit\"aten, konnte zudem eine sehr exakte Modellierung der GM erzielt werden, welche dann als anatomische und auch physiologische Nebenbedingung in die Quellrekonstruktion eingebettet werden kann. Zur realistischen Modellierung der An\-iso\-tropie der Sch\"adelschicht wurde ein deformierbares Modell eingesetzt, welches eine gegl\"attete Spongiosaoberfl\"ache darstellt und somit ein Abgreifen der Leitf\"ahigkeitstensor-Eigenvektoren in radialer Knochenrichtung erm\"oglicht. Die Eigenvektoren der WM-Tensoren wurden \"uber Ganzkopf-DT-MRT gemessen. Sch\"adel- und WM-Tensor-Eigen\-werte wurden entweder unter Ausnutzung publizierter Werte simuliert oder gem\"a{\ss} einem differentialen EMA (von engl.: Effective Medium Approach) ermittelt. Der zweite Teilbereich betraf die {\bf schnelle hochaufgel\"oste FE-Modellierung} des EEG/ MEG-Vorw\"artsproblems. Zun\"achst wurde ein \"Uberblick \"uber die Theorie gegeben und die praktische Realisierung der sp\"ater eingesetzten hochaufgel\"osten anisotropen FE-Volumen\-leiter\-modelle vorgestellt. In numerischen Genauigkeitsstudien konnte nachgewiesen werden, dass Hexaeder-FE-Netze, welche ein Verschieben der St\"utzpunkte zur Gl\"attung an Gewebekanten nutzen, vorteilhaft sind zu herk\"ommlichen Hexaeder-Netzen. Dazu wurden die Reihenentwicklungsformeln f\"ur das Mehrschalenkugel-Modell eingesetzt. Ein wei\-terer Fokus dieser Arbeit lag auf dem Einsatz schneller FE-L\"osungsmethoden, welche die praktische Anwendbarkeit von hochaufgel\"osten anisotropen FE-Kopfmodellen in den verschiedenen Anwendungsgebieten erm\"oglichen sollte. In einem Zeitvergleich zwischen dem neu in die Software integrierten parallelen (12 Prozessoren) algebraischen Mehrgitter- und dem Standard-Einprozessor-Jacobi-Vor\-kon\-di\-tio\-nierer f\"ur das Verfahren der konjugierten Gradienten konnte f\"ur hochaufgel\"oste anisotrope FE-Kopfmodelle ein Beschleunigungsfaktor von mehr als 100 erzielt werden. Im dritten Teilbereich, den {\bf Methoden zum inversen Problem}, wurden neben einem \"Uber\-blick \"uber fokale Rekonstruktions\-verfahren und Stromdichte\-rekon\-struk\-tions\-verfahren algorithmische Neuentwicklungen pr\"asentiert. Es wurde zun\"achst die Methode des {\em single dipole fit} in die FE-Modellierung eingef\"uhrt. F\"ur multiple dipolare Quellen wurde ein {\em Si\-mu\-lated Annealing} Algorithmus in Kombination mit einer abgeschnittenen Singul\"arwertzerlegung im diskreten Parameterraum entwickelt. Im Vergleich zu Standardmethoden zeigte der Algorithmus in verschiedenen Si\-mu\-lations\-studien eine ver\-bes\-serte F\"ahigkeit der Unterscheidung zwischen realen und sog. {\em ghost} Quellen. Des Weiteren wurde eine k\"urzlich in der Literatur vorgestellte raum-zeitliche Regularisierungsme\-thode auf die Stromdichterekonstruktion und, als zweite Anwendung, auf die dynamische Impedanztomographie angewandt. Der raum-zeitliche Ansatz konnte dabei eine stabilisierende Wirkung auf die Rekonstruktionsergebnisse erzielen und zeigte im Hinblick auf seine Genauigkeit und den Speicher- und Rechenzeitbedarf Vorteile gegen\"uber einem sog. {\em Kal\-man-Gl\"atter}. Im letzten Teilbereich der Dissertation wurden Untersuchungen zur {\bf An\-iso\-tro\-pie-Sensi\-tivi\-t\"at} durchgef\"uhrt. Der erste Teil bezog sich dabei auf das Vorw\"arts\-problem, wo die Resultate im Einklang mit der verf\"ugbaren Literatur waren. Es kann festgehalten werden, dass Sch\"adelanisotropie einen nicht-vernachl\"assigbaren Einfluss auf die EEG-Simulation hatte, wohingegen das MEG unbeeinflusst blieb. Je mehr eine Quelle von WM umgeben war, desto gr\"o{\ss}er war der Einfluss der WM-Anisotropie auf sowohl EEG als auch MEG. F\"ur das MEG wirkte sich WM-Anisotropie insbesondere auf Quellen mit starken radialen Anteilen aus. Lokale Leitf\"ahigkeits\"anderungen im Bereich der Quelle sollten sowohl im Hinblick auf das EEG als auch auf das MEG modelliert werden. Im zweiten Teil wurden die Einfl\"usse auf die inverse Quellrekonstruktion untersucht. Mit 18mm maximalem Fehler des EEG basierten {\em single dipole fit} war die Lokalisation einer haupts\"achlich tangential orientierten oberfl\"achennahen Quelle besonders sensitiv gegen\"uber einer 1 zu 10 Sch\"adelanisotropie. Da die tangentialen Quellen im temporalen Bereich (Sch\"adel re\-la\-tiv d\"unn) zu tief und im parietalen und okzipitalen Bereich (Sch\"adel relativ dick) zu oberfl\"achennah lokalisiert wurden, scheint eine Approximation der Sch\"adelanisotropie in BE-Modellen \"uber eine Anpassung des skalaren Sch\"adelleitf\"ahigkeitswertes nicht m\"oglich zu sein. Obwohl bei Vernachl\"assigung der WM-Anisotropie der maximale EEG-Lokalisierungsfehler mit 6,2mm f\"ur eine tiefe Quelle wesentlich geringer ausfiel, kann aufgrund eines maximalen Orientierungsfehlers von 24$^{\circ}$ und einer mehr als zweifach untersch\"atzten Quellst\"arke eine Missinterpretation des Ergebnisses nicht ausgeschlossen werden. F\"ur die Rekonstruktion der vier tangentialen oberfl\"achennahen Dipole, welche als Aktivit\"atszentren der sog. {\em Early Left Anterior Negativity} (ELAN) Komponente bei der Syntaxanalyse von Sprache betrachtet werden, stellte sich WM und Sch\"adel\-anisotropie als vernachl\"assigbar im Hinblick auf eine MEG-Rekonstruk\-tion heraus. Im Gegensatz dazu wurde das EEG-Rekonstruktionsergebnis f\"ur alle getesteten inversen Verfahren stark verf\"alscht. Anisotropie verschob das Aktivit\"ats\-zentrum von $L_1$ und $L_2$ Norm Stromdichterekonstruktionsverfahren entlang der Sylvischen Furche in anteriore Richtung.
812

Recovery of cerebrovascular morphodynamics from time-resolved rotational angiography

Zhang, Chong 28 July 2011 (has links)
Over the last decade, there has been a growing interest in assessing cerebral aneurysmal wall motion, because of its potential connections to the biomechanical conditions of the vessel wall, which could eventually aid the prediction of aneurysmal rupture risk. Such quantification could provide a valid surrogate for the vascular wall status and integrity. However, the vast majority of current morphological indices used in the literature to predict growth and rupture in cerebral aneurysms do not take into account the temporal changes that occur during the cardiac cycle. This is because these indices are derived from image modalities that do not provide sufficient temporal and/or spatial resolution to obtain dynamic aneurysm information, which is expected to be similar to or below image resolution. Among currently available vascular imaging techniques, 3D rotational angiography (3DRA) and digital subtraction angiography (DSA) have the highest spatial (and temporal) resolution. Still, for a human operator relying solely on qualitative visual observation, even when using images from these modalities, to objectively analyze the small motion and shape changes of the cerebrovasculature of an individual throughout the cardiac cycle is difficult, if not impossible. Therefore, the availability of a robust morphodynamic analysis tool is needed. In this context, this thesis focuses on developing techniques to estimate, quantify and analyze cerebrovascular wall motion, particularly aneurysmal wall motion, using such modalities. The main contributions of the thesis are: 1) a first methodology to estimate and model patient-specific cerebrovascular morphodynamics over one cardiac cycle, through a proposed multiple 2D to 3D image registration framework; 2) an extension of this methodology to provide robust and efficient estimates of cerebrovascular wall motion for clinical evaluation and for further biomechanical modeling of the cerebrovascular wall; 3) a patient study that demonstrates the validity of the developed techniques from clinical practice, through an analysis of 3DRA and DSA images. Each of these contributions is published in or submitted to a peerreviewed international journal. / Durante la última década se ha dado un creciente interés en la evaluación del movimiento de la pared vascular en aneurismas cerebrales. Éste hecho ha sido motivado en gran medida por la relación existente entre dicha motilidad y sus condiciones biomecánicas, pudiendo éstas llegar a ser útiles en la predicción del riesgo de ruptura del aneurisma cerebral analizado. De este modo, de ésta cuantificación, se podría llegar a derivar un indicador indirecto del estado e integridad de la pared vascular. Sin embargo, la gran mayoría de los índices morfológicos utilizados en la actualidad para predecir crecimiento y ruptura de aneurismas cerebrales no consideran los cambios que se producen en el tiempo a lo largo del ciclo cardíaco. Esto se debe a que dichos índices se obtienen a partir de modalidades de imagen que no proporcionan suficiente resolución espacial y/o temporal para obtener información dinámica del aneurisma, cuyo rango de variación se espera sea similar o inferior a la resolución de la imagen. Entre las técnicas de imagen vascular disponibles en la actualidad, la angiografía rotacional 3D (3DRA) y la angiografía de substracción digital (DSA) son las que ofrecen la mayor resolución espacial (y temporal). De todos modos, aún utilizando imágenes de estas modalidades, el análisis objetivo de pequeñas diferencias de forma y movimiento en los vasos cerebrales de un individuo a lo largo de un ciclo cardíaco es difícil, si no imposible para un operador humano utilizando únicamente medidas cualitativas guiadas por inspección visual. Por lo tanto, la disponibilidad de herramientas robustas para el análisis morfodinámico de la vasculatura cerebral resulta necesaria. En este contexto, la investigación de esta tesis se concentra en el desarrollo de técnicas para estimar, cuantificar y analizar el movimiento de las paredes de los vasos cerebrales, con particular énfasis en el movimiento de la pared en aneurismas, utilizando las modalidades indicadas anteriormente. En líneas generales, esta tesis presenta tres contribuciones principales: 1) una primera metodología de estimación y modelado morfodinámico de vasos cerebrales a lo largo de un ciclo cardíaco, utilizando una técnica de registrado de imágenes 2D-3D; 2) una metodología extendida para proporcionar una estimación robusta y eficiente del movimiento de las paredes de los vasos cerebrales para su evaluación clínica y posterior modelado biomecánico de dichas paredes; 3) un estudio sobre una población de pacientes que demuestra la validez de las técnicas desarrolladas en la práctica clínica, a través del análisis en imágenes de 3DRA y DSA. Cada una de estas contribuciones ha sido publicada o se encuentra en fase de revisión en revistas internacionales indexadas.
813

3D reconstruction of the proximal femur and lumbar vertebrae from dual-energy x-ray absorptiometry for osteoporotic risk assessment

Whitmarsh, Tristan 25 September 2012 (has links)
In this thesis a method was developed to reconstruct both the 3D shape and the BMD distribution of bone structures from Dual-energy X-ray Absorptiometry (DXA) images. The method incorporates a statistical model built from a large dataset of Quantitative Computed Tomography (QCT) scans together with a 3D-2D intensity based registration process. The method was evaluated for its ability to reconstruct the proximal femur from a single DXA image. The resulting parameters of the reconstructions were subsequently evaluated for their hip fracture discrimination ability. The reconstruction method was finally extended to the reconstruction of the lumbar vertebrae from anteroposterior and lateral DXA, thereby incorporating a multi-object and multi-view approach. These techniques can potentially improve the fracture risk estimation accuracy over current clinical practice. / En esta tesis se desarrolló un método para reconstruir tanto la forma 3D de estructuras óseas como la distribución de la DMO a partir de una sola imagen de DXA. El método incorpora un modelo estadístico construido a partir de una gran base de datos de QCT junto con una técnica de registro 3D-2D basada en intensidades. Se ha evaluado la capacidad del método para reconstruir la parte proximal del fémur a partir de una imagen DXA. Los parámetros resultantes de las reconstrucciones fueron evaluados posteriormente por su capacidad en discriminar una fractura de cadera. Por fin, se extendió el método a la reconstrucción de las vértebras lumbares a partir de DXA anteroposterior y lateral incorporando así un enfoque multi-objeto y multi-vista. Estos técnicas pueden potencialmente mejorar la precisión en la estimación del riesgo de fractura respecto a la estimación que ofrece la práctica clínica actual.
814

The impact of area-based cultural characteristics on participation with the Fair Pharmacare program in BC

Leong, Vivian Wai-Sum 11 1900 (has links)
Background: Little Canadian research exists which examines equitable access to public pharmaceutical insurance. In order to better understand issues related to access to publicly funded, universal prescription drug insurance in Canada, my thesis examines participation with (and therefore access to) the Fair PharmaCare program in BC. Specifically, my thesis: 1) describes methodologies that can be used to create area-level cultural variables for use with BC administrative data; and 2) studies the impact of household and area-level factors, particularly area-level cultural factors, on non-senior households’ registration for Fair PharmaCare in 2003. I hypothesized that the process of registration may act as a barrier to participation with Fair PharmaCare, particularly for households belonging to various culturally defined communities. Methods: Dissemination area (DA) level census data were obtained from Statistics Canada to create dichotomous, ecological variables which capture the collective ethnic composition, English language capacity and immigration status of residents within each DA. In turn, these variables were employed in multivariate, logistic regression analyses, which also included household-level measures of demographics, enabling resources and health status as well as area-level measures of income and health care resources. The outcome of interest was registration for Fair PharmaCare. Findings: Controlling for area-level income and health care resources, household-level demographics, enabling resources and health status, as well as area-level cultural factors, influenced households’ likelihood of registration for Fair PharmaCare. Households belonging to DAs with a high concentration of individuals reporting a Chinese or Punjabi ethnic background, or DAs that were ethnically homogeneous, regardless of the ethnic background, were more likely to register. In contrast households belonging to DAs consisting of a high concentration of recent immigrants or individuals belonging to ethnic minority groups that are underrepresented in BC were less likely to register. Conclusions: Considering the policy context surrounding the implementation of Fair PharmaCare, the findings from my thesis suggest that specific subpopulations within BC may face difficulties with the registration process, thereby reducing their participation in the program. Government interventions however, appear to have improved registration amongst other subpopulations. Consideration should be given to interventions that may reduce inequities in participation amongst other subgroups.
815

Model-based strategies for automated segmentation of cardiac magnetic resonance images

Lin, Xiang, 1971- January 2008 (has links)
Segmentation of the left and right ventricles is vital to clinical magnetic resonance imaging studies of cardiac function. A single cardiac examination results in a large amount of image data. Manual analysis by experts is time consuming and also susceptible to intra- and inter-observer variability. This leads to the urgent requirement for efficient image segmentation algorithms to automatically extract clinically relevant parameters. Present segmentation techniques typically require at least some user interaction or editing, and do not deal well with the right ventricle. This thesis presents mathematical model based methods to automatically localize and segment the left and right ventricular endocardium and epicardium in 3D cardiac magnetic resonance data without any user interaction. An efficient initialization algorithm was developed which used a novel temporal Fourier analysis to determine the size, orientation and position of the heart. Quantitative validation on a large dataset containing 330 patients showed that the initialized contours had only ~ 5 pixels (modified Hausdorff distance) error on average in the middle short-axis slices. A model-based graph cuts algorithm was investigated and achieved good results on the midventricular slices, but was not found to be robust on other slices. Instead, automated segmentation of both the left and right ventricular contours was performed using a new framework, called SMPL (Simple Multi-Property Labelled) atlas based registration. This framework was able to integrate boundary, intensity and anatomical information. A comparison of similarity measures showed the sum of squared difference was most appropriate in this context. The method improved the average contour errors of the middle short-axis slices to ~ 1 pixel. The detected contours were then used to update the 3D model using a new feature-based 3D registration method. These techniques were iteratively applied to both short-axis and long-axis slices, resulting in a 3D segmentation of the patient’s heart. This automated model-based method showed a good agreement with expert observers, giving average errors of ~ 1–4 pixels on all slices.
816

Model-based strategies for automated segmentation of cardiac magnetic resonance images

Lin, Xiang, 1971- January 2008 (has links)
Segmentation of the left and right ventricles is vital to clinical magnetic resonance imaging studies of cardiac function. A single cardiac examination results in a large amount of image data. Manual analysis by experts is time consuming and also susceptible to intra- and inter-observer variability. This leads to the urgent requirement for efficient image segmentation algorithms to automatically extract clinically relevant parameters. Present segmentation techniques typically require at least some user interaction or editing, and do not deal well with the right ventricle. This thesis presents mathematical model based methods to automatically localize and segment the left and right ventricular endocardium and epicardium in 3D cardiac magnetic resonance data without any user interaction. An efficient initialization algorithm was developed which used a novel temporal Fourier analysis to determine the size, orientation and position of the heart. Quantitative validation on a large dataset containing 330 patients showed that the initialized contours had only ~ 5 pixels (modified Hausdorff distance) error on average in the middle short-axis slices. A model-based graph cuts algorithm was investigated and achieved good results on the midventricular slices, but was not found to be robust on other slices. Instead, automated segmentation of both the left and right ventricular contours was performed using a new framework, called SMPL (Simple Multi-Property Labelled) atlas based registration. This framework was able to integrate boundary, intensity and anatomical information. A comparison of similarity measures showed the sum of squared difference was most appropriate in this context. The method improved the average contour errors of the middle short-axis slices to ~ 1 pixel. The detected contours were then used to update the 3D model using a new feature-based 3D registration method. These techniques were iteratively applied to both short-axis and long-axis slices, resulting in a 3D segmentation of the patient’s heart. This automated model-based method showed a good agreement with expert observers, giving average errors of ~ 1–4 pixels on all slices.
817

Model-based strategies for automated segmentation of cardiac magnetic resonance images

Lin, Xiang, 1971- January 2008 (has links)
Segmentation of the left and right ventricles is vital to clinical magnetic resonance imaging studies of cardiac function. A single cardiac examination results in a large amount of image data. Manual analysis by experts is time consuming and also susceptible to intra- and inter-observer variability. This leads to the urgent requirement for efficient image segmentation algorithms to automatically extract clinically relevant parameters. Present segmentation techniques typically require at least some user interaction or editing, and do not deal well with the right ventricle. This thesis presents mathematical model based methods to automatically localize and segment the left and right ventricular endocardium and epicardium in 3D cardiac magnetic resonance data without any user interaction. An efficient initialization algorithm was developed which used a novel temporal Fourier analysis to determine the size, orientation and position of the heart. Quantitative validation on a large dataset containing 330 patients showed that the initialized contours had only ~ 5 pixels (modified Hausdorff distance) error on average in the middle short-axis slices. A model-based graph cuts algorithm was investigated and achieved good results on the midventricular slices, but was not found to be robust on other slices. Instead, automated segmentation of both the left and right ventricular contours was performed using a new framework, called SMPL (Simple Multi-Property Labelled) atlas based registration. This framework was able to integrate boundary, intensity and anatomical information. A comparison of similarity measures showed the sum of squared difference was most appropriate in this context. The method improved the average contour errors of the middle short-axis slices to ~ 1 pixel. The detected contours were then used to update the 3D model using a new feature-based 3D registration method. These techniques were iteratively applied to both short-axis and long-axis slices, resulting in a 3D segmentation of the patient’s heart. This automated model-based method showed a good agreement with expert observers, giving average errors of ~ 1–4 pixels on all slices.
818

Model-based strategies for automated segmentation of cardiac magnetic resonance images

Lin, Xiang, 1971- January 2008 (has links)
Segmentation of the left and right ventricles is vital to clinical magnetic resonance imaging studies of cardiac function. A single cardiac examination results in a large amount of image data. Manual analysis by experts is time consuming and also susceptible to intra- and inter-observer variability. This leads to the urgent requirement for efficient image segmentation algorithms to automatically extract clinically relevant parameters. Present segmentation techniques typically require at least some user interaction or editing, and do not deal well with the right ventricle. This thesis presents mathematical model based methods to automatically localize and segment the left and right ventricular endocardium and epicardium in 3D cardiac magnetic resonance data without any user interaction. An efficient initialization algorithm was developed which used a novel temporal Fourier analysis to determine the size, orientation and position of the heart. Quantitative validation on a large dataset containing 330 patients showed that the initialized contours had only ~ 5 pixels (modified Hausdorff distance) error on average in the middle short-axis slices. A model-based graph cuts algorithm was investigated and achieved good results on the midventricular slices, but was not found to be robust on other slices. Instead, automated segmentation of both the left and right ventricular contours was performed using a new framework, called SMPL (Simple Multi-Property Labelled) atlas based registration. This framework was able to integrate boundary, intensity and anatomical information. A comparison of similarity measures showed the sum of squared difference was most appropriate in this context. The method improved the average contour errors of the middle short-axis slices to ~ 1 pixel. The detected contours were then used to update the 3D model using a new feature-based 3D registration method. These techniques were iteratively applied to both short-axis and long-axis slices, resulting in a 3D segmentation of the patient’s heart. This automated model-based method showed a good agreement with expert observers, giving average errors of ~ 1–4 pixels on all slices.
819

Ο κοινοτικός κανονισμός REACH για τις επικίνδυνες χημικές ουσίες

Δροσόπουλος, Δημήτριος 16 June 2010 (has links)
Σκοπός της εργασίας αυτής είναι η ανάλυση του νέου νομικού καθεστώτος διαχείρισης και ελέγχου των χημικών ουσιών σε ευρωπαϊκό επίπεδο και η ανάδειξη των ποικίλων διακυβευμάτων που αυτό θέτει. Το νέο αυτό νομικό καθεστώς, παρά την μακροχρόνια διαβούλευση του, δεν είναι τελικά απαλλαγμένο από αδυναμίες και προβλήματα εφαρμογής. Πρόκειται για τον νέο κανονισμό REACH (αρχικά του Registration, Evaluation and Authorisation of Chemicals) ή κανονισμό 1907/2006/ΕΚ. Ο κανονισμός REACH αποτελεί ένα ενιαίο ευρωπαϊκό νομοθέτημα για την καταχώριση, την αξιολόγηση, την αδειοδότηση και τους περιορισμούς των χημικών ουσιών, αντικαθιστώντας 40 διαφορετικά υφιστάμενα νομοθετικά μέτρα. Η εργασία χωρίζεται στην εισαγωγή, σε έξι κεφάλαια και τέλος τα συμπεράσματα. Στην εισαγωγή παρουσιάζεται η υφιστάμενη νομοθεσία της ευρωπαϊκής ένωσης για τις χημικές ουσίες, τα προβλήματα από την εφαρμογή της καθώς και η ανάγκη για ένα νέο νομοθετικό πλαίσιο το οποίο θα αντικαταστήσει το υφιστάμενο και θα έχει ως πρωταρχικό σκοπό την προστασία της ανθρώπινης υγείας και του περιβάλλοντος. Αναφορά γίνεται στην βιώσιμη ανάπτυξη και την πράσινη χημεία, καθώς αποτελούν βασικούς πυλώνες του κανονισμού. Επίσης παρουσιάζονται οι βασικές αρχές του κανονισμού (αρχή της προφύλαξης, της υποκατάστασης κλπ) καθώς και οι επιδιωκόμενοι στόχοι από την εφαρμογή του. Στο πρώτο κεφάλαιο γίνεται μια αναλυτική παρουσίαση της αρχής της προφύλαξης, η οποία αποτελεί βασική και θεμελιώδης αρχή του κανονισμού. Γίνεται αναφορά στην σχέση της με την αρχή της πρόληψης, στην πορεία της μέσα στο ευρωπαϊκό δίκαιο και στη διατροφική πολιτική της ευρωπαϊκής ένωσης καθώς και η αντιμετώπισή της από το ελληνικό δικαιικό σύστημα. Στο δεύτερο κεφάλαιο παρουσιάζεται αναλυτικά η οικοδόμηση του κανονισμού REACH, μέσω των σημαντικότερων χρονολογικών γεγονότων που άλλοτε ενίσχυσαν και άλλοτε αποδυνάμωσαν το κανονισμό, ικανοποιώντας κάθε φορά και διαφορετικά συμφέροντα ή απαιτήσεις, έως την οριστικοποίηση του τελικού του κειμένου. Ειδική αναφορά γίνεται στο ρόλο του Παγκόσμιου Οργανισμού Εμπορίου για τη διαμόρφωση του τελικού κειμένου του κανονισμού. Στη συνέχεια, στο τρίτο κεφάλαιο, παρουσιάζονται αναλυτικά το πεδίο εφαρμογής του κανονισμού, τα θεσμικά όργανα και οι αρμοδιότητές τους καθώς και οι βασικές διατάξεις του κανονισμού, η καταχώριση, η αξιολόγηση, η αδειοδότηση και περιορισμοί των χημικών ουσιών. Ακολουθεί το τέταρτο κεφάλαιο, όπου παρουσιάζεται ο κανονισμός CLP (αρχικά του Classification, Labelling, Packaging) για την ταξινόμηση, την επισήμανση και συσκευασία χημικών ουσιών και μειγμάτων ή κανονισμός 1272/2008/EK. Ο κανονισμός CLP συμπληρώνει και τροποποιεί τον κανονισμό REACH στο κενό που παρουσιάζει όσον αφορά την ταξινόμηση, την σήμανση και τη συσκευασία των χημικών ουσιών και τον εναρμονίζει με το Παγκόσμιο Εναρμονισμένο Σύστημα ταξινόμησης και επισήμανσης για τις χημικές ουσίες και τα μείγματα των Ηνωμένων Εθνών. Στο πέμπτο κεφάλαιο γίνεται μια αναλυτική αποτίμηση του κανονισμού REACH, καθώς παρουσιάζονται και αναλύονται τόσο οι θετικές του όψεις όσο και οι αδυναμίες του. Αναλυτική αναφορά γίνεται στο κόστος εφαρμογής του κανονισμού καθώς και στα οικονομικά οφέλη που προκύπτουν από την εφαρμογή του. Επίσης παρουσιάζοντα τα προβλήματα ερμηνείας και εφαρμογής του κανονισμού. Ακολουθεί το έκτο κεφάλαιο, στο οποίο γίνεται αναφορά στην εφαρμογή του κανονισμού REACH στην Ελλάδα καθώς παρουσιάζεται η υπεύθυνη αρμόδια αρχή για την εφαρμογή του κανονισμού και ο ρόλος της, το πεδίο εφαρμογής του κανονισμού (επιχειρήσεις χημικών προϊόντων) καθώς και ο ρόλος του Συνδέσμου Ελληνικών Χημικών Βιομηχανιών. Τέλος στα συμπεράσματα γίνεται μια συγκεντρωτική παρουσίαση και σύγκριση των αρνητικών και θετικών χαρακτηριστικών του κανονισμού και αποτιμάται ο βαθμός της επίτευξης των αρχικών στόχων του μέσα στο χρονικό διάστημα από την ημερομηνία εφαρμογής του έως σήμερα. Επίσης παρουσιάζεται πως ο κανονισμός REACH αποτελεί καινοτόμο νομοθετικό εργαλείο στα χέρια της διοίκησης αν και αποδυναμωμένος σε σχέση με το αρχικό του κείμενο και την αρχική πεποίθηση για ολοκληρωμένη και υψηλού επιπέδου προστασία της ανθρώπινης υγείας και του περιβάλλοντος. / Aim of this work is the analysis of new legal regime of management and control of chemical substances in European level and the emergence of diverse implications that this poses. This new legal regime, despite its long-lasting consultation, is not finally exempted from weaknesses and problems of application. This is the new REACH Regulation (initials of the Registration, Evaluation and Authorisation of Chemicals) or regulation 1907/2006/EC. REACH is a uniform European legislation on the registration, evaluation, authorisation and restriction of chemicals, replacing 40 different existing legislative measures. The work is divided into the introduction, six chapters and finally conclusions. The introduction presents the existing EU legislation on chemicals, the problems of implementation as well as the need for a new legal framework which will replace the existing and will have as fundamental aim the protection of human health and environment. Reference is made to sustainable development and green chemistry, which are key pillars of the regulation. It also presents the basic principles of the regulation (precautionary principle, substitution principle, etc) as well as the objectives pursued by its application. In the first chapter becomes an analytic presentation of precaution principle, which constitutes basic and fundamental principle of regulation. Reference is made in relation to the prevention principle, in European law and food policy in the European Union as well as its confrontation from Greek law system. In the second chapter is presented in detail the construction of REACH regulation, by means of the most important chronological facts that sometimes reinforced and sometimes watered down regulation, satisfying each time and different interests or requirements, until the finalization of the final text. Special reference to the role of the World Trade Organization is made for the configuration of final text of regulation. Afterwards, in the third chapter, are presented in detail the field of application of regulation, the institutional bodies and their competences as well as the basic provisions of regulation, the registration, evaluation, authorisation and restriction of chemicals. Fourth chapter follows, where regulation CLP is presented (initials of the Classification, Labeling and Packaging) for the classification, labeling and packaging of substances and mixtures or regulation 1272/2008/EC. Regulation CLP supplements and modifies regulation REACH in the void that it presents with regard to the classification, labeling and packing of chemical substances and it harmonizes REACH with the World Harmonized System of classification and labeling for the chemical substances and mixtures of United Nations. In the fifth chapter becomes an analytic assessment of regulation REACH, while are presented and analyzed both positive aspects and weaknesses. A detailed reference becomes in the cost of implementing the regulation and to the economic benefits arising from its application. Also the problems in the interpretation and application of the regulation are presented. Following the sixth chapter, in which reference is made in the implementation of reach in Greece as the responsible authority for the application of the regulation and its role, the field of application of regulation (enterprises of chemical products) as well as the role of the Association of Greek Chemical Industries. Finally, in the conclusions is a summary and comparison of negative and positive characteristics of regulation and evaluation of the extent of the initial objectives within the period from the date of application until now. It also shows that REACH is an innovative legislative tool in the hands of the administration, although weak compared to the initial text, and the initial conviction for integrated and high level of protection of human health and environment.
820

Verification of patient position for proton therapy using portal X-Rays and digitally reconstructed radiographs

Van der Bijl, Leendert 12 1900 (has links)
Thesis (MScEng (Applied Mathematics))--University of Stellenbosch, 2006. / This thesis investigates the various components required for the development of a patient position verification system to replace the existing system used by the proton facilities of iThemba LABS1. The existing system is based on the visual comparison of a portal radiograph (PR) of the patient in the current treatment position and a digitally reconstructed radiograph (DRR) of the patient in the correct treatment position. This system is not only of limited accuracy, but labour intensive and time-consuming. Inaccuracies in patient position are detrimental to the effectiveness of proton therapy, and elongated treatment times add to patient trauma. A new system is needed that is accurate, fast, robust and automatic. Automatic verification is achieved by using image registration techniques to compare the PR and DRRs. The registration process finds a rigid body transformation which estimates the difference between the current position and the correct position by minimizing the measure which compares the two images. The image registration process therefore consists of four main components: the DRR, the PR, the measure for comparing the two images and the minimization method. The ray-tracing algorithm by Jacobs was implemented to generate the DRRs, with the option to use X-ray attenuation calibration curves and beam hardening correction curves to generate DRRs that approximate the PRs acquired with iThemba LABS’s digital portal radiographic system (DPRS) better. Investigations were performed mostly on simulated PRs generated from DRRs, but also on real PRs acquired with iThemba LABS’s DPRS. The use of the Correlation Coefficient (CC) and Mutual Information (MI) similarity measures to compare the two images was investigated. Similarity curves were constructed using simulated PRs to investigate how the various components of the registration process influence the performance. These included the use of the appropriate XACC and BHCC, the sizes of the DRRs and the PRs, the slice thickness of the CT data, the amount of noise contained by the PR and the focal spot size of the DPRS’s X-ray tube. It was found that the Mutual Information similarity measure used to compare 10242 pixel PRs with 2562 pixel DRRs interpolated to 10242 pixels performed the best. It was also found that the CT data with the smallest slice thickness available should be used. If only CT data with thick slices is available, the CT data should be interpolated to have thinner slices. Five minimization algorithms were implemented and investigated. It was found that the unit vector direction set minimization method can be used to register the simulated PRs robustly and very accurately in a respectable amount of time. Investigations with limited real PRs showed that the behaviour of the registration process is not significantly different than for simulated PRs.

Page generated in 0.2655 seconds