• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 222
  • 31
  • 23
  • 19
  • 17
  • 8
  • 3
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 379
  • 379
  • 147
  • 98
  • 76
  • 69
  • 64
  • 44
  • 44
  • 39
  • 39
  • 38
  • 36
  • 31
  • 29
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
301

Undersampled Radial STEAM MRI: Methodological Developments and Applications

Merrem, Andreas 05 March 2018 (has links)
No description available.
302

Fluorescence diffuse optical tomographic iterative image reconstruction for small animal molecular imaging with continuous-wave near infrared light / Reconstruction d’image en fluorescence par tomographie optique diffuse pour imagerie moléculaire sur petit animal avec lumière proche infrarouge en régime continu

Edjlali, Ehsan January 2017 (has links)
L’approximation par harmoniques sphériques (SPN) simplifiées de l’équation de transfert radiatif a été proposée comme un modèle fiable de propagation de la lumière dans les tissus biologiques. Cependant, peu de solutions analytiques ont été trouvées pour ce modèle. De telles solutions analytiques sont d’une grande valeur pour valider les solutions numériques des équations SPN, auxquelles il faut recourir dans le cas de tissus avec des géométries courbes complexes. Dans la première partie de cette thèse, des solutions analytiques pour deux géométries courbes sont présentées pour la première fois, à savoir pour la sphère et pour le cylindre. Pour les deux solutions, les conditions aux frontières générales tenant compte du saut d’indice de réfraction à l’interface du tissus et de son milieu environnant, telles qu’applicables à l’optique biomédicale, sont utilisées. Ces solutions sont validées à l’aide de simulations Monte Carlo basées sur un maillage de discrétisation du milieu. Ainsi, ces solutions permettent de valider rapidement un code numérique, par exemple utilisant les différences finies ou les éléments finis, sans nécessiter de longues simulations Monte Carlo. Dans la deuxième partie de cette thèse, la reconstruction itérative pour l’imagerie par tomographie optique diffuse par fluorescence est proposée sur la base d’une fonction objective et de son terme de régularisation de type Lq-Lp. Pour résoudre le problème inverse d’imagerie, la discrétisation du modèle de propagation de la lumière est effectuée en utilisant la méthode des différences finies. La reconstruction est effectuée sur un modèle de souris numérique en utilisant un maillage multi-échelle. Le problème inverse est résolu itérativement en utilisant une méthode d’optimisation. Pour cela, le gradient de la fonction de coût par rapport à la carte de concentration de l’agent fluorescent est nécessaire. Ce gradient est calculé à l’aide d’une méthode adjointe. Des mesures quantitatives utilisées en l’imagerie médicale sont utilisées pour évaluer la performance de l’approche de reconstruction dans différentes conditions. L’approche Lq-Lp montre des performances quantifiées élevées par rapport aux algorithmes traditionnels basés sur des fonction coût de type somme de carrés de différences. / Abstract : The simplified spherical harmonics (SPN) approximation to the radiative transfer equation has been proposed as a reliable model of light propagation in biological tissues. However, few analytical solutions have been found for this model. Such analytical solutions are of great value to validate numerical solutions of the SPN equations, which must be resorted to when dealing with media with complex curved geometries. In the first part of this thesis, analytical solutions for two curved geometries are presented for the first time, namely for the sphere and for the cylinder. For both solutions, the general refractiveindex mismatch boundary conditions, as applicable in biomedical optics, are resorted to. These solutions are validated using mesh-based Monte Carlo simulations. So validated, these solutions allow in turn to rapidly validate numerical code, based for example on finite differences or on finite elements, without requiring lengthy Monte Carlo simulations. provide reliable tool for validating numerical simulations. In the second part, iterative reconstruction for fluorescence diffuse optical tomography imaging is proposed based on an Lq-Lp framework for formulating an objective function and its regularization term. To solve the imaging inverse problem, the discretization of the light propagation model is performed using the finite difference method. The framework is used along with a multigrid mesh on a digital mouse model. The inverse problem is solved iteratively using an optimization method. For this, the gradient of the cost function with respect to the fluorescent agent’s concentration map is necessary. This is calculated using an adjoint method. Quantitative metrics resorted to in medical imaging are used to evaluate the performance of the framework under different conditions. The results obtained support this new approach based on an Lq-Lp formulation of cost functions in order to solve the inverse fluorescence problem with high quantified performance.
303

Simulations Monte Carlo des effets des photons de 250 keV sur un fantôme 3D réaliste de mitochondrie et évaluation des effets des nanoparticules d'or sur les caractéristiques des irradiations / Monte Carlo simulations of 250 keV photons effects on a 3D realistic mitochondria phantom and evaluation of radiation enhancement using gold nanoparticles

Zein, Sara 22 September 2017 (has links)
Dans le domaine de la radiobiologie, les dommages causés à l'ADN nucléaire sont largement étudiés puisque l’ADN est considéré la cible la plus sensible dans la cellule. En plus de l’ADN, les mitochondries commencent à attirer l'attention comme des cibles sensibles, car elles contrôlent de nombreuses fonctions importantes pour la survie de la cellule. Ce sont des organites à double membranes principalement chargées de la production d'énergie ainsi que la régulation réactive des espèces d'oxygène, la signalisation cellulaire et le contrôle de l'apoptose. Certaines expériences ont montré qu'après exposition aux rayonnements ionisants, les teneurs mitochondriales sont modifiées et leurs fonctions sont affectées. C'est pourquoi nous sommes intéressés par l'étude des effets des rayonnements ionisants sur les mitochondries. À l'échelle microscopique, les simulations Monte-Carlo sont utiles pour reproduire les traces de particules ionisantes pour une étude approfondie. Par conséquent, nous avons produit des fantômes 3D de mitochondries à partir d'images microscopiques de cellules fibroblastiques. Ces fantômes ont été transformés de façon à être téléchargés dans Geant4 sous forme de mailles tessélisées et tétraédriques remplies d'eau représentant la géométrie réaliste de ces organites. Les simulations numériques ont été effectuées afin de calculer les dépôts d’énergie induits par des photons de 250 keV à l'intérieur de ces fantômes. Les processus électromagnétiques Geant4-DNA sont utilisés pour simuler les traces des électrons secondaires produits. Étant donné que les dommages groupés sont plus difficiles à réparer par les cellules, un algorithme spécifique est utilisé pour étudier le regroupement spatial des dégâts potentiels des rayonnements. En radiothérapie, il est difficile de donner une dose efficace aux sites de la tumeur sans affecter les tissus environnants sains. L'utilisation de nanoparticules d'or comme radio-sensibilisateurs semble être prometteuse. Leur coefficient d'absorption élevé augmente la probabilité d’interaction des photons et induit une dose tumorale plus importante lorsque ces particules sont absorbés de manière préférentielle dans les tumeurs. Puisque l'or a un nombre atomique élevé, les électrons Auger sont produits en abondance. Ces électrons ont une portée plus faible que les photoélectrons, ce qui leur permet de déposer la majeure partie de leur énergie près de la nanoparticule, ce qui augmente la dose locale. Nous avons étudié l'effet radio-sensibilisant des nanoparticules d'or sur le fantôme des mitochondries. L'efficacité de cette méthode dépend du nombre, de la taille et de la répartition spatiale des nanoparticules d'or. Après exposition aux rayonnements ionisants, des espèces réactives d'oxygène sont produites dans le milieu biologique qui contient une quantité d'eau abondante. Dans cette étude, nous simulons les espèces chimiques produites à l'intérieur du fantôme des mitochondries et leur regroupement est estimé. La distribution spatiale des produits chimiques et leur évolution avec le temps et par la suite analysée au moyen d’algorithme spécifique de traitement de données. / In the field of radiobiology, damage to nuclear DNA is extensively studied since it is considered as a sensitive target inside cells. Mitochondria are starting to get some attention as sensitive targets as well since they control many functions important to the cell’s survival. They are double membraned organelles mainly in charge of energy production as well as reactive oxygen species regulation, cell signaling and apoptosis control. Some experiments have shown that after exposure to ionizing radiation the mitochondrial contents are altered and their functions are affected. That is why we are interested in studying the effects of ionizing radiation on mitochondria. At the microscopic scale, Monte Carlo simulations are helpful in reproducing the tracks of ionizing particles for a close study. Therefore, we produced 3D phantoms of mitochondria starting from microscopic images of fibroblast cells. These phantoms are easily uploaded into Geant4 as tessellated and tetrahedral meshes filled with water representing the realistic geometry of these organelles. Microdosimetric analysis is performed to deposited energy by 250keV photons inside these phantoms. The Geant4-DNA electromagnetic processes are used to simulate the tracking of the produced secondary electrons. Since clustered damages are harder to repair by cells, a clustering algorithm is used to study the spatial clustering of potential radiation damages. In radiotherapy, it is a challenge to deliver an efficient dose to the tumor sites without affecting healthy surrounding tissues. The use of gold nanoparticles as radio-sensitizers seems to be promising. Their high photon absorption coefficient compared to tissues deposit a larger dose when they are preferentially absorbed in tumors. Since gold has a high atomic number, Auger electrons are produced abundantly. These electrons have lower range than photoelectrons enabling them to deposit most of their energy near the nanoparticle and thus increasing the local dose. We studied the radio-sensitizing effect of gold nanoparticles on the mitochondria phantom. The effectiveness of this method is dependent on the number, size and spatial distribution of gold nanoparticles. After exposure to ionizing radiation, reactive oxygen species are produced in the biological material that contains abundant amount of water. In this study, we simulate the chemical species produced inside the mitochondria phantom and their clustering is estimated. We take advantage of the Geant4-DNA chemistry processes libraries that is recently included in the Geant4.10.1 release to simulate the spatial distribution of the chemicals and their evolution with time.
304

Perceptual content and tone adaptation for HDR display technologies / Adaptation perceptuelle du contenu et des tons pour les technologies d'affichage HDR

Abebe, Mekides Assefa 07 October 2016 (has links)
Les technologies de capture et d'affichage d'images ont fait un grand pas durant la dernière décennie en termes de capacités de reproduction de la couleur, de gamme de dynamique et de détails des scènes réelles. Les caméras et les écrans à large gamme de dynamique (HDR: high dynamic range) sont d'ores et déjà disponibles, offrant ainsi plus de flexibilité pour les créateurs de contenus afin de produire des scènes plus réalistes.Dans le même temps, à cause des limitations des appareils conventionnels, il existe un gap important en terme de reproduction de contenu et d'apparence colorée entre les deux technologies. Cela a accentué le besoin pour des algorithmes prenant en compte ces considérations et assurant aux créateurs de contenus une reproduction cross-média fidèle.Dans cette thèse, nous focalisons sur l'adaptation et la reproduction des contenus à gamme de dynamique standard sur des dispositifs HDR. Tout d'abord, les modèles d'apparence colorée ainsi que les opérateurs de mappage tonal inverse ont été étudiés subjectivement quant à leur fidélité couleur lors de l'expansion de contenus antérieurs. Par la suite, les attributs perceptuels de clarté, chroma et saturation ont été analysés pour des stimuli émissifs ayant des niveaux de luminance de plus hautes gammes et ce en menant une étude psychophysique basée sur la méthode de mise à l'échelle de partitions. Les résultats expérimentaux ont permis de mener à la définition d'un nouvel espace couleur HDR efficace et précis, optimisé pour les applications d'adaptation de la gamme de dynamique. Enfin, dans l'optique de récupérer les détails perdus lors de captures d'images standard et d'améliorer la qualité perçue du contenu antérieur avant d'être visualisé sur un dispositif HDR, deux approches de correction des zones surexposées ou ayant subi un écrêtage couleur ont été proposées. Les modèles et algorithmes proposés ont été évalués en comparaison avec une vérité terrain HDR, menant à la conclusion que les résultats obtenus sont plus proches des scènes réelles que les autres approches de la littérature. / Camera and display technologies have greatly advanced in their capacities of reproducing color, dynamic range and details of real scenes in recent years. New and powerful high dynamic range (HDR) camera and display technologies are currently available in the market and, recently, these new HDR technologies offer higher flexibility to content creators, allowing them to produce a more precise representation of real world scenes.At the same time, limitations of conventional camera and display technologies mean that there is a significant gap in terms of content and color appearance reproduction between new and existing technologies. These mismatches lead to an increased demand for appearance studies and algorithms which take such under consideration and help content creators to perform accurate cross-media reproductions.In this thesis we mainly considered the adaptation and reproduction of standard dynamic range content towards HDR displays. First, existing color appearance models and reverse tone mapping operators were subjectively studied for their color fidelity during dynamic range expansion of legacy contents. Then perceptual lightness, chroma and saturation attributes were analyzed for emissive stimuli with higher range of luminance levels using adapted psycho-visual experimental setups based on the partition scaling method. The experimental results lead to a new, more efficient and accurate HDR color space, specifically optimized for dynamic range adaptation applications. Finally, to recover lost details and enhance the visual quality of legacy content before visualizing on an HDR display, two methods for color-clipping and over-exposure correction were introduced. The models and algorithms presented, were evaluated relative to HDR ground truth content, showing that our results are closer to the real scene than can be achieved with previous methods.
305

Mise en place de l'imagerie Cerenkov 3D / Development of the Cerenkov luminescence tomography

Bertrand, Arnaud 06 November 2015 (has links)
L’imagerie moléculaire vise à étudier les processus biologiques in vivo. L’imagerie Cerenkov est une technique d’imagerie moléculaire qui se développe depuis 2009. Le principe est d’injecter un radiotraceur, molécule marquée par un isotope radioactif, puis à enregistrer le signal optique émis par effet Cerenkov. L’imagerie Cerenkov permet d’imager des radiotraceurs émettant des rayonnements β+ (positon) et β- (électron).L’effet Cerenkov se produit lorsqu’une particule chargée se déplace dans un milieu avec une vitesse supérieure à celle de la lumière dans ce même milieu. Si ce seuil est dépassé, on observe alors une émission de photons optiques appelée rayonnement Cerenkov. Le spectre de cette émission s’étend de l’UV à l’IR de manière continue et le nombre de photons émis en fonction de la longueur d’onde varie en 1/λ².Mon thèse consiste à développer l’imagerie Cerenkov 3D pour reconstruire la distribution du radiotraceur in vivo. Nous disposons d’une plateforme d’imagerie nommée AMISSA (A Multimodality Imaging System for Small Animal) dont le but est de développer et de mettre à disposition des outils d’imagerie moléculaire pour du petit animal. / Molecular imaging aims to study biological processes in vivo. Cerenkov imaging is a molecular imaging technology that has developed since 2009. The principle is to inject a radioactive tracer molecule labeled with a radioactive isotope, then recording the optical signal emitted by the Cerenkov effect. The Cerenkov imaging allows imaging radiotracers emitting β+ radiation (positron) and β- (electron). The Cerenkov effect occurs when a charged particle moves through a medium with a speed greater than that of light in this same medium. If this threshold is exceeded, we observed an emission of optical photons called Cerenkov radiation. The emission spectrum of this extends from UV to IR continuously and the number of photons emitted as a function of the wavelength varies by 1/λ². My PhD is to develop 3D imaging Cerenkov to reconstruct the distribution of the radiotracer in vivo. We have an imaging platform named Amissa (A Multimodality Imaging System for Small Animal) whose purpose is to develop and make available tools for molecular imaging of small animals.
306

Parallel Tomographic Image Reconstruction On Hierarchical Bus-Based And Extended Hypercube Architectures

Rajan, K 07 1900 (has links) (PDF)
No description available.
307

Modelování rekonstrukce obrazu při CT RTG fluoroskopii / X-ray computed tomography fluoroscopy simulation

Bainar, Petr January 2013 (has links)
The aim of the thesis is to design and implement a simulator of image reconstruction during x-ray computed tomography fluoroscopy. Apart from quantitative evaluation of particular imaging process parameters influence, the intended program application will lie in optimization of these parameter values. Introductory part is focused on brief theoretical description of x-ray computed tomography imaging process. Emphasis is placed on fluoroscopy-specific approaches, particularly the division of scanned projections into chosen amount of sectors as well as fluoroscopic imaging process evaluation methods. The subsequent part deals with program implementation and its limitations and sketches the possible working framework. Moreover, one of the chapters is devoted to optimization of imaging process parameters measurement. The final part aims at impact analysis of particular process parameters as well as fluoroscopic imaging process optimization approaches. The thesis consists also of a didactic simulator enabling real-time intervention simulation with manual instrument manipulation. Since both simulators are intended for teaching purposes, the thesis is supplemented with a laboratory exercise draft.
308

Development of methods for time efficient scatter correction and improved attenuation correction in time-of-flight PET/MR

Nikulin, Pavel 06 November 2019 (has links)
In der vorliegenden Dissertation wurden zwei fortdauernde Probleme der Bildrekonstruktion in der time-of-flight (TOF) PET bearbeitet: Beschleunigung der TOF-Streukorrektur sowie Verbesserung der emissionsbasierten Schwächungskorrektur. Aufgrund der fehlenden Möglichkeit, die Photonenabschwächung direkt zu messen, ist eine Verbesserung der Schwächungskorrektur durch eine gemeinsame Rekonstruktion der Aktivitäts- und Schwächungskoeffizienten-Verteilung mittels der MLAA-Methode von besonderer Bedeutung für die PET/MRT, während eine Beschleunigung der TOF-Streukorrektur gleichermaßen auch für TOF-fähige PET/CT-Systeme relevant ist. Für das Erreichen dieser Ziele wurde in einem ersten Schritt die hochauflösende PET-Bildrekonstruktion THOR, die bereits zuvor in unserer Gruppe entwickelt wurde, angepasst, um die TOF-Information nutzen zu können, welche von allen modernen PET-Systemen zur Verfügung gestellt wird. Die Nutzung der TOF-Information in der Bildrekonstruktion führt zu reduziertem Bildrauschen und zu einer verbesserten Konvergenzgeschwindigkeit. Basierend auf diesen Anpassungen werden in der vorliegenden Arbeit neue Entwicklungen für eine Verbesserung der TOF-Streukorrektur und der MLAA-Rekonstruktion beschrieben. Es werden sodann Ergebnisse vorgestellt, welche mit den neuen Algorithmen am Philips Ingenuity PET/MRT-Gerät erzielt wurden, das gemeinsam vom Helmholtz-Zentrum Dresden-Rossendorf (HZDR) und dem Universitätsklinikum betrieben wird. Eine wesentliche Voraussetzung für eine quantitative TOF-Bildrekonstruktionen ist eine Streukorrektur, welche die TOF-Information mit einbezieht. Die derzeit übliche Referenzmethode hierfür ist eine TOF-Erweiterung des single scatter simulation Ansatzes (TOF-SSS). Diese Methode wurde im Rahmen der TOF-Erweiterung von THOR implementiert. Der größte Nachteil der TOF-SSS ist eine 3–7-fach erhöhte Rechenzeit für die Berechnung der Streuschätzung im Vergleich zur non-TOF-SSS, wodurch die Bildrekonstruktionsdauer deutlich erhöht wird. Um dieses Problem zu beheben, wurde eine neue, schnellere TOF-Streukorrektur (ISA) entwickelt und implementiert. Es konnte gezeigt werden, dass dieser neue Algorithmus eine brauchbare Alternative zur TOF-SSS darstellt, welche die Rechenzeit auf ein Fünftel reduziert, wobei mithilfe von ISA und TOF-SSS rekonstruierte Schnittbilder quantitativ ausgezeichnet übereinstimmen. Die Gesamtrekonstruktionszeit konnte mithilfe ISA bei Ganzkörperuntersuchungen insgesamt um den Faktor Zwei reduziert werden. Dies kann als maßgeblicher Fortschritt betrachtet werden, speziell im Hinblick auf die Nutzung fortgeschrittener Bildrekonstruktionsverfahren im klinischen Umfeld. Das zweite große Thema dieser Arbeit ist ein Beitrag zur verbesserten Schwächungskorrektur in der PET/MRT mittels MLAA-Rekonstruktion. Hierfür ist zunächst eine genaue Kenntnis der tatsächlichen Zeitauflösung in der betrachten PET-Aufnahme zwingend notwendig. Da die vom Hersteller zur Verfügung gestellten Zahlen nicht immer verlässlich sind und zudem die Zählratenabhängigkeit nicht berücksichtigen, wurde ein neuer Algorithmus entwickelt und implementiert, um die Zeitauflösung in Abhängigkeit von der Zählrate zu bestimmen. Dieser Algorithmus (MLRES) basiert auf dem maximum likelihood Prinzip und erlaubt es, die funktionale Abhängigkeit der Zeitauflösung des Philips Ingenuity PET/MRT von der Zählrate zu bestimmen. In der vorliegenden Arbeit konnte insbesondere gezeigt werden, dass sich die Zeitauflösung des Ingenuity PET/MRT im klinisch relevanten Zählratenbereich um mehr als 250 ps gegenüber der vom Hersteller genannten Auflösung von 550 ps verschlechtern kann, welche tatsächlich nur bei extrem niedrigen Zählraten erreicht wird. Basierend auf den oben beschrieben Entwicklungen konnte MLAA in THOR integriert werden. Die MLAA-Implementierung erlaubt die Generierung realistischer patientenspezifischer Schwächungsbilder. Es konnte insbesondere gezeigt werden, dass auch Knochen und Hohlräume korrekt identifiziert werden, was mittels MRT-basierter Schwächungskorrektur sehr schwierig oder sogar unmöglich ist. Zudem konnten wir bestätigen, dass es mit MLAA möglich ist, metallbedingte Artefakte zu reduzieren, die ansonsten in den MRT-basierten Schwächungsbildern immer zu finden sind. Eine detaillierte Analyse der Ergebnisse zeigte allerdings verbleibende Probleme bezüglich der globalen Skalierung und des lokalen Übersprechens zwischen Aktivitäts- und Schwächungsschätzung auf. Daher werden zusätzliche Entwicklungen erforderlich sein, um auch diese Defizite zu beheben. / The present work addresses two persistent issues of image reconstruction for time-of-flight (TOF) PET: acceleration of TOF scatter correction and improvement of emission-based attenuation correction. Due to the missing capability to measure photon attenuation directly, improving attenuation correction by joint reconstruction of the activity and attenuation coefficient distribution using the MLAA technique is of special relevance for PET/MR while accelerating TOF scatter correction is of equal importance for TOF-capable PET/CT systems as well. To achieve the stated goals, in a first step the high-resolution PET image reconstruction THOR, previously developed in our group, was adapted to take advantage of the TOF information delivered by state-of-the-art PET systems. TOF-aware image reconstruction reduces image noise and improves convergence rate both of which is highly desirable. Based on these adaptations, this thesis describes new developments for improvement of TOF scatter correction and MLAA reconstruction and reports results obtained with the new algorithms on the Philips Ingenuity PET/MR jointly operated by the Helmholtz-Zentrum Dresden-Rossendorf (HZDR) and the University Hospital. A crucial requirement for quantitative TOF image reconstruction is TOF-aware scatter correction. The currently accepted reference method — the TOF extension of the single scatter simulation approach (TOF-SSS) — was implemented as part of the TOF-related modifications of THOR. The major drawback of TOF-SSS is a 3–7 fold increase in computation time required for the scatter estimation, compared to regular SSS, which in turn does lead to a considerable image reconstruction slowdown. This problem was addressed by development and implementation of a novel accelerated TOF scatter correction algorithm called ISA. This new algorithm proved to be a viable alternative to TOF-SSS and speeds up scatter correction by a factor of up to five in comparison to TOF-SSS. Images reconstructed using ISA are in excellent quantitative agreement with those obtained when using TOF-SSS while overall reconstruction time is reduced by a factor of two in whole-body investigations. This can be considered a major achievement especially with regard to the use of advanced image reconstruction in a clinical context. The second major topic of this thesis is contribution to improved attenuation correction in PET/MR by utilization of MLAA reconstruction. First of all, knowledge of the actual time resolution operational in the considered PET scan is mandatory for a viable MLAA implementation. Since vendor-provided figures regarding the time resolution are not necessarily reliable and do not cover count-rate dependent effects at all, a new algorithm was developed and implemented to determine the time resolution as a function of count rate. This algorithm (MLRES) is based on the maximum likelihood principle and allows to determine the functional dependency of the time resolution of the Philips Ingenuity PET/MR on the given count rate and to integrate this information into THOR. Notably, the present work proves that the time resolution of the Ingenuity PET/MR can degrade by more than 250 ps for the clinically relevant range of count rates in comparison to the vendor-provided figure of 550 ps which is only realized in the limit of extremely low count rates. Based on the previously described developments, MLAA could be integrated into THOR. The performed list-mode MLAA implementation is capable of deriving realistic, patient-specific attenuation maps. Especially, correct identification of osseous structures and air cavities could be demonstrated which is very difficult or even impossible with MR-based approaches to attenuation correction. Moreover, we have confirmed that MLAA is capable of reducing metal-induced artifacts which are otherwise present in MR-based attenuation maps. However, the detailed analysis of the obtained MLAA results revealed remaining problems regarding stability of global scaling as well as local cross-talk between activity and attenuation estimates. Therefore, further work beyond the scope of the present work will be necessary to address these remaining issues.
309

Stratified-medium sound speed profiling for CPWC ultrasound imaging

D'Souza, Derrell 13 July 2020 (has links)
Coherent plane-wave compounding (CPWC) ultrasound is an important modality enabling ultrafast biomedical imaging. To perform CWPC image reconstruction for a stratified (horizontally layered) medium, one needs to know how the speed of sound (SOS) varies with the propagation depth. Incorrect sound speed and layer thickness assumptions can cause focusing errors, degraded spatial resolution and significant geometrical distortions resulting in poor image reconstruction. We aim to determine the speed of sound and thickness values for each horizontal layer to accurately locate the recorded reflection events to their true locations within the medium. Our CPWC image reconstruction process is based on phase-shift migration (PSM) that requires the user to specify the speed of sound and thickness of each layer in advance. Prior to performing phase-shift migration (one layer at a time, starting from the surface), we first estimate the speed of sound values of a given layer using a cosine similarity metric, based on the data obtained by a multi-element transducer array for two different plane-wave emission angles. Then, we use our speed estimate to identify the layer thickness via end-of-layer boundary detection. A low-cost alternative that obtains reconstructed images with fewer phase shifts (i.e., fewer complex multiplications) using a spectral energy threshold is also proposed in this thesis. Our evaluation results, based on the CPWC imaging simulation of a three-layer medium, show that our sound speed and layer thickness estimates are within 4% of their true values (i.e., those used to generate simulated data). We have also confirmed the accuracy of our speed and layer thickness estimation separately, using two experimental datasets representing two special cases. For speed estimation, we used a CPWC imaging dataset for a constant-speed (i.e., single-layer) medium, yielding estimates within 1% of their true values. For layer thickness estimation, we used a monostatic (i.e., single-element) synthetic-aperture (SA) imaging dataset of the three-layer medium, also yielding estimates within 1% of their true values. Our evaluation results for the low-cost alternative showed a 93% reduction in complex multiplications for the three-layer CPWC imaging dataset and 76% for the three-layer monostatic SA imaging dataset, producing images nearly similar to those obtained using the original PSM methods. / Graduate
310

Display and Analysis of Tomographic Reconstructions of Multiple Synthetic Aperture LADAR (SAL) images

Seck, Bassirou January 2018 (has links)
No description available.

Page generated in 0.5698 seconds