• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 12
  • 10
  • 1
  • 1
  • 1
  • Tagged with
  • 28
  • 28
  • 12
  • 8
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Signal processing methods for fast and accurate reconstruction of digital holograms / Méthodes de traitement du signal pour la reconstruction rapide et précise des hologrammes numériques

Seifi, Mozhdeh 03 October 2013 (has links)
Le développement de techniques de microscopie quantitatives tridimensionnelles et résolues en temps est fondamental dans de nombreux domaines. Dans ce cadre, l’holographie numérique en ligne recèle un fort potentiel, en raison de sa relative simplicité de mise en œuvre (imagerie sans lentille), de son caractère tridimensionnel et de sa résolution temporelle. Le but de cette thèse est l’amélioration des algorithmes de reconstruction des hologrammes par une approche « problèmes inverses ». Dans le cadre de la reconstruction d’objets paramétriques, des travaux antérieurs ont permis de proposer un algorithme glouton permettant de résoudre le problème inverse de reconstruction (intrinsèquement mal posé) par une maximisation de la vraisemblance entre un modèle de formation d’hologramme et les données. Une première contribution de ce travail de thèse a été de réduire le temps de calcul de cet algorithme en utilisant une approche multi-résolution (algorithme FAST). Dans une deuxième contribution, une approche reconnaissance de forme de type « matching pursuit » est utilisée pour la reconstruction d’objets quelconques en recherchant les éléments d’un dictionnaire les plus proches des figures de diffraction composant l’hologramme. La réduction des dimensions du dictionnaire est proposée en utilisant une décomposition en valeurs singulières tronquée. La troisième contribution de cette thèse a été réalisée en collaboration avec le LMFA. L’algorithme glouton a été utilisé sur un cas réel : la reconstruction et le suivi de gouttelettes d’éther évaporantes en chute libre. Dans tous ces développements une attention particulière a été portée sur la précision des reconstructions, sur la réduction du nombre de paramètres à régler par l’utilisateur (algorithmes peu ou non supervisés). Une boîte à outils Matlab® (en ligne) a été développée dans le cadre de cette thèse / Techniques for fast, 3D, quantitative microscopy are of great interest in many fields. In this context, in-line digital holography has significant potential due to its relatively simple setup (lensless imaging), its three-dimensional character and its temporal resolution. The goal of this thesis is to improve existing hologram reconstruction techniques by employing an “inverse problems” approach. For applications of objects with parametric shapes, a greedy algorithm has been previously proposed which solves the (inherently ill-posed) inversion problem of reconstruction by maximizing the likelihood between a model of holographic patterns and the measured data. The first contribution of this thesis is to reduce the computational costs of this algorithm using a multi-resolution approach (FAST algorithm). For the second contribution, a “matching pursuit” type of pattern recognition approach is proposed for hologram reconstruction of volumes containing parametric objects, or non-parametric objects of a few shape classes. This method finds the closest set of diffraction patterns to the measured data using a diffraction pattern dictionary. The size of the dictionary is reduced by employing a truncated singular value decomposition to obtain a low cost algorithm. The third contribution of this thesis was carried out in collaboration with the laboratory of fluid mechanics and acoustics of Lyon (LMFA). The greedy algorithm is used in a real application: the reconstruction and tracking of free-falling, evaporating, ether droplets. In all the proposed methods, special attention has been paid to improvement of the accuracy of reconstruction as well as to reducing the computational costs and the number of parameters to be tuned by the user (so that the proposed algorithms are used with little or no supervision). A Matlab® toolbox (accessible on-line) has been developed as part of this thesis
22

Correlation and Spiral Microscopy using a Spatial Light Modulation / Correlation and Spiral Microscopy using a Spatial Light Modulation

Bouchal, Petr January 2016 (has links)
Dizertační práce je uceleným shrnutím výsledků dosažených v průběhu doktorského studia. V úvodní části práce je představena motivace, odborné a technické zázemí a grantová podpora realizovaného výzkumu. Popsány jsou také dosažené výsledky a jejich význam pro skupinu Experimentální biofotoniky, Ústavu fyzikálního inženýrství, Vysokého učení technického v Brně. Vědecká část práce je rozdělena do dvou hlavních bloků, které se postupně zabývají návrhem nových zobrazovacích koncepcí a technickou modifikací stávajících zobrazovacích systému v praktických aplikacích. Dosažené vědecké výsledky podporují vývoj v oblastech korelační a spirální mikroskopie s prostorovou modulací světla. V části zabývající se návrhem nových zobrazovacích koncepcí je provedena studie korelačního zobrazení v podmínkách proměnné časové a prostorové koherence. Následně jsou zkoumány možnosti praktického využití vírových a nedifrakčních svazků v oblastech korelační, holografické a optické mikroskopie. Interference vírových svazků a samozobrazení nedifrakčních svazků je postupně využito k dosažení 3D zobrazení s hranovým kontrastem a rotující bodovou rozptylovou funkcí. Pokročilé zobrazovací metody jsou úspěšně zavedeny optickou cestou ale i digitální modifikací holografických záznamů. Výsledky teoretických modelů a numerických simulací jsou doprovázeny praktickým vyhodnocením navržených zobrazovacích principů. V technicky zaměřené části jsou navrženy nové způsoby zavedení prostorové modulace světla, které umožňují rozšíření zorného pole v experimentech korelačního zobrazení a dosažení achromatizace při zobrazení pomocí programovatelných difraktivních prvků. Rozšíření zorného pole v korelačních experimentech umožňuje přizpůsobovací optický systém vložený do standardní zobrazovací sestavy. Achromatizace difraktivního zobrazení je zajištěna použitím speciálně navrženého refraktivního korektoru. V navazující části je navržena nová metoda krokování fáze, která pracuje s dvojlomností kapalných krystalů využívaných v systémech pro prostorovou modulaci světla. Použití metody je experimentálně demonstrováno v polarizačně modifikovaném Mirau interferometru. Získané technické zkušenosti jsou využity v praktickém návrhu a realizaci multimodálního zobrazovacího systému s prostorovou modulací světla.
23

Identification de régulateurs de la voie de signalisation du suppresseur tumoral PAR-4/LKB1 chez C. elegans

Descoteaux, Catherine 07 1900 (has links)
Le gène par-4 code pour une kinase à sérine/thréonine très conservée qui régule la polarisation précoce et la division cellulaire asymétrique de l’embryon de C. elegans. Une mutation de par-4 entraîne la létalité embryonnaire en perturbant trois processus: la ségrégation asymétrique des déterminants cellulaires, la régulation asynchrone de la progression du cycle cellulaire et la contractilité du réseau d’actomyosine. Pour identifier des régulateurs des voies de signalisation de PAR-4, nous avons procédé à un criblage pour des suppresseurs de la létalité embryonnaire associée à une mutation de par-4. Nous avons identifié 6 gènes qui codent pour des homologues conservés avec des activités définies telles que la phosphorylation, l’ubiquitination, la protéolyse et l’échafaudage. En employant l’imagerie quantitative pour suivre des événements cellulaires dépendants de PAR-4, nous avons déterminé quels processus sont contrôlés par chaque suppresseur durant le développement embryonnaire de C. elegans. Des analyses moléculaires de ces suppresseurs ont révélé des détails sur le mécanisme par lequel PAR-4 régule la polarisation cellulaire et promeut la division cellulaire asymétrique. / The gene lkb1 codes for a highly conserved serine/threonine kinase. The orthologue of lkb1 in the nematode Caeonorhabditis elegans, termed par-4, regulates early polarization and asymmetric cell division in the embryo. A mutation in par-4 causes embryonic lethality by perturbing three main cellular processes: asymmetric segregation of cell fate determinants, asynchronic regulation of cell cycle progression and contractility of the actomyosin network. To identify regulators of the PAR-4/LKB1-dependent pathways, we performed a screen for suppressors of the embryonic lethality associated with a mutation in par-4. We identified 6 genes that have conserved homologs with defined activities including protein phosphorylation, ubiquitination, proteolysis and scaffolding. We used quantitative imaging of specific PAR-4-dependent cellular events to determine which of these are controlled by each suppressor during early C. elegans embryonic development. Molecular analysis of these suppressors revealed details on the mechanism through which PAR-4 regulates cell polarization and promotes asymmetric cell division.
24

Reconstruction 4D intégrant la modélisation pharmacocinétique du radiotraceur en imagerie fonctionnelle combinée TEP/TDM / 4D reconstruction including radiopharmaceutical modeling in PET/CT imaging

Merlin, Thibaut 11 December 2013 (has links)
L'imagerie TEP permet de mesurer et visualiser les changements de la distribution biologique des radiopharmaceutiques au sein des organes d'intérêt au court du temps. Ce suivi temporel offre des informations très utiles concernant les processus métaboliques et physiologiques sous-jacents, qui peuvent être extraites grâce à différentes techniques de modélisation cinétique. De plus, un autre avantage de la prise en compte de l'information temporelle dans les acquisitions TEP pour les examens en oncologie thoracique concerne le suivi des mouvements respiratoires. Ces acquisitions permettent de mettre en place des protocoles et des méthodologies visant à corriger leurs effets néfastes à la quantification, et les artefacts associés. L'objectif de ce projet est de développer une méthode de reconstruction permettant de combiner et mettre en oeuvre d'une part les corrections nécessaires à la quantification des données en TEP, et d'autre part la modélisation de la biodistribution du radiotraceur au cours du temps permettant d'obtenir des images paramétriques pour l'oncologie thoracique. Dans un premier temps, une méthodologie de correction des effets de volume partiel intégrant, dans le processus de reconstruction, une déconvolution de Lucy-Richardson associée à un débruitage dans le domaine des ondelettes, a été proposée. Une seconde étude a été consacrée au développement d'une méthodologie combinant une régularisation temporelle des données par l'intermédiaire d'un ensemble de fonctions de base temporelles, avec une méthode de correction des mouvements respiratoires basée sur un modèle élastique. Enfin, dans une troisième étape, le modèle cinétique de Patlak a été intégré dans un algorithme de reconstruction dynamique, et associé à la correction de mouvement afin de permettre la reconstruction directe d'images paramétriques de données thoraciques soumises au mouvement respiratoire. Les paramètres de transformation élastique pour la correction de mouvement ont été calculés à partir des images TEP d'intervalles synchronisés par rapport à l'amplitude de la respiration du patient. Des simulations Monte-Carlo d'un fantôme 4D géométrique avec plusieurs niveaux de statistiques, et du fantôme anthropomorphique NCAT intégrant des courbes d'activités temporelles réalistes pour les différents tissus, ont été réalisées afin de comparer les performances de la méthode de reconstruction paramétrique développée dans ce travail avec une approche 3D standard d'analyse cinétique. L'algorithme proposé a ensuite été testé sur des données cliniques de patients présentant un cancer bronchique non à petites cellules. Enfin, après la validation indépendante de l'algorithme de correction des effets de volume partiel d'une part, et de la reconstruction 4D incorporant la régularisation temporelle d'autre part, sur données simulées et cliniques, ces deux méthodologies ont été associées afin d'optimiser l'estimation de la fonction d'entrée à partir d'une région sanguine des images reconstruites. Les résultats de ce travail démontrent que l'approche de reconstruction paramétrique proposée permet de conserver un niveau de bruit stable dans les régions tumorales lorsque la statistique d'acquisition diminue, contrairement à l'approche d'estimation 3D pour laquelle le niveau de bruit constaté augmente. Ce résultat est intéressant dans l'optique d'une réduction de la durée des intervalles de la reconstruction 4D, permettant ainsi de réduire la durée totale de l'acquisition 4D. De plus, l'utilisation des fonctions d'entrée estimées avec les méthodes de régularisation temporelle proposées ont conduit à améliorer l'estimation des paramètres de Patlak. Enfin, la correction élastique du mouvement amène à une diminution du biais d'estimation des deux paramètres de Patlak, en particulier sur les tumeurs de petites dimensions situées dans des régions sensibles au mouvement respiratoire. / Positron emission tomography (PET) is now considered as the gold standard and the main tool for the diagnosis and therapeutic monitoring of oncology patients, especially due to its quantitative aspects. With the advent of multimodal imaging in combined PET and X-ray CT systems, many methodological developments have been proposed in both pre-processing and data acquisition, image reconstruction, as well as post-processing in order to improve the quantification in PET imaging. Another important aspect of PET imaging is its high temporal resolution and ability to perform dynamic acquisitions, benefiting from the high sensitivity achieved with current systems. PET imaging allows measuring and visualizing changes in the biological distribution of radiopharmaceuticals within the organ of interest over time. This time tracking provides valuable information to physicians on underlying metabolic and physiological processes, which can be extracted using pharmacokinetic modeling. The objective of this project is, by taking advantage of dynamic data in PET/CT imaging, to develop a reconstruction method combining in a single process all the correction methodology required to accurately quantify PET data and, at the same time, include a pharmacokinetic model within the reconstruction in order to create parametric images for applications in oncology. In a first step, a partial volume effect correction methodology integrating, within the reconstruction process, the Lucy-Richardson deconvolution algorithm associated with a wavelet-based denoising method has been introduced. A second study focused on the development of a 4D reconstruction methodology performing temporal regularization of the dataset through a set of temporal basis functions, associated with a respiratory motion correction method based on an elastic deformation model. Finally, in a third step, the Patlak kinetic model has been integrated in a dynamic image reconstruction algorithm and associated with the respiratory motion correction methodology in order to allow the direct reconstruction of parametric images from dynamic thoracic datasets affected by the respiratory motion. The elastic transformation parameters derived for the motion correction have been estimated from respiratory-gated PET images according to the amplitude of the patient respiratory cycle. Monte-carlo simulations of two phantoms, a 4D geometrical phantom, and the anthropomorphic NCAT phantom integrating realistic time activity curves for the different tissues, have been performed in order to compare the performances of the proposed 4D parametric reconstruction algorithm with a standard 3D kinetic analysis approach. The proposed algorithm has then been assessed on clinical datasets of several patients with non small cell lung carcinoma. Finally, following the prior validation of the partial volume effect correction algorithm on one hand, and the 4D reconstruction incorporating the temporal regularization on the other hand, on simulated and clinical datasets, these two methodologies have been associated within the 4D reconstruction algorithm in order to optimize the estimation of image derived input functions. The results of this work show that the proposed direct parametric approach allows to maintain a similar noise level in the tumor regions when the statistic decreases, contrary to the 3D estimation approach for which the observed noise level increases. This result suggests interesting perspectives for the reduction of frame duration reduction of 4D reconstruction, allowing a reduction of the total 4D acquisition duration. In addition, the use of input function estimated with the developed temporal regularization methods led to the improvement of the Patlak parameters estimation. Finally, the elastic respiratory motion correction led to a diminution of the estimation bias of both Patlak parameters, in particular for small lesions located in regions affected by the respiratory motion.
25

Quantifying impaired metabolism following acute ischaemic stroke using chemical exchange saturation transfer magnetic resonance imaging

Msayib, Yunus January 2017 (has links)
In ischaemic stroke a disruption of cerebral blood flow leads to impaired metabolism and the formation of an ischaemic penumbra in which tissue at risk of infarction is sought for clinical intervention. In stroke trials, therapeutic intervention has largely been based on perfusion-weighted measures, but these have not been shown to be good predictors of tissue outcome. The aim of this thesis was to develop analysis techniques for magnetic resonance imaging (MRI) of chemical exchange saturation transfer (CEST) in order to quantify metabolic signals associated with tissue fate in patients with acute ischaemic stroke. This included addressing robustness for clinical application, and developing quantitative tools that allow exploration of the in-vivo complexity. Tissue-level analyses were performed on a dataset of 12 patients who had been admitted to the John Radcliffe Hospital in Oxford with acute ischaemic stroke and recruited into a clinical imaging study. Further characterisation of signals was performed on stroke models and tissue phantoms. A comparative study of CEST analysis techniques established a model-based approach, Bloch-McConnell model analysis, as the most robust for measuring pH-weighted signals in a clinical setting. Repeatability was improved by isolating non-CEST effects which attenuate signals of interest. The Bloch-McConnell model was developed further to explore whether more biologically-precise quantification of CEST effects was both possible and necessary. The additional model complexity, whilst more reflective of tissue biology, diminished contrast that distinguishes tissue fate, implying the biology is more complex than pH alone. The same model complexity could be used reveal signal patterns associated with tissue outcome that were otherwise obscured by competing CEST processes when observed through simpler models. Improved quantification techniques were demonstrated which were sufficiently robust to be used on clinical data, but also provided insight into the different biological processes at work in ischaemic tissue in the early stages of the disease. The complex array of competing processes in pathological tissue has underscored a need for analysis tools adequate for investigating these effects in the context of human imaging. The trends herein identified at the tissue level support the use of quantitative CEST MRI analysis as a clinical metabolic imaging tool in the investigation of ischaemic stroke.
26

Inversion des formes d'ondes électromagnétiques en 2D pour le géoradar : vers une imagerie multi-paramètre à partir des données de surface / 2D Full waveform inversion of ground penetrating radar data : towards multiparameter imaging from surface data

Lavoué, François 09 July 2014 (has links)
Les premiers mètres à centaines de mètres de la proche surface terrestre sont le siège de processus naturels dont la compréhension requiert une caractérisation fine de la subsurface, via une estimation quantifiée de ses paramètres. Le géoradar est un outil de prospection indirecte à même d'ausculter les milieux naturels et d'en estimer les propriétés électriques (permittivité et conductivité). Basé sur la propagation d'ondes électromagnétiques à des fréquences allant du MHz à quelques GHz, le géoradar est utilisé à des échelles et pour des applications variées concernant la géologie, l'hydrologie ou le génie civil. Dans ce travail de thèse, je propose une méthode d'imagerie quantitative des propriétés électriques sur des sections 2D de la subsurface, à partir de données radar acquises à la surface du sol. La technique mise en oeuvre est l'inversion des formes d'ondes, qui utilise l'intégralité du champ d'ondes enregistré.Dans une première partie, je présente les principes physiques et l'outil de modélisation numérique utilisés pour simuler la propagation des ondes électromagnétiques dans les milieux hétérogènes à deux dimensions. Pour cela, un algorithme de différences finies en domaine fréquentiel développé dans le cadre des ondes visco-acoustiques est adapté au problème électromagnétique 2D grâce à une analogie mathématique.Dans une deuxième partie, le problème d'imagerie est formulé sous la forme d'une optimisation multi-paramètre puis résolu avec l'algorithme de quasi-Newton L-BFGS. Cet algorithme permet d'estimer l'effet de la matrice Hessienne, dont le rôle est crucial pour la reconstruction de paramètres de différents types comme la permittivité et la conductivité. Des tests numériques montrent toutefois que l'algorithme reste sensible aux échelles utilisées pour définir ces paramètres. Dans un exemple synthétique représentatif de la proche surface, il est cependant possible d'obtenir des cartes 2D de permittivité et de conductivité à partir de données de surface, en faisant intervenir des facteurs d'échelle et de régularisation visant à contraindre les paramètres auxquelles l'inversion est la moins sensible. Ces facteurs peuvent être déterminés en analysant la qualité de l'ajustement aux données, sans hypothèse a priori autre que la contrainte de lissage introduite par la régularisation.Dans une dernière partie, la méthode d'imagerie est confrontée à deux jeux de données réelles. Dans un premier temps, l'examen de données expérimentales permet de tester la précision des simulations numériques vis-à-vis de mesures effectuées en environnement contrôlé. La connaissance des cibles à imager permet en outre de valider la méthodologie proposée pour l'imagerie multiparamètre dans des conditions très favorables puisqu'il est possible de calibrer le signal source et de considérer l'espace libre environnant les cibles comme modèle initial pour l'inversion.Dans un deuxième temps, j'envisage le traitement d'un jeu de données radar multi-offsets acquises au sein d'un massif calcaire. L'interprétation de ces données est rendue beaucoup plus difficile par la complexité du milieu géologique environnant, ainsi que par la méconnaissance des caractéristiques précises des antennes utilisées. L'application de la méthode d'inversion des formes d'ondes à ces données requiert donc une étape préliminaire impliquant une analyse de vitesse plus classique, basée sur les arrivées directes et réfléchies, et des simulations numériques dans des modèles hypothétiques à même d'expliquer une partie des données. L'estimation du signal source est effectuée à partir d'arrivées sélectionnées, simultanément avec des valeurs moyennes de conductivité et de hauteur d'antennes de façon à reproduire au mieux les amplitudes observées. Un premier essai d'inversion montre que l'algorithme est capable d'expliquer les données dans la gamme de fréquences considérée et de reconstruire une ébauche des principaux réflecteurs. / The quantitative characterization of the shallow subsurface of the Earth is a critical issue for many environmental and societal challenges. Ground penetrating radar (GPR) is a geophysical method based on the propagation of electromagnetic waves for the prospection of the near subsurface. With central frequencies between 10~MHz and a few GHz, GPR covers a wide range of applications in geology, hydrology and civil engineering. GPR data are sensitive to variations in the electrical properties of the medium which can be related, for instance, to its water content and bring valuable information on hydrological processes. In this work, I develop a quantitative imaging method for the reconstruction of 2D distributions of permittivity and conductivity from GPR data acquired from the ground surface. The method makes use of the full waveform inversion technique (FWI), originating from seismic exploration, which exploits the entire recorded radargrams and has been proved successful in crosshole GPR applications.In a first time, I present the numerical forward modelling used to simulate the propagation of electromagnetic waves in 2D heterogeneous media and generate the synthetic GPR data that are compared to the recorded radargrams in the inversion process. A frequency-domain finite-difference algorithm originally developed in the visco-acoustic approximation is adapted to the electromagnetic problem in 2D via an acoustic-electromagnetic mathematical analogy.In a second time, the inversion scheme is formulated as a fully multiparameter optimization problem which is solved with the quasi-Newton L-BFGS algorithm. In this formulation, the effect of an approximate inverse Hessian is expected to mitigate the trade-off between the impact of permittivity and conductivity on the data. However, numerical tests on a synthetic benchmark of the literature display a large sensitivity of the method with respect to parameter scaling, showing the limits of the L-BFGS approximation. On a realistic subsurface benchmark with surface-to-surface configuration, it has been shown possible to ally parameter scaling and regularization to reconstruct 2D images of permittivity and conductivity without a priori assumptions.Finally, the imaging method is confronted to two real data sets. The consideration of laboratory-controlled data validates the proposed workflow for multiparameter imaging, as well as the accuracy of the numerical forward solutions. The application to on-ground GPR data acquired in a limestone massif is more challenging and necessitates a thorough investigation involving classical processing techniques and forward simulations. Starting permittivity models are derived from the velocity analysis of the direct arrivals and of the reflected events. The estimation of the source signature is performed together with an evaluation of an average conductivity value and of the unknown antenna height. In spite of this procedure, synthetic data do not reproduce the observed amplitudes, suggesting an effect of the radiation pattern of the shielded antennae. In preliminary tests, the inversion succeeds in fitting the data in the considered frequency range and can reconstruct reflectors from a smooth starting model.
27

Plateforme numérique de tomodensitométrie et ses applications en radiothérapie

Delisle, Étienne 04 1900 (has links)
Les quantités physiques des tissus imagés par tomodensitométrie peuvent être calculées à l’aide d’algorithmes de caractérisation de tissus. Le développement de nouvelles technologies d’imagerie par tomodensitométrie spectrale a stimulé le domaine de la caractérisation de tissus à un point tel qu’il est maintenant difficile de comparer les performances des multiples algorithmes de caractérisation de tissus publiés dans les dernières années. De même, la difficulté à comparer les performances des algorithmes de caractérisation de tissus rend leur utilisation dans des projets de recherche clinique difficile. Ce projet a comme but de créer un environnement de simulation robuste et fidèle à la réalité dans lequel des techniques de caractérisation de tissus pourront être développées et comparées. De plus, la librairie de calcul servira comme tremplin pour facilement appliquer des méthodes de caractérisation de tissus dans des collaborations cliniques. En particulier, une des méthodes de caractérisation de tissus incluse dans la librairie de calcul sera appliquée sur des données cliniques pour produire des cartes de concentration d’iode dans le cadre d’un projet de recherche sur la récurrence de cancers otorhinolaryngologiques. De surcroît, deux autres techniques de caractérisation de tissus et un algorithme de correction d’artefacts de durcissement de faisceau seront implémentés dans la librairie de calcul scientifique. Conjointement, un module pour la simulation de patients virtuels sera dévelopé et intégré à la librairie de calcul. / The physical quantities of tissues imaged by computed tomography can be calculated using tissue characterization algorithms. The development of new spectral computed tomography scanners stimulated the field of tissue characterization to such an extent that it is now difficult to compare the performances of the multiple tissue characterization algorithms available in the literature. In addition, the difficulty in comparing the tissue characterization algorithms’ performances makes it difficult to include them in clinical research projects. The goal of this project is to create a robust and physically accurate simulation environment in which tissue characterization algorithms can be developed and compared. Furthermore, the scientific computing library will serve as a springboard to easily apply tissue characterization methods in clinical collaborations. In particular, one of the tissue characterization methods included in the scientific computing library will be applied on clinical data to produce iodine concentration maps for a clinical research project on head and neck cancer recurrence. Moreover, two additional tissue characterization algorithms and a technique for the correction of beam hardening artefacts will be implemented in the scientific computing library. Coincidentally, the virtual patient simulation environment will be developed.
28

Quantitative Imaging in Scanning Electron Microscope / Quantitative Imaging in Scanning Electron Microscope

Skoupý, Radim January 2020 (has links)
Tato práce se zabývá možnostmi kvantitativního zobrazování ve skenovacím (transmisním) elektronovém mikroskopu (S|T|EM) společně s jejich korelativní aplikací. Práce začíná popisem metody kvantitativního STEM (qSTEM), kde lze stanovenou lokální tloušťku vzorku dát do spojitosti s ozářenou dávkou, a vytvořit tak studii úbytku hmoty. Tato metoda byla použita při studiu ultratenkých řezů zalévací epoxidové pryskyřice za různých podmínek (stáří, teplota, kontrastování, čištění pomocí plazmy, pokrytí uhlíkem, proud ve svazku). V rámci této části jsou diskutovány a demonstrovány možnosti kalibračního procesu detektoru, nezbytné pozadí Monte Carlo simulací elektronového rozptylu a dosažitelná přesnost metody. Metoda je pak rozšířena pro použití detektoru zpětně odražených elektronů (BSE), kde byla postulována, vyvinuta a testována nová kalibrační technika založená na odrazu primárního svazku na elektronovém zrcadle. Testovací vzorky byly různě tenké vrstvy v tloušťkách mezi 1 až 25 nm. Použití detektoru BSE přináší možnost měřit tloušťku nejen elektronově průhledných vzorků jako v případě qSTEM, ale také tenkých vrstev na substrátech - qBSE. Obě výše uvedené metody (qSTEM a qBSE) jsou založeny na intenzitě zaznamenaného obrazu, a to přináší komplikaci, protože vyžadují správnou kalibraci detektoru, kde jen malý posun úrovně základního signálu způsobí významnou změnu výsledků. Tato nedostatečnost byla překonána v případě qSTEM použitím nejpravděpodobnějšího úhlu rozptylu (zachyceného pixelovaným STEM detektorem), namísto integrální intenzity obrazu zachycené prstencovým segmentem detektoru STEM. Výhodou této metody je její použitelnost i na data, která nebyla předem zamýšlena pro využití qSTEM, protože pro aplikaci metody nejsou potřeba žádné zvláštní předchozí kroky. Nevýhodou je omezený rozsah detekovatelných tlouštěk vzorku způsobený absencí píku v závislosti signálu na úhlu rozptylu. Obecně platí, že oblast s malou tloušťkou je neměřitelná stejně tak jako tloušťka příliš silná (použitelný rozsah je pro latex 185 - 1 000 nm; rozsah je daný geometrií detekce a velikostí pixelů). Navíc jsou v práci prezentovány korelativní aplikace konvenčních a komerčně dostupných kvantitativních technik katodoluminiscence (CL) a rentgenové energiově disperzní spektroskopie (EDX) spolu s vysokorozlišovacími obrazy vytvořenými pomocí sekundárních a prošlých elektronů.

Page generated in 0.1177 seconds