• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 522
  • 311
  • 129
  • 76
  • 51
  • 7
  • Tagged with
  • 1080
  • 469
  • 253
  • 194
  • 170
  • 149
  • 131
  • 125
  • 119
  • 116
  • 97
  • 90
  • 89
  • 86
  • 85
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
441

L'utilisation du recalage déformable d'images CT sur CBCT dans le but de générer des contours du jour et d'améliorer le cumul de dose avec image du jour

Fillion, Olivier 24 April 2018 (has links)
Ce projet de maitrise concerne l'utilisation du recalage déformable pour la déformation des contours et la déformation des distributions de dose. Son but est d'étudier la possibilité de générer automatiquement des contours du jour par recalage déformable et de proposer une nouvelle méthode pour cumuler les doses sur l'ensemble d'un traitement de radiothérapie. La méthode consiste à recaler l'image CT, qui permet de faire des calculs de dose, sur l'image CBCT, qui montre l'anatomie du jour, dans le but d'améliorer les suivis de patients. Pour évaluer la possibilité d'utiliser cette méthode, le projet est divisé en trois parties, centrées autour de cas de cancer de la prostate. Premièrement, on caractérise les recalages déformables provenant du logiciel Elastix en utilisant les images d'un fantôme anthropomorphique. Les calculs de dose sur ces images montrent que la méthode permettrait de calculer précisément des doses sur image du jour. Deuxièmement, on quantifie la précision de la déformation de contours avec le logiciel OnQ rts. La précision est évaluée en comparant les contours recalés aux contours tracés manuellement à l'aide de métriques de similarité. Cette étude montre que les contours produits par recalage déformable doivent être corrigés par la suite pour améliorer leur précision. De plus, la combinaison de l'indice d'inclusivité et des contours comme la prostate et le contour externe du corps permettent d'évaluer avec le plus de précision les déformations anatomiques. Troisièmement, on démontre la faisabilité de déformer les doses du jour de manière à les cumuler à l'aide du logiciel Elastix. Le principal défi pour bien déterminer les écarts de dose en clinique serait de bien caractériser la précision des recalages des organes à risque, puisqu'ils sont situés près des régions de haut gradient de dose. Dans le futur, cette technique pourrait être utilisée si la qualité des recalages est bien contrôlée.
442

On particle imaging with application to particle radiotherapy

Collins Fekete, Charles-Antoine 24 April 2018 (has links)
Le but de cette thèse est de développer les techniques et les connaissances en imagerie par particules chargées pour l’application en radiothérapie par hadrons. Dans un premier temps, les techniques d’estimation de parcours sont étudiées de façon phénoménologique et subséquemment retrouvée depuis une approache physique théorique, pour chaque ion depuis le proton jusqu’au carbone. Les techniques prenant en compte la connaissance préalable du milieu ont aussi été étudiées pour obtenir l’estimé de parcours le plus précis pour toute particule chargée. À l’aide de cet estimé de parcours précis et rapide, nous nous sommes par la suite penchés sur le problème de la reconstruction tomographique par particules chargées. La première étape de ce processus était l’inclusion de l’algorithme d’estimation de parcours développé précédemment dans les techniques conventionnelles de reconstruction itérative tomographique, telle que la reconstruction algébrique itérative, par particules chargées. Nous nous sommes rapidement aperçus de la lenteur du processus de reconstruction itérative et des problèmes de convergence reliés à ce type d’optimisation. Face à ces difficultés, nous avons décidé de développer notre propre algorithme de reconstruction tomographique dont la principale différence est l’optimisation individuelle des projections radiographiques. L’idée principale de notre algorithme est de diviser l’objet de la reconstruction en voxels et de retrouver le pouvoir d’arrêt d’une colonne de voxels de façon à ce qu’il maximise la probabilité de l’énergie perdue des protons qui la traversent. Le parcours des protons dans chaque colonne de voxels est calculé par l’algorithme de prédiction de parcours développé au début de la thèse. De cette façon, nous optimisons la résolution spatiale des radiographies individuellement. Les nouvelles radiographies peuvent par la suite être utilisées comme données d’entrée dans un algorithme conventionnel de reconstruction tomographique. La reconstruction tomographique nécessite un grand nombre de projections et celles-ci peuvent être longues à acquérir, ce qui est problématique dans un contexte clinique où le temps de faisceau est précieux et limité. Il existe donc une exigence d’efficacité et d’optimisation de la procédure. Dans cette optique, la prochaine partie de cette thèse s’est concentrée sur l’utilisation d’un ensemble limité de radiographies pour retrouver les paramètres de pouvoir d’arrêt dans les tissus, et ce de façon spécifique à un patient. La rationnelle de ce projet est que les radiographies peuvent être acquises rapidement, directement avant le traitement. Nous avons étudié la possibilité de combiner cet ensemble limité de radiographies avec l’image tomodensitométrique à simple énergie acquise lors du diagnostic. Une méthode permettant d’effectuer ce processus à été développée et évaluée sur différents fantômes anthropomorphiques représentant différentes sections du corps humain. Il a été prouvé qu’avec un nombre limité de radiographies, acquérable rapidement avant le traitement, il est possible de retrouver le pouvoir d’arrêt massique dans les tissus spécifiques à un patient avec une grande précision (< 1% d’erreur par rapport à la référence). Pour terminer la thèse, nous avons procédé à l’application expérimentale des différents algorithmes développés théoriquement. En collaboration avec le DKFZ (Deutsches Krebsforschungszentrum, Heidelberg, Allemagne), le HIT (Heavy Ion Therapy facility, Heidelberg, Allemagne) et la collaboration proton-CT (Loma Linda University, University of California San Francisco, University of California Santa Cruz, University Baylor, États-Unis) nous avons mis en place une expérience de tomographie par particules d’hélium. Nous avons pu utiliser le synchrotron du HIT en combinaison avec le détecteur proton-CT développé par la collaboration éponyme pour produire et détecter à la fois en entrée et en sortie un faisceau de particules chargées traversant un médium pré-déterminé. Cette étude nous a permis d’évaluer le bruit et la précision atteignable en imagerie tomographique par particules chargées. / The goal of this thesis is to develop methodology and knowledge in charged particle imaging for application in hadron radiotherapy. First, the various existing algorithm to estimate the path of a charged particle crossing a medium have been studied as a function of their efficiency and accuracy. To find an optimal solution for those two constraints, a phenomenological model has been developed that predict the most likely particle path in a medium. It was subsequently grounded in a solid physical background and extended to every ion up to carbon. Furthermore, prior-knowledge techniques were introduced to obtain the highest accuracy in the path estimate prediction for any ions. With these techniques in hand, we then approached the problem of tomographic reconstruction of charged particle radiographies. The first step of the work was to introduce the aforementioned path estimate method into a conventional charged particle reconstruction algorithm such as the algebraic reconstruction technique. This process requires a large calculation time that prevents an efficient reconstruction in a clinical work-flow, and suffer from convergence problems that leave the images with a high-noise level. Thus, it was decided to develop our own tomographic reconstruction algorithm in which the main difference resided in the optimization of individual projections. In our algorithm, the object was discretized into voxels and the average relative stopping power through voxel columns defined from the source to the detector pixels is optimized such that it maximizes the likelihood of the proton energy loss. The length spent by individual protons in each column is calculated through the path estimate. In this way, the spatial resolution of individual radiographies is optimized. The new radiographies can then be fed into a conventional X-ray tomographic algorithm, such as FDK, for a high resolution pCT reconstruction. The tomographic reconstruction requires a large number of projections and each can be individually long to acquire. This might cause problem into a clinical context where the beam time is costly and limited. There is a demand for efficiency in the procedure, which requires optimization of the algorithms. In this context, the next part of the thesis consisted on developing a method to utilize a subset of proton radiographies to retrieve stopping power parameters specific to the patient. This was done because a fewer number of radiographies can be acquired rapidly prior to the treatment. We studied the possibility of combining those subset of proton radiographies (usually either a single radiography or a pair) with single-energy X-ray tomographic images acquired prior for diagnostic. A new algorithm was develop to combine these two types of images and evaluated against various anthropomorphic phantoms that represents three body sites, the lung, the pelvis and the head. It has been shown that with a limited number of radiographies, it is possible to retrieve stopping power specific to the patient with an RMS error to the ground truth below 1%. The last part of the work was the experimental validation of the various algorithms developed. In collaboration with the (Deutsches Krebsforschungszentrum, Heidelberg), the HIT (Heavy Ion Therapy facility, Heidelberg) and the pCT collaboration (Loma Linda University, University of California San Francisco, University of California Santa Cruz, University Baylor), we designed an experiment to acquire charged particle tomographic images. To do so, we used the HIT’s synchrotron to produce a collimated beam of charged particle combined with the pCT detector to detect the particle before and after having crossed a pre-determined medium. This study allowed us to evaluate the noise, the spatial resolution and the precision achievable with charged particle imaging tomography.
443

Thérapie radionucléidique personnalisée des tumeurs neuroendocrines et du cancer de la prostate

Desy, Alessandro 03 June 2024 (has links)
Les thérapies radionucléidiques utilisant du $^{177}$Lu sont utilisées pour traiter les patients atteints de tumeurs neuroendocrines dans le cadre de la thérapie radionucléidique par radiopeptides, *peptide receptor radionuclide therapy* (PRRT), et de la thérapie radiopharmaceutique pour le cancer de la prostate, *radioligand therapy* (RLT). La PRRT empirique consiste à injecter 4 cycles de $^{177}$Lu-octreotate de 7.4 GBq afin de limiter la dose absorbée dans les reins sous 23 Gy. Cette méthodologie étant généralement sous-optimisée, une PRRT personnalisée a été proposée. Sur bases d'images acquises en tomographies par émission mono-photonique (TEMs) quantifiées, *quantitative single photon emission computed tomography* (QSPECT), après chaque injection, la dose absorbée par activité injectée est calculée dans les reins. En fonction de celle-ci, l'activité injectée au cycle suivant est personnalisée afin d'atteindre 23 Gy aux reins au bout des quatre injections. La quantification des images nécessite qu'un facteur de calibration soit établi pour le système TEM et qu'une correction du temps mort soit apportée. En raison du nombre important de photons pouvant atteindre la caméra, cet effet indésirable diminue le nombre de photons observés par rapport au nombre réel. Pour le corriger, la constante de temps mort de la caméra a été déterminée et utilisée pour en corriger les images. Néanmoins, l'impact du temps mort sur les images PRRT est encore peu connu et sa correction actuelle ne permet pas de corriger les images ayant un très haut débit de photons. Les premiers objectifs de ce travail consistent à valider la méthode de quantification actuelle et proposer une méthode permettant de quantifier les images tomographies par émission mono-photonique (TEMs) des patients à plus haut débit de photons. Concernant l'efficacité du traitement, une corrélation a été observée entre la réponse précoce et l'effet tardif du traitement mais sa haute variabilité ne permet actuellement pas de l'appliquer de manière prédictive. Pour le deuxième objectif, il s'agit de proposer une méthode semi-automatique capable de segmenter un contour réaliste du fardeau tumoral des patients et qui puisse permettre d'évaluer la réponse tumorale durant la PRRT. L'impact de la correction du temps mort sur le calcul de la dose absorbée aux reins a été évalué sur 166 patients. Des acquisitions de fantômes personnalisés ont été effectuées avec du $^{99m}$Tc et du $^{177}$Lu afin d'évaluer la réponse des caméras à haut débit de photons pour différents paramètres d'acquisition et pour différents modèles. La méthode actuelle de correction de temps mort a été évaluée sur ces acquisitions et pour les QSPECTs de patients. Elle a été comparée à une méthode plus juste physiquement mais plus difficilement applicable en routine clinique. Il a été possible de montrer que la correction du temps mort est nécessaire dans un régime personnalisé pour limiter la sous-estimation de dose absorbée aux reins, parfois supérieure à 20%. En outre, le nombre de photons corrigé avec la méthode actuelle ne diverge pas de plus 2% par rapport à la méthode de référence. Nos résultats sur les fantômes ont montré que la constante de temps mort est non seulement indépendante du radio-isotope utilisé mais qu'elle peut également varier selon les paramètres d'acquisition et des manufacturiers. Ainsi, il nous est possible en modifiant un paramètre d'acquisition de doubler le débit de photons quantifiables pendant une acquisition. 24 méthodes de segmentations ont été appliquées sur 100 QSPECTs provenant des deux premiers cycles PRRT de 50 patients. Pour chaque image, un expert a choisi, et éventuellement modifié, le contour qu'il jugeait le plus réaliste pour ainsi obtenir le contour de référence. Les algorithmes y ont été comparés en termes de Dice, de sensibilité et d'évolution de fraction tumorale. Une méthode de segmentation, le *watershed transform* (WT), a pu être isolée en raison de ses résultats supérieurs aux autres méthodes. Les contours de référence ont été créés 43 fois sur 100 avec ce WT comme segmentation initiale, ce qui peut expliquer sa performance. Néanmoins, il s'agissait aussi de la méthode permettant de segmenter plus de 90% des lésions (y compris celles de faible intensité) et dont la catégorisation de la réponse tumorale était en accord avec celle de l'expert dans 92% des cas. La nécessité de corriger pour le temps mort et la méthodologie employée ont été validées pour un régime personnalisé de PRRT. Pour les patients ayant une rétention très importante du $^{177}$Lu au moment de l'imagerie, une solution a été apportée pour rendre leurs images quantifiables. Celle-ci dépend néanmoins du système SPECT utilisé. Bien que l'effet de temps mort soit généralement considéré comme négligeable dans le calcul de dosimétrie, l'augmentation probable de thérapies personnalisées verra les activités injectées aux patients augmenter et avec elles, le besoin de corriger les images pour les rendre quantifiables. La segmentation proposée se veut robuste et relativement indépendante de l'utilisateur. Les réponses précoces et tardives au traitement seront évaluées en utilisant cette méthode de sorte à affiner la corrélation déjà existante. Les résultats obtenus dans ce travail permettent d'améliorer la quantification et la segmentation des images acquises avec du $^{177}$Lu. Ceci servira à améliorer la personnalisation des thérapies PRRT et RLT afin d'augmenter l'espérance de vie des patients. / $^{177}$Lu-based radionuclide therapies are commonly used to treat patients afflicted with neuroendocrine tumours, *peptide receptor radionuclide therapy* (PRRT), or by prostate cancer, *radioligand therapy* (RLT). Empiric PRRT relies on four 7.4 GBq $^{177}$Lu-octreotate cycles to limit the kidneys absorbed dose to 23 Gy. Due to the inter-patient variability, a personalised PRRT approach was created to optimise the amount of injected activity based on the renal dosimetry. This is achieved by performing *quantitative single photon emission computed tomography* (QSPECT) imaging after each injection. The kidneys absorbed dose per injected activity is measured and used to personalise the amount of injected activity during the next cycle in order to reach 23 Gy by the end of the treatment. This requires a calibration of the SPECT system, i.e. determining its calibration factor and dead-time constant. This unwanted artefact reduces the observed photon count rate. The system dead-time constant was determined and is currently used to correct PRRT images. However, the dead-time impact on kidney dosimetry is still unknown. Besides, the current methodology is unable to quantify the images of patients emitting a very high photons count rate during the acquisition. The first objective aims at validating the current quantitative methodology and determining the dead-time correction impact on personalised PRRT dosimetry. A prevention methodology should also be brought to quantifiy the images of patients emitting a high photons count rate. Regarding the treatment response, based on the acquired images, a correlation was found between the early and late tumours response. However, due to its high variability it is currently impossible to use this correlation in therapies. The second objective aims at creating a robust semi-automatic segmentation method able to segment a realistic tumoral burden and properly evaluate its response throughout PRRT cycles. The dead time correction impact was evaluated on the absorbed dose of 166 patients. Images of customised phantoms filled with high activities of either $^{99m}$Tc or $^{177}$Lu were acquired on different SPECT systems and for various acquisition parameters. The current dead time correction method was compared with a physically correct but less convenient method on both phantoms and patients images. Results showed that dead-time correction is necessary in personalised PRRT to avoid kidneys absorbed dose underestimations as high as 20%. Additionally, absorbed doses differences between our current methodology and the reference did not exceed 2%. We observed that the dead-time correction factor is independent from the radionuclide but can vary depending on the acquisitions parameters and the manufacturer. Changing the acquisition protocol allowed to double the amount of quantifiable photons rate. 24 segmentation methods were applied on 100 QSPECTs from 50 patients' first two PRRT cycles. An expert chose for each image the most realistic segmentation and eventually modified it to define the reference contour. Segmentations were compared based on Dice, sensitivity and tumours response. The total lesion fraction evolution from cycle 1 to cycle 2 was categorised and compared to the expert's opinion. The *watershed transform* (WT) appeared to be the method segmenting the most realistic tumoral burden. It was the expert's most chosen segmentation before an eventual modification (43/100) which can explain its performance. It was able to segment up to 90% of tumours (even low intensity ones) and its resulting tumoral response was consistent with the one determined by the expert in more than 92% of cases. Our dead-time correction methodology was validated and we proved that its correction is necessary in a personalised PRRT protocol. We also managed to quantify the SPECT images of patients having an important $^{177}$Lu retention. This solution is, however, dependant on the SPECT system. Dead time is generally considered negligible in current therapies. However, with the likely increase of personalised therapies, patients will receive higher amounts of activities and their following QSPECTs will need to be corrected for this artefact. Our tumour segmentation method is robust and limits the impact of the inter-user variability. Early and late responses will be measured based on this algorithm in order to improve their currently weak correlation and reduce the variability. The obtained results will improve the quantification and segmentation of $^{177}$Lu QSPECTs. These will impact the personalisation of PRRT and RLT and hopefully help to improve patients' outcomes.
444

Imagerie fonctionnelle de la ventilation et de l’inflammation pulmonaires lors d'agression pulmonaire aiguë expérimentale / Functional imaging of pulmonary ventilation and inflammation in an experimental model of lung injury

Pouzot-Névoret, Céline 09 November 2010 (has links)
Le syndrome de détresse respiratoire aiguë (SDRA) est caractérisé par des lésions alvéolairesdiffuses qui résultent d’une lésion de la membrane alvéolo-capillaire entrainant entre autresune réaction inflammatoire intense et une perte massive et hétérogène du volume pulmonaireaéré. La tomographie par émission de positons (TEP) et la tomographie par impédanceélectrique (TIE) sont deux techniques d’imagerie fonctionnelle permettant l’étude noninvasive, quantitative et régionale du poumon.Ce travail présente le résultat d’études expérimentales conduites dans le SDRA. Tout d’abord,nous avons comparé positivement la TIE à la TEP pour la mesure de la ventilation pulmonaireet du volume aéré. Nous avons ensuite décrit et validé une technique robuste d’obtention duvolume aéré et de la ventilation spécifique en TEP sans prélèvement invasif. Enfin, nousavons étudié en TEP l’influence de la pression expiratoire positive (PEP) et du décubitusventral (DV) sur la répartition de la ventilation, de la perfusion et de l’inflammationpulmonaires. Les poumons agressés par l’acide chlorhydrique inhalé ont une inflammationsignificativement plus élevée que le groupe contrôle. Aucune différence significatived’inflammation n’a été trouvée entre les groupes expérimentaux malgré des modificationsimportantes de la répartition de la ventilation et de la perfusion régionales lors de la mise enDV. Ces études donc ont permis le développement d’un modèle porcin stable d’agressionpulmonaire aiguë et la validation de techniques d’imagerie permettant l’étude non invasive deparamètres physiologiques importants pouvant aider au réglage de la ventilation mécanique aucours du SDRA. / Acute respiratory distress syndrome (ARDS) is characterized by diffuse alveolar damage andresulting from an increased permeability of the alveolar-capillary membrane. Of notice, thereis an intense lung inflammation. Positron emission tomography (PET) and electricalimpedance tomography (EIT) allow noninvasive assessment of pulmonary ventilation,perfusion and inflammation. We use these techniques to decipher the impairments ofventilation and inflammation throughout the lungs in an experimental model of acute lunginjury by hydrochloric acid inhalation in pigs.In a first study, we compared EIT to PET in quantifying pulmonary aerated volume andventilation, using PET as a gold standard. We found that lung ventilation and volume wereaccurately measured with EIT over a wide range of lung volume and minute ventilation. Wehave then described and validated a new model to obtain lung aerated volume and ventilationwith PET, without the requirement of gas sampling in the respiratory circuit. Finally, weconducted a controlled study with PET to evaluate the effects of positive end-expiratorypressure and body position on regional lung inflammation, ventilation and perfusion.Inflammation was significantly higher in injured groups than in control. However, there wasno significant change in inflammation across ALI groups despite significant differencebetween ventilation and perfusion repartition.We have developed in this work a stable experimental model of acute lung injury andvalidated noninvasive imaging tools allowing studying of important physiologic parametersthat could help setting up mechanical ventilation.
445

Quantitative material decomposition methods for X-ray spectral CT / Méthodes de décomposition quantitative des matériaux pour la tomographie spectrale aux rayons X

Su, Ting 28 June 2018 (has links)
La tomographie (CT) aux rayons X joue un rôle important dans l'imagerie non invasive depuis son introduction. Au cours des dernières années, de nombreuses avancées technologiques en tomographie par rayons X ont été observées, notamment la CT spectrale, qui utilise un détecteur à comptage de photons (PCD) pour discriminer les photons transmis correspondant à des bandes d'énergie sélectionnées afin d'obtenir une information spectrale. La CT spectrale permet de surmonter de nombreuses limitations des techniques précédentes et ouvre de nombreuses applications nouvelles, parmi lesquelles la décomposition quantitative des matériaux est le sujet le plus étudié. Un certain nombre de méthodes de décomposition des matériaux ont été rapportées et différents systèmes expérimentaux sont en cours de développement pour la CT spectrale. Selon le type de données sur lequel l'étape de décomposition fonctionne, nous avons les méthodes du domaine des projections (décomposition avant reconstruction) et les méthodes du domaine de l'image reconstruite (décomposition après reconstruction). La décomposition couramment utilisée est basée sur le critère des moindres carrés, nommée proj-LS et méthode ima-LS. Cependant, le problème inverse de la décomposition du matériau est généralement mal posé et les mesures du CT spectral aux rayons X souffrent de bruits de comptage de photons de Poisson. Le critère des moindres carrés peut conduire à un surajustement des données de mesure bruitées. Dans le présent travail, nous avons proposé un critère de moindre log-carré pour la méthode du domaine de projection afin de minimiser les erreurs sur le coefficient d'atténuation linéaire: méthode proj-LLS. De plus, pour réduire l'effet du bruit et lisser les images, nous avons proposé d'ajouter un terme de régularisation par patch pour pénaliser la somme des variations au carré dans chaque zone pour les décompositions des deux domaines, nommées proj-PR-LLS et ima -PR-LS méthode. Les performances des différentes méthodes ont été évaluées par des études de simulation avec des fantômes spécifiques pour différentes applications: (1) Application médicale: identification de l'iode et du calcium. Les résultats de la décomposition des méthodes proposées montrent que le calcium et l'iode peuvent être bien séparés et quantifiés par rapport aux tissus mous. (2) Application industrielle: tri des plastiques avec ou sans retardateur de flamme. Les résultats montrent que 3 types de matériaux ABS avec différents retardateurs de flamme peuvent être séparés lorsque l'épaisseur de l'échantillon est favorable. Enfin, nous avons simulé l'imagerie par CT spectrale avec un fantôme de PMMA rempli de solutions de Fe, Ca et K. Différents paramètres d'acquisition, c'est-à-dire le facteur d'exposition et le nombre de bandes d'énergie, ont été simulés pour étudier leur influence sur la performance de décomposition pour la détermination du fer. / X-ray computed tomography (X-ray CT) plays an important part in non-invasive imaging since its introduction. During the past few years, numerous technological advances in X-ray CT have been observed, including spectral CT, which uses photon counting detectors (PCDs) to discriminate transmitted photons corresponding to selected energy bins in order to obtain spectral information with one single acquisition. Spectral CT enables us to overcome many limitations of the conventional CT techniques and opens up many new application possibilities, among which quantitative material decomposition is the hottest topic. A number of material decomposition methods have been reported and different experimental systems are under development for spectral CT. According to the type of data on which the decomposition step operates, we have projection domain method (decomposition before reconstruction) and image domain method (decomposition after reconstruction). The commonly used decomposition is based on least square criterion, named proj-LS and ima-LS method. However, the inverse problem of material decomposition is usually ill-posed and the X-ray spectral CT measurements suffer from Poisson photon counting noise. The standard LS criterion can lead to overfitting to the noisy measurement data. In the present work, we have proposed a least log-squares criterion for projection domain method to minimize the errors on linear attenuation coefficient: proj-LLS method. Furthermore, to reduce the effect of noise and enforce smoothness, we have proposed to add a patchwise regularization term to penalize the sum of the square variations within each patch for both projection domain and image domain decomposition, named proj-PR-LLS and ima-PR-LS method. The performances of the different methods were evaluated by spectral CT simulation studies with specific phantoms for different applications: (1) Medical application: iodine and calcium identification. The decomposition results of the proposed methods show that calcium and iodine can be well separated and quantified from soft tissues. (2) Industrial application: ABS-flame retardants (FR) plastic sorting. Results show that 3 kinds of ABS materials with different flame retardants can be separated when the sample thickness is favorable. Meanwhile, we simulated spectral CT imaging with a PMMA phantom filled with Fe, Ca and K solutions. Different acquisition parameters, i.e. exposure factor and number of energy bins were simulated to investigate their influence on the performance of the proposed methods for iron determination.
446

Représentation par maillage adapté pour la reconstruction 3D en tomographie par rayons X / Adapted mesh representation for 3D computed tomography reconstruction

Cazasnoves, Anthony 08 December 2015 (has links)
La tomographie 3D par rayons X, utilisée tant pour le diagnostic médical que pour le contrôle non-destructif industriel, permet de reconstruire un objet en 3D à partir d’un ensemble de ses projections 2D. Le volume de reconstruction est usuellement discrétisé sur une grille régulière de voxels isotropes ce qui implique une augmentation de leur nombre pour atteindre une bonne résolution spatiale. Une telle représentation peut donc engendrer des coûts calculatoires et un volume mémoire de stockage particulièrement conséquents. Ce manuscrit présente une méthode permettant de discrétiser l’espace 3D de reconstruction de façon pertinente directement à partir de l’information structurelle contenue dans les données de projection. L’idée est d’obtenir une représentation adaptée à l’objet étudié. Ainsi, en lieu et place d’une grille voxélisée, on a recourt ici à un maillage tétraédrique épousant la structure de l’objet : la densité de mailles s’adapte en fonction des interfaces et des régions homogènes. Pour batir un tel maillage, la première étape de la méthode consiste à détecter les bords dans les données de projections 2D. Afin d’assurer une segmentation efficace et de bonne qualité, nous proposons d’exploiter le formalisme des tests statistiques pour paramétrer de façon optimale, automatique et rapide le filtre de Canny. L’information structurelle ainsi obtenue est ensuite fusionnée dans l’espace de reconstruction afin de construire un nuage de points échantillonnant les interfaces 3D de l’objet imagé. Pour ce faire, on procède à une rétroprojection directe des images de bords 2D pour obtenir une cartographie brute des interfaces 3D recherchées. Au moyen d’un filtrage automatisé par méthode statistique, on sélectionne les points les plus représentatifs, délimitant les interfaces avec précision. Le maillage adapté est finalement obtenu par tétraédrisation de Delaunay contrainte par ce nuage de points. Une reconstruction tomographique peut alors être réalisée sur une telle représentation en utilisant des schémas itératifs usuels pour lesquels les modèles de projecteur/rétroprojecteur sont adaptés. Nos expérimentations montrent qu’à partir d’un nombre restreint de projections sur 360° – i.e. 30 – notre méthode permet d’obtenir un nuage de points en très bonne adéquation avec les interfaces de l’objet étudié. La compression obtenue tant en termes de nombre d’inconnues à estimer qu’en espace mémoire nécessaire pour le stockage des volumes reconstruits est importante - jusqu’à 90% - attestant ainsi de l’intérêt de cette discrétisation. Les reconstructions obtenues sont prometteuses et les maillages générés de qualité suffisante pour envisager leur utilisation dans des applications de simulations – éléments finis ou autres. / 3D X-Ray computed tomography reconstruction is a method commonly used, nowadays, in both medical and non destructive testing fields to reconstruct a 3D object from a set of its 2D projections. The reconstruction space usually is sampled on a regular grid of isotropic voxels, thus inducing an increase in the number of cells used in order to get a satisfactory spatial resolution. This representation hence have a direct impact on the growth in computational cost of each reconstruction iteration and imposes the storage of volumes of considerable memory storage footprints. This dissertation introduces an approach to build an adapted sampling of the object of interest directly from a sparse dataset of projections and prior to any tomographic reconstruction. Instead of the usual voxel lattice, we make use of a tetrahedral mesh that tightly fits the object structure : cells density increases close to its interfaces and decreases in homogeneous regions. To create such a mesh, the first step of this work consists in the detection of edges in the 2D projection images. Segmentation quality being paramount for further stages, we introduce a statistical approach to automatically select crucial parameters of the selected edge detector - Canny's filter. This structural information then is merged within the 3D volume of reconstruction as a pointcloud adequately sampling the 3D interfaces of the studied object. To do so, we perform a direct backprojection of the 2D edge maps to obtain a rough 3D map of the desired interfaces. The points composing the cloud are placed according to this map by automated filtering of the rough map. This automation is attained by statistical approach. The adapted mesh is finally obtained by classical constrained Delaunay tetrahedralization algorithm on this cloud. CT reconstruction is performed on this new sampling by using usual iterative algorithms for which suitable models of projector/backprojector are proposed. Our experiments show that, using a sparse dataset - e.g. 30 projections - our method provides pointclouds tightly sampling the object interfaces. The compression achieved in the number of unknowns to estimate and in memory consumption for volume storage is sizable, vouching for the relevance of this sampling. Produced reconstructions are promising and the quality of meshes sufficient to contemplate their use in simulation applications, such as finite element methods.
447

3D short fatigue crack investigation in beta titanium alloys using phase and diffraction contrast tomography / Caractérisation tridimensionnelle des fissures de fatigue courtes dans les alliages de titane métastable (béta) par tomographie en contraste de phase et de diffraction

Herbig, Michael 26 January 2011 (has links)
La tomographie en contraste de diffraction est une nouvelle technique non destructive d'imagerie synchrotron qui caractérise la microstructure et l'orientation des grains dans les matériaux polycristallins en trois dimensions (3D). En la combinant avec la tomographe par contraste de phase. Il est pour la première fois possible d'observer in situ la propagation 3D des fissures de fatigue courtes au sein d'un ensemble de grains entièrement caractérisé (orientation et forme). L'approche combinée, appelée « tomographie tri-dimensionnelle par rayons X des fissures courtes et de la microstructure »(T3DXFM), a été développée sur l’alliage de titane métastable "Beta21S". Une grande partie de ce travail porte sur le développement de la méthodologie T3DXFM. Dans le jeu de données combinées, chaque point de la surface de rupture 3D peut être associé à une structure de données multidimensionnelle contenant des variables décrivant l'orientation des grains, l'orientation locale de la surface de rupture ainsi que l'histoire de la propagation. La méthode utilise un maillage de surface composé de triangles qui décrit la fissure (en d'autres termes: la surface de rupture) dans l'état de propagation mesuré au dernier cycle de fatigue réalisé. Les orientations des grains, les différents fronts de la fissure, les vitesses de croissance locales ainsi que les joints de grains peuvent être visualisés en attribuant des couleurs à ce maillage. Des outils d'extraction des figures de pôle ont été créés et mis en œuvre. Un algorithme a été développé qui est capable de mesurer la vitesse de propagation locale 30 d'une fissure contenant des branchements. / X-Ray Diffraction Contrast Tomography (DCT) is a recently developed, non-destructive synchrotron imaging technique which characterizes microstructure and grain orientation in polycrystalline materials in three dimensions (3D). By combining it with propagation based phase contrast tomography (PCT) it is for the first lime possible to observe in situ the 3D propagation behavior of short fatigue cracks (SFCs) within a set of fully characterized grains (orientation and shape). The combined approach, termed 3D X-ray Tomography of short cracks and Microstructure (3DXTSM), has been developed on the metastable beta titanium alloy "Beta21S". A large part of this work deals with the development of the 3DXTSM methodology. In the combined dataset, each point on the 3D fracture surface can be associated with a multidimensional data structure containing variables describing the grain orientation, the local fracture surface normal and the propagation history. The method uses a surface mesh composed of triangles that describes the crack (in other words: the fracture surface) in the last propagation state measured. Grain orientations, crack fronts, local growth rates and grain boundaries can be visualized by assigning colors to this mesh. The data structure can be interrogated in a number of different ways. Tools for extracting pole figures and pole density distribution functions have been implemented. An algorithm was developed that is capable of measuring the 3D local growth rate of a crack containing branches. The accuracy of the grain boundaries as reconstructed with OCT was evaluated and the elastic constants of Beta21S were determined.
448

Optimierung der Positronen-Emissions-Tomographie bei der Schwerionentherapie auf der Basis von Röntgentomogrammen

Pönisch, Falk 16 April 2003 (has links) (PDF)
Die Positronen-Emissions-Tomographie (PET) bei der Schwerionentherapie ist eine wichtige Methode zur Qualitätskontrolle in der Tumortherapie mit Kohlenstoffionen. Die vorliegende Arbeit beschreibt die Verbesserungen des PET-Verfahrens, wodurch sich in der Folge präzisere Aussagen zur Dosisapplikation treffen lassen. Aufbauend auf den Grundlagen (Kap. 2) werden die Neuentwicklungen in den drei darauf folgenden Abschnitten (Modellierung des Abbildungsprozesses bei der PET, Streukorrektur für PET bei der Schwerionentherapie, Verarbeitung der rekonstruierten PET-Daten) beschrieben. Die PET-Methode bei der Schwerionentherapie basiert auf dem Vergleich zwischen den gemessenen und vorausberechneten Aktivitätsverteilungen. Die verwendeten Modelle in der Simulation (Erzeugung der Positronenemitter, deren Ausbreitung, der Transport und der Nachweis der Annihilationsquanten) sollten so präzise wie möglich sein, damit ein aussagekräftiger Vergleich möglich wird. Die Genauigkeit der Beschreibung der physikalischen Prozesse wurde verbessert und zeiteffiziente Algorithmen angewendet, die zu einer erheblichen Verkürzung der Rechenzeit führen. Die erwarteten bzw. die gemessenen räumlichen Radioaktivitätsverteilungen werden mit einem iterativen Verfahren rekonstruiert [Lau99]. Die gemessenen Daten müssen hinsichtlich der im Messobjekt auftretenden Comptonstreuung der Annihilationsphotonen korrigiert werden. Es wird ein geeignetes Verfahren zur Streukorrektur für die Therapieüberwachung vorgeschlagen und dessen Realisierung beschrieben. Zur Einschätzung der Güte der Behandlung wird die gemessene und die simulierte Aktivitätsverteilung verglichen. Dazu wurde im Rahmen der vorliegenden Arbeit eine Software entwickelt, das die rekonstruierten PET-Daten visualisiert und die anatomischen Informationen des Röntgentomogramms mit einbezieht. Nur durch dieses Auswerteverfahren war es möglich, Fehler im physikalischen Strahlmodell aufzudecken und somit die Bestrahlungsplanung zu verbessern.
449

Etude expérimentale sur la localisation des déformations dans les grès poreux

Charalampidou, Elli maria 03 May 2011 (has links) (PDF)
Cette étude expérimentale traite la localisation des déformations sur un grès poreux: le grès de Vosges. Un nombre des essais triaxiaux sont effectués sous des pressions de confinement (i.e., 20 MPa - 190 MPa) et des déformations axiales différentes pour mieux comprendre la réponse mécanique de ce grès. La localisation des déformations a été étudiée dans des différentes échelles en appliquant une variation de mesures de champs (full-field methods) comme la Tomographie Ultrasonore (en 2D), les Emissions Acoustiques (en 3D), les Rayons X (en 3D), et la Corrélation des Images (en 3D). Les méthodes expérimentales ont été appliquées avant, pendant et après les essais triaxiaux. Des coupes fine ont été observées sous le microscope optique et électronique (SEM). La combinaison des multiples techniques expérimentales, qui ont des différentes sensitivités et résolutions, a décrit la procédure de la formation et l'évolution des bands de déformation observées sur le grès de Vosges. Des bandes de cisaillement ont été formées sous des pressions intermédiaires et des bandes de compaction sous des pressions élevées. Des bandes de compactions pure n'ont pas été observées.Les bandes de déformations observées se sont caractérisées comme des zones de déformation de cisaillement localisée et/ou de compaction. En plus, elles se sont caractérisées comme des structures de fable vitesse ultrasonore, des places d'origine des fissures inter- ou intra- granulaires, et des places des densités de matériel élevées.Deux mécanismes principales ont été observées au niveau de grain dans les bandes de cisaillement et de bandes de compaction (shear-enhanced compaction bands): d'un cote c'est la fissuration des grains (endommagement) et de l'autre cote c'est la réduction de porosité (sur la forme de compaction). Les deux mécanismes i présent différences sur leurs proportions et leur ordre d'occurrence dans le temps.
450

Matériaux architecturés pour refroidissement par transpiration : application aux chambres de combustion / Architectured materials for transpiration cooling : application to combustion chambers

Pinson, Sébastien 09 December 2016 (has links)
Dans l’optique de refroidir les parois des chambres de combustion aéronautiques le plus efficacement possible, un intérêt particulier est aujourd’hui porté à la technologie de refroidissement par transpiration. L’air de refroidissement s’écoule au travers d’une paroi poreuse dans laquelle une grande quantité de chaleur est échangée par convection. L’éjection de l’air profite ensuite de la distribution des pores pour former une couche limite protectrice relativement homogène.Les matériaux métalliques obtenus à partir de poudres partiellement frittées sont de bons candidats pour former ces parois poreuses. Ce travail se focalise sur les échanges internes et consiste à développer une méthodologie permettant de dégager les architectures partiellement frittées les plus adaptées à ce type d’application.L’écoulement et les échanges de chaleur lors du refroidissement par transpiration sont régis par quelques propriétés effectives des matériaux qui sont fonction de l’architecture : la conductivité thermique effective, le coefficient de transfert convectif volumique et les propriétés de perméabilité. A l’aide de travaux expérimentaux ou d’études numériques sur des échantillons numérisés par tomographie aux rayons X, des relations simples entre les propriétés effectives des matériaux partiellement frittés et leurs paramètres architecturaux sont tout d’abord développées. La porosité, la surface spécifique et le type de poudre utilisé sont retenus pour prédire les paramètres effectifs.Ces relations sont finalement intégrées dans un modèle de transfert de chaleur prédisant la performance d’une solution dans les conditions de fonctionnement du moteur. Une optimisation "multi-objectifs" et une analyse des designs optimaux permettent alors de mettre en valeur quelques architectures montrant un fort potentiel pour des applications de refroidissement par transpiration. Des matériaux peu poreux formés à partir de larges poudres irrégulières semblent assurer le meilleur compromis entre tous les critères pris en compte. / In order to cool aero-engine combustion chambers as efficiently as possible, there is today a special interest given to transpiration cooling technology. The cooling air flows through a porous liner in which a large amount of heat can be exchanged by convection. The air injection could then take benefit of the pore distribution to form a more homogeneous protective boundary layer.Partially sintered metallic materials are potential candidates to form these porous liners. The present work focuses on internal heat transfers. It aims to develop a methodology capable of highlighting the most adapted partially sintered architectures to this kind of application.During transpiration cooling, flows and heat transfers are governed by some effective material properties which depends on the porous architecture: the effective solid phase thermal conductivity, the volumetric heat transfer coefficient and the permeability properties. Thanks to experimental works and numerical studies on samples digitized by X-ray tomography, simple relationships are first developed between the effective material properties of partially sintered materials and their architectural parameters. The porosity, the specific surface area and the powder type are selected to predict the effective properties.These relationships are finally integrated into a heat transfer model predicting the thermal performance of a design at working engine conditions. A multi-objective optimization and an analysis of the optimal designs highlight some architectures as being potentially interesting for transpiration cooling. Materials with a low porosity and made of large irregular powders seem to ensure the best trade-off among the different criteria taken into consideration.

Page generated in 0.0905 seconds