Spelling suggestions: "subject:"homographie"" "subject:"d'homographie""
441 |
Implantation d'un algorithme de reconstruction itératif 4D en tomodensitométrie à faisceau coniqueMascolo-Fortin, Julia 24 April 2018 (has links)
La tomodensitométrie avec faisceau conique (CBCT) est actuellement utilisée en radiothérapie externe pour visualiser le patient dans la salle de traitement. Le mouvement respiratoire des patients y est encore difficilement pris en compte et des avancées sur le sujet pourraient améliorer la précision des traitements. En ce sens, l’obtention d’une séquence imageant les mouvements dans la région d’intérêt serait souhaitable. Ce mémoire présente le développement d’un algorithme de reconstruction 4D pour CBCT qui tente de répondre à certains besoins cliniques, soit l’obtention d’une qualité d’image suffisante, une facilité de mise en place clinique et une rapidité de calcul. L’algorithme 4D développé se base sur l’algorithme itératif convexe avec sous-ensembles ordonnés et régularisation de variation totale. Cette méthode a été choisie pour sa rapidité d’exécution, procurée par l’utilisation de sous-ensembles et la parallélisation des calculs sur carte graphique, et pour sa capacité à diminuer les artéfacts de rayons, communs en imagerie 4D, procurée par la régularisation de variation totale. La méthode développée pour obtenir une image 4D à partir d’acquisitions CBCT standards a fait appel à l’algorithme Amsterdam Shroud pour déduire le mouvement respiratoire de l’ensemble de projections CBCT. Elle a été validée sur un fantôme numérique et sur des acquisitions cliniques. Les résultats obtenus démontrent le potentiel de l’algorithme, puisqu’une image de résolution spatiale et temporelle satisfaisante a été reconstruite en moins de 5 minutes. Un tel temps de calcul se compare avantageusement à d’autres méthodes disponibles et ouvre la porte à une visualisation rapide du mouvement respiratoire en salle de traitement. / Cone beam computed tomography (CBCT) is currently used to visualize patients directly in the treatment room. However, the respiratory movement is still hardly taken into account and new developments could improve the precision of treatment. To this end, obtaining a film imaging movements in the region of interest would be beneficial. This master’s thesis presents the development of a reconstruction algorithm for 4D CBCT which seeks to respond to particular clinical needs, namely sufficient image quality, clinical implementation simplicity and high computational speed. The developed 4D algorithm is based on the ordered subsets convex iterative algorithm combined with the total variation minimization regularization technique. This method was chosen for its fast execution time, enabled by the use of subsets and the parallelization on GPU, and for its capability to reduce streaking artifacts, common on 4D imaging, enabled by the total variation regularization. The method developed to reconstruct a 4D image from standard CBCT scans employed the Amsterdam Shroud algorithm to deduce respiratory movement of a CBCT projections’ set. Its validation was performed on a numerical phantom and on clinical datasets. Results demonstrate the potential of the algorithm, since an image with sufficient spatial and temporal resolution was reconstructed in less than 5 minutes. Such computational times can be compared favorably with other available methods and could allow for online applications.
|
442 |
Conception et évaluation d'un nouvel algorithme de reconstruction itérative en tomodensitométrie à faisceau conique implanté sur matériel graphiqueMatenine, Dmitri 24 April 2018 (has links)
La présente thèse s’inscrit dans le domaine de la physique médicale et, plus précisément, de l’imagerie médicale tridimensionnelle (3D) et de la dosimétrie 3D pour la radiothérapie. L’objectif global du travail était de concevoir et évaluer un nouvel algorithme de reconstruction itératif rapide pour la tomodensitométrie (TDM) à faisceau conique, une modalité consistant à créer des images 3D des densités du sujet imagé à partir de mesures d’atténuation partielle d’un faisceau de radiation incidente. Cet algorithme a été implanté sur matériel graphique (GPU), une plate-forme de calcul hautement parallèle, menant à la conception de stratégies d’optimisation originales. En premier lieu, un nouvel algorithme itératif statistique régularisé, dénommé OSC-TV, a été conçu et implanté sur GPU. Il a été évalué sur des ensembles de projections synthétiques et cliniques de TDM à rayons X à faisceau conique. L’algorithme proposé a démontré une qualité d’image supérieure à celle de méthodes semblables pour des acquisitions basse-dose, ainsi que des temps de reconstruction compatibles avec les activités cliniques. L’impact principal de ce travail est la capacité d’offrir au patient une réduction de dose de radiation ionisante de deux à quatre fois par rapport aux protocoles d’acquisition usuels. En second lieu, cet algorithme a été testé sur des données expérimentales en tomographie optique à faisceau conique, donnant lieu à l’une des premières études de ce genre. La résolution spatiale des images 3D résultantes a été améliorée et le bruit a été réduit. L’on a aussi démontré l’importance de considérer le spectre de la source lumineuse afin d’assurer la justesse de l’estimation des densités. Le principal impact de l’étude est la démonstration de la supériorité de la reconstruction itérative pour des données affectées par les aberrations propres à la tomographie optique à faisceau conique, résultant potentiellement en l’amélioration de la dosimétrie 3D par gel radiochromique en radiothérapie. En troisième lieu, différentes approches de gestion de la matrice-système de type exact à rayons fins ont été évaluées pour la TDM à faisceau conique. Le pré-calcul et le stockage complet de la matrice-système dans la mémoire vive du GPU s’est montré comme l’approche la plus rapide, mais la moins flexible en termes de géométries représentables, en raison de la taille limitée de la mémoire vive. Le traçage de rayons à la volée est apparu très flexible, offrant aussi des temps de reconstruction raisonnables. En somme, les trois études ont permis de mettre en place et d’évaluer la méthode de reconstruction proposée pour deux modalités de tomographie, ainsi que de comparer différentes façons de gérer la matrice-système. / This thesis relates to the field of medical physics, in particular, three-dimensional (3D) imaging and 3D dosimetry for radiotherapy. The global purpose of the work was to design and evaluate a new fast iterative reconstruction algorithm for cone beam computed tomography (CT), an imaging technique used to create 3D maps of subject densities based on measurements of partial attenuation of a radiation beam. This algorithm was implemented for graphics processing units (GPU), a highly parallel computing platform, resulting in original optimization strategies. First, a new iterative regularized statistical method, dubbed OSC-TV, was designed and implemented for the GPU. It was evaluated on synthetic and clinical X ray cone beam CT data. The proposed algorithm yielded improved image quality in comparison with similar methods for low-dose acquisitions, as well as reconstruction times compatible with the clinical workflow. The main impact of this work is the capacity to reduce ionizing radiation dose to the patient by a factor of two to four, when compared to standard imaging protocols. Second, this algorithm was evaluated on experimental data from a cone beam optical tomography device, yielding one of the first studies of this kind. The spatial resolution of the resulting 3D images was improved, while the noise was reduced. The spectral properties of the light source were shown to be a key factor to take into consideration to ensure accurate density quantification. The main impact of the study was the demonstration of the superiority of iterative reconstruction for data affected by aberrations proper to cone beam optical tomography, resulting in a potential to improve 3D radiochromic gel dosimetry in radiotherapy. Third, different methods to handle an exact thin-ray system matrix were evaluated for the cone beam CT geometry. Using a GPU implementation, a fully pre-computed and stored system matrix yielded the fastest reconstructions, while being less flexible in terms of possible CT geometries, due to limited GPU memory capacity. On-the-fly ray-tracing was shown to be most flexible, while still yielding reasonable reconstruction times. Overall, the three studies resulted in the design and evaluation of the proposed reconstruction method for two tomographic modalities, as well as a comparison of the system matrix handling methods.
|
443 |
Quantification en thérapie radionucléique par radiopeptides au 177 LuFrezza, Andrea 27 January 2024 (has links)
Le présent travail de thèse concerne la quantification en imagerie moléculaire en trois dimensions (3D), en particulier, dans le cadre de la thérapie radionucléique par radiopeptides (TRRP) au ¹⁷⁷Lu pour les tumeurs neuroendocrines (TNE). Le ¹⁷⁷Lu est un radioisotope émetteur beta, à courte portée dans les tissus (2 mm), et gamma, avec des énergies utilisables pour l'imagerie de tomographie par émission mono-photonique (TEM). Ces caractéristiques font de celui-ci un bon radioisotope pour la TRRP des TNE : de petite taille et répandues dans le corps. De plus, avec plusieurs images de TEM prises lors d'un traitement, il est possible de quantifier la distribution du radioisotope dans le corps du patient et même d'évaluer la progression du traitement. L'objectif principal du projet est le développement et la validation des outils, expérimentaux et informatiques, pour la quantification de la dose absorbée lors d'une TRRP au ¹⁷⁷Lu, avec la possibilité d'étendre les méthodes à d'autres radioisotopes. Deux étapes principales ont été nécessaires. La première était la calibration et la caractérisation de l'appareil d'imagerie de TEM. Dans ce contexte, plusieurs techniques d'acquisitions et d'analyse ont été testées et un protocole de calibration simplifié a été proposé. Un accent particulier est mis sur la détermination du facteur de calibration (CF) et du temps mort (τ ) de l'appareil de TEM pour la correction et la quantification des images acquises. D'une évaluation de l'équation qui gouverne le comportement de détection de l'appareil de TEM, une nouvelle formulation plus concise et analysable mathématiquement a été proposée. Celle-ci permet l'extraction des deux facteurs de façon approximative, mais simple ainsi que la proposition d'un nouveau protocole de calibration. Avec des images bien quantifiées en activité (biodistribution du radiopeptide dans le corps), il est possible, par simulations Monte Carlo (MC), de calculer le dépôt de dose. Une deuxième étape a été la validation du code irtGPUMCD. Il s'agit d'un code MC, fonctionnant sur processeur graphique (GPU), pour le calcul de la dose absorbée lors d'une TRRP et précédemment développé au sein du Groupe de recherche en physique médicale du CHU de Québec - Université Laval. Le code irtGPUMCD a été adapté pour l'utilisation dans des conditions standard et validé sur les modèles informatiques de la International Commission on Radiological Protection (ICRP110), non seulement pour le ¹⁷⁷Lu, mais aussi pour le ¹³¹I et ⁹⁹ᵐTc. Avec les simulations exécutées sur une géométrie de référence et une comparaison avec d'autres résultats présents en littérature, le code a été validé. Dans le cadre de l'optimisation en termes de temps et exactitude des résultats fournis par irtGPUMCD, un algorithme de traçage de rayons (raytracing) ainsi qu'une technique de réduction de variance ont été implémentés, testés et validés. Ces changements de code ont permis une réduction d'un facteur dix du temps de calcul pour une simulation. Les images/cartes de dose absorbée tridimensionnelle bien quantifiées donnent la possibilité de calculer les histogrammes dose-volume (DVH) et d'extraire toutes les informations dosimétriques intéressantes tel que fait dans d'autres branches de la radiothérapie. Une petite section de cette thèse est consacrée à la proposition de techniques statistiques, qui permettent, en associant les données dosimétriques avec celles du patient, de construire des modèles de probabilité de complication des tissus normaux (NTCP). Le principal impact de cette étude est l'introduction de toute une chaîne, bien validée, pour la quantification dans les TRRP. Avec une calibration adéquate de l'appareil d'imagerie de TEM et l'utilisation du code MC irtGPUMCD, il sera possible d'effectuer des études dosimétriques et statistiques plus avancées, par rapport à l'état de l'art en médicine nucléaire, et se diriger vers une personnalisation plus poussée des traitements. / The present thesis work concerns quantification in three-dimensional molecular imaging (3D), in particular, in the context of peptide receptor radionuclide therapy (PRRT) with ¹⁷⁷Lu for neuroendocrine tumors (NET). The ¹⁷⁷Lu is a beta emitting radioisotope, with short-range in tissue (2 mm), and gamma, with energies usable for single-photon emission computed tomography (SPECT) imaging. These characteristics make ¹⁷⁷Lu a good radioisotope for the PRRT of NETs: small and widespread in the body. In addition, with several SPECT images taken during a treatment, it is possible to quantify the distribution of the radioisotope in the patient body and assess the progress of the treatment itself. The main objective of the project is the development and validation of tools, experimental and computational, for the absorbed dose quantification during a ¹⁷⁷Lu PRRT, with the possibility to extend the methods to other radioisotopes. Two main steps were necessary. The first step was the calibration and characterization of the SPECT imaging device. In this context, several acquisition and analysis techniques were tested and a simple calibration protocol was proposed. Particular emphasis is given to the determination of the calibration factor (CF) and dead time (τ ) constant of the SPECT device for the correction and quantification of the acquired images. From an evaluation of the equation describing the behavior of the SPECT system, a new, more concise and mathematically tractable formulation has been proposed. This formulation allows the extraction of the two factors in an approximate but simple way as well as the proposal of a new calibration protocol. With well-quantified images in activity (bio-distribution of the radio-peptide in the body) it is possible to calculate the dose deposition by Monte Carlo simulations (MC). A second step was the validation of the irtGPUMCD code. It is a MC code, operating on a graphics processing unit (GPU), previously developed within the Research Group in Medical Physics of the CHU de Québec, which allows the calculation of the absorbed dose received during a PRRT. The irtGPUMCD code has been used and validated under standard conditions with International Commission on Radiological Protection (ICRP110) phantoms, not only for the ¹⁷⁷Lu, but also for the ¹³¹I and ⁹⁹ᵐT c. With the simulations performed on a referenced geometry and with a comparison to other results present in literature, the code was validated. In the context of the optimization in time and accuracy of the results provided by irtGPUMCD, a new raytracing algorithm and a variance reduction technique were introduced, tested and validated. These code changes have led to a reduction in execution time of a factor ten for a simulations. The well quantified three-dimensional absorbed dose images/maps give the possibility of calculating dose-volume histograms (DVH) and extracting all the dosimetric information of interest as done in other branches of radiotherapy. A small part of this thesis is dedicated to the proposal of statistical techniques, which allow, by linking the dosimetric data with patient outcomes, to build models of normal tissues complication probability (NTCP). The main impact of this study is the introduction of a whole chain, well validated, for the quantification in PRRT. With an accurate calibration of the SPECT imaging system and the use of the irtGPUMCD MC code, it will be possible to carry out more advanced dosimetric and statistical studies, compared to the state of the art in nuclear medicine, and to head towards a more personalized treatment.
|
444 |
L'utilisation du recalage déformable d'images CT sur CBCT dans le but de générer des contours du jour et d'améliorer le cumul de dose avec image du jourFillion, Olivier 24 April 2018 (has links)
Ce projet de maitrise concerne l'utilisation du recalage déformable pour la déformation des contours et la déformation des distributions de dose. Son but est d'étudier la possibilité de générer automatiquement des contours du jour par recalage déformable et de proposer une nouvelle méthode pour cumuler les doses sur l'ensemble d'un traitement de radiothérapie. La méthode consiste à recaler l'image CT, qui permet de faire des calculs de dose, sur l'image CBCT, qui montre l'anatomie du jour, dans le but d'améliorer les suivis de patients. Pour évaluer la possibilité d'utiliser cette méthode, le projet est divisé en trois parties, centrées autour de cas de cancer de la prostate. Premièrement, on caractérise les recalages déformables provenant du logiciel Elastix en utilisant les images d'un fantôme anthropomorphique. Les calculs de dose sur ces images montrent que la méthode permettrait de calculer précisément des doses sur image du jour. Deuxièmement, on quantifie la précision de la déformation de contours avec le logiciel OnQ rts. La précision est évaluée en comparant les contours recalés aux contours tracés manuellement à l'aide de métriques de similarité. Cette étude montre que les contours produits par recalage déformable doivent être corrigés par la suite pour améliorer leur précision. De plus, la combinaison de l'indice d'inclusivité et des contours comme la prostate et le contour externe du corps permettent d'évaluer avec le plus de précision les déformations anatomiques. Troisièmement, on démontre la faisabilité de déformer les doses du jour de manière à les cumuler à l'aide du logiciel Elastix. Le principal défi pour bien déterminer les écarts de dose en clinique serait de bien caractériser la précision des recalages des organes à risque, puisqu'ils sont situés près des régions de haut gradient de dose. Dans le futur, cette technique pourrait être utilisée si la qualité des recalages est bien contrôlée.
|
445 |
Imagerie fonctionnelle de la ventilation et de l’inflammation pulmonaires lors d'agression pulmonaire aiguë expérimentale / Functional imaging of pulmonary ventilation and inflammation in an experimental model of lung injuryPouzot-Névoret, Céline 09 November 2010 (has links)
Le syndrome de détresse respiratoire aiguë (SDRA) est caractérisé par des lésions alvéolairesdiffuses qui résultent d’une lésion de la membrane alvéolo-capillaire entrainant entre autresune réaction inflammatoire intense et une perte massive et hétérogène du volume pulmonaireaéré. La tomographie par émission de positons (TEP) et la tomographie par impédanceélectrique (TIE) sont deux techniques d’imagerie fonctionnelle permettant l’étude noninvasive, quantitative et régionale du poumon.Ce travail présente le résultat d’études expérimentales conduites dans le SDRA. Tout d’abord,nous avons comparé positivement la TIE à la TEP pour la mesure de la ventilation pulmonaireet du volume aéré. Nous avons ensuite décrit et validé une technique robuste d’obtention duvolume aéré et de la ventilation spécifique en TEP sans prélèvement invasif. Enfin, nousavons étudié en TEP l’influence de la pression expiratoire positive (PEP) et du décubitusventral (DV) sur la répartition de la ventilation, de la perfusion et de l’inflammationpulmonaires. Les poumons agressés par l’acide chlorhydrique inhalé ont une inflammationsignificativement plus élevée que le groupe contrôle. Aucune différence significatived’inflammation n’a été trouvée entre les groupes expérimentaux malgré des modificationsimportantes de la répartition de la ventilation et de la perfusion régionales lors de la mise enDV. Ces études donc ont permis le développement d’un modèle porcin stable d’agressionpulmonaire aiguë et la validation de techniques d’imagerie permettant l’étude non invasive deparamètres physiologiques importants pouvant aider au réglage de la ventilation mécanique aucours du SDRA. / Acute respiratory distress syndrome (ARDS) is characterized by diffuse alveolar damage andresulting from an increased permeability of the alveolar-capillary membrane. Of notice, thereis an intense lung inflammation. Positron emission tomography (PET) and electricalimpedance tomography (EIT) allow noninvasive assessment of pulmonary ventilation,perfusion and inflammation. We use these techniques to decipher the impairments ofventilation and inflammation throughout the lungs in an experimental model of acute lunginjury by hydrochloric acid inhalation in pigs.In a first study, we compared EIT to PET in quantifying pulmonary aerated volume andventilation, using PET as a gold standard. We found that lung ventilation and volume wereaccurately measured with EIT over a wide range of lung volume and minute ventilation. Wehave then described and validated a new model to obtain lung aerated volume and ventilationwith PET, without the requirement of gas sampling in the respiratory circuit. Finally, weconducted a controlled study with PET to evaluate the effects of positive end-expiratorypressure and body position on regional lung inflammation, ventilation and perfusion.Inflammation was significantly higher in injured groups than in control. However, there wasno significant change in inflammation across ALI groups despite significant differencebetween ventilation and perfusion repartition.We have developed in this work a stable experimental model of acute lung injury andvalidated noninvasive imaging tools allowing studying of important physiologic parametersthat could help setting up mechanical ventilation.
|
446 |
Quantitative material decomposition methods for X-ray spectral CT / Méthodes de décomposition quantitative des matériaux pour la tomographie spectrale aux rayons XSu, Ting 28 June 2018 (has links)
La tomographie (CT) aux rayons X joue un rôle important dans l'imagerie non invasive depuis son introduction. Au cours des dernières années, de nombreuses avancées technologiques en tomographie par rayons X ont été observées, notamment la CT spectrale, qui utilise un détecteur à comptage de photons (PCD) pour discriminer les photons transmis correspondant à des bandes d'énergie sélectionnées afin d'obtenir une information spectrale. La CT spectrale permet de surmonter de nombreuses limitations des techniques précédentes et ouvre de nombreuses applications nouvelles, parmi lesquelles la décomposition quantitative des matériaux est le sujet le plus étudié. Un certain nombre de méthodes de décomposition des matériaux ont été rapportées et différents systèmes expérimentaux sont en cours de développement pour la CT spectrale. Selon le type de données sur lequel l'étape de décomposition fonctionne, nous avons les méthodes du domaine des projections (décomposition avant reconstruction) et les méthodes du domaine de l'image reconstruite (décomposition après reconstruction). La décomposition couramment utilisée est basée sur le critère des moindres carrés, nommée proj-LS et méthode ima-LS. Cependant, le problème inverse de la décomposition du matériau est généralement mal posé et les mesures du CT spectral aux rayons X souffrent de bruits de comptage de photons de Poisson. Le critère des moindres carrés peut conduire à un surajustement des données de mesure bruitées. Dans le présent travail, nous avons proposé un critère de moindre log-carré pour la méthode du domaine de projection afin de minimiser les erreurs sur le coefficient d'atténuation linéaire: méthode proj-LLS. De plus, pour réduire l'effet du bruit et lisser les images, nous avons proposé d'ajouter un terme de régularisation par patch pour pénaliser la somme des variations au carré dans chaque zone pour les décompositions des deux domaines, nommées proj-PR-LLS et ima -PR-LS méthode. Les performances des différentes méthodes ont été évaluées par des études de simulation avec des fantômes spécifiques pour différentes applications: (1) Application médicale: identification de l'iode et du calcium. Les résultats de la décomposition des méthodes proposées montrent que le calcium et l'iode peuvent être bien séparés et quantifiés par rapport aux tissus mous. (2) Application industrielle: tri des plastiques avec ou sans retardateur de flamme. Les résultats montrent que 3 types de matériaux ABS avec différents retardateurs de flamme peuvent être séparés lorsque l'épaisseur de l'échantillon est favorable. Enfin, nous avons simulé l'imagerie par CT spectrale avec un fantôme de PMMA rempli de solutions de Fe, Ca et K. Différents paramètres d'acquisition, c'est-à-dire le facteur d'exposition et le nombre de bandes d'énergie, ont été simulés pour étudier leur influence sur la performance de décomposition pour la détermination du fer. / X-ray computed tomography (X-ray CT) plays an important part in non-invasive imaging since its introduction. During the past few years, numerous technological advances in X-ray CT have been observed, including spectral CT, which uses photon counting detectors (PCDs) to discriminate transmitted photons corresponding to selected energy bins in order to obtain spectral information with one single acquisition. Spectral CT enables us to overcome many limitations of the conventional CT techniques and opens up many new application possibilities, among which quantitative material decomposition is the hottest topic. A number of material decomposition methods have been reported and different experimental systems are under development for spectral CT. According to the type of data on which the decomposition step operates, we have projection domain method (decomposition before reconstruction) and image domain method (decomposition after reconstruction). The commonly used decomposition is based on least square criterion, named proj-LS and ima-LS method. However, the inverse problem of material decomposition is usually ill-posed and the X-ray spectral CT measurements suffer from Poisson photon counting noise. The standard LS criterion can lead to overfitting to the noisy measurement data. In the present work, we have proposed a least log-squares criterion for projection domain method to minimize the errors on linear attenuation coefficient: proj-LLS method. Furthermore, to reduce the effect of noise and enforce smoothness, we have proposed to add a patchwise regularization term to penalize the sum of the square variations within each patch for both projection domain and image domain decomposition, named proj-PR-LLS and ima-PR-LS method. The performances of the different methods were evaluated by spectral CT simulation studies with specific phantoms for different applications: (1) Medical application: iodine and calcium identification. The decomposition results of the proposed methods show that calcium and iodine can be well separated and quantified from soft tissues. (2) Industrial application: ABS-flame retardants (FR) plastic sorting. Results show that 3 kinds of ABS materials with different flame retardants can be separated when the sample thickness is favorable. Meanwhile, we simulated spectral CT imaging with a PMMA phantom filled with Fe, Ca and K solutions. Different acquisition parameters, i.e. exposure factor and number of energy bins were simulated to investigate their influence on the performance of the proposed methods for iron determination.
|
447 |
Représentation par maillage adapté pour la reconstruction 3D en tomographie par rayons X / Adapted mesh representation for 3D computed tomography reconstructionCazasnoves, Anthony 08 December 2015 (has links)
La tomographie 3D par rayons X, utilisée tant pour le diagnostic médical que pour le contrôle non-destructif industriel, permet de reconstruire un objet en 3D à partir d’un ensemble de ses projections 2D. Le volume de reconstruction est usuellement discrétisé sur une grille régulière de voxels isotropes ce qui implique une augmentation de leur nombre pour atteindre une bonne résolution spatiale. Une telle représentation peut donc engendrer des coûts calculatoires et un volume mémoire de stockage particulièrement conséquents. Ce manuscrit présente une méthode permettant de discrétiser l’espace 3D de reconstruction de façon pertinente directement à partir de l’information structurelle contenue dans les données de projection. L’idée est d’obtenir une représentation adaptée à l’objet étudié. Ainsi, en lieu et place d’une grille voxélisée, on a recourt ici à un maillage tétraédrique épousant la structure de l’objet : la densité de mailles s’adapte en fonction des interfaces et des régions homogènes. Pour batir un tel maillage, la première étape de la méthode consiste à détecter les bords dans les données de projections 2D. Afin d’assurer une segmentation efficace et de bonne qualité, nous proposons d’exploiter le formalisme des tests statistiques pour paramétrer de façon optimale, automatique et rapide le filtre de Canny. L’information structurelle ainsi obtenue est ensuite fusionnée dans l’espace de reconstruction afin de construire un nuage de points échantillonnant les interfaces 3D de l’objet imagé. Pour ce faire, on procède à une rétroprojection directe des images de bords 2D pour obtenir une cartographie brute des interfaces 3D recherchées. Au moyen d’un filtrage automatisé par méthode statistique, on sélectionne les points les plus représentatifs, délimitant les interfaces avec précision. Le maillage adapté est finalement obtenu par tétraédrisation de Delaunay contrainte par ce nuage de points. Une reconstruction tomographique peut alors être réalisée sur une telle représentation en utilisant des schémas itératifs usuels pour lesquels les modèles de projecteur/rétroprojecteur sont adaptés. Nos expérimentations montrent qu’à partir d’un nombre restreint de projections sur 360° – i.e. 30 – notre méthode permet d’obtenir un nuage de points en très bonne adéquation avec les interfaces de l’objet étudié. La compression obtenue tant en termes de nombre d’inconnues à estimer qu’en espace mémoire nécessaire pour le stockage des volumes reconstruits est importante - jusqu’à 90% - attestant ainsi de l’intérêt de cette discrétisation. Les reconstructions obtenues sont prometteuses et les maillages générés de qualité suffisante pour envisager leur utilisation dans des applications de simulations – éléments finis ou autres. / 3D X-Ray computed tomography reconstruction is a method commonly used, nowadays, in both medical and non destructive testing fields to reconstruct a 3D object from a set of its 2D projections. The reconstruction space usually is sampled on a regular grid of isotropic voxels, thus inducing an increase in the number of cells used in order to get a satisfactory spatial resolution. This representation hence have a direct impact on the growth in computational cost of each reconstruction iteration and imposes the storage of volumes of considerable memory storage footprints. This dissertation introduces an approach to build an adapted sampling of the object of interest directly from a sparse dataset of projections and prior to any tomographic reconstruction. Instead of the usual voxel lattice, we make use of a tetrahedral mesh that tightly fits the object structure : cells density increases close to its interfaces and decreases in homogeneous regions. To create such a mesh, the first step of this work consists in the detection of edges in the 2D projection images. Segmentation quality being paramount for further stages, we introduce a statistical approach to automatically select crucial parameters of the selected edge detector - Canny's filter. This structural information then is merged within the 3D volume of reconstruction as a pointcloud adequately sampling the 3D interfaces of the studied object. To do so, we perform a direct backprojection of the 2D edge maps to obtain a rough 3D map of the desired interfaces. The points composing the cloud are placed according to this map by automated filtering of the rough map. This automation is attained by statistical approach. The adapted mesh is finally obtained by classical constrained Delaunay tetrahedralization algorithm on this cloud. CT reconstruction is performed on this new sampling by using usual iterative algorithms for which suitable models of projector/backprojector are proposed. Our experiments show that, using a sparse dataset - e.g. 30 projections - our method provides pointclouds tightly sampling the object interfaces. The compression achieved in the number of unknowns to estimate and in memory consumption for volume storage is sizable, vouching for the relevance of this sampling. Produced reconstructions are promising and the quality of meshes sufficient to contemplate their use in simulation applications, such as finite element methods.
|
448 |
3D short fatigue crack investigation in beta titanium alloys using phase and diffraction contrast tomography / Caractérisation tridimensionnelle des fissures de fatigue courtes dans les alliages de titane métastable (béta) par tomographie en contraste de phase et de diffractionHerbig, Michael 26 January 2011 (has links)
La tomographie en contraste de diffraction est une nouvelle technique non destructive d'imagerie synchrotron qui caractérise la microstructure et l'orientation des grains dans les matériaux polycristallins en trois dimensions (3D). En la combinant avec la tomographe par contraste de phase. Il est pour la première fois possible d'observer in situ la propagation 3D des fissures de fatigue courtes au sein d'un ensemble de grains entièrement caractérisé (orientation et forme). L'approche combinée, appelée « tomographie tri-dimensionnelle par rayons X des fissures courtes et de la microstructure »(T3DXFM), a été développée sur l’alliage de titane métastable "Beta21S". Une grande partie de ce travail porte sur le développement de la méthodologie T3DXFM. Dans le jeu de données combinées, chaque point de la surface de rupture 3D peut être associé à une structure de données multidimensionnelle contenant des variables décrivant l'orientation des grains, l'orientation locale de la surface de rupture ainsi que l'histoire de la propagation. La méthode utilise un maillage de surface composé de triangles qui décrit la fissure (en d'autres termes: la surface de rupture) dans l'état de propagation mesuré au dernier cycle de fatigue réalisé. Les orientations des grains, les différents fronts de la fissure, les vitesses de croissance locales ainsi que les joints de grains peuvent être visualisés en attribuant des couleurs à ce maillage. Des outils d'extraction des figures de pôle ont été créés et mis en œuvre. Un algorithme a été développé qui est capable de mesurer la vitesse de propagation locale 30 d'une fissure contenant des branchements. / X-Ray Diffraction Contrast Tomography (DCT) is a recently developed, non-destructive synchrotron imaging technique which characterizes microstructure and grain orientation in polycrystalline materials in three dimensions (3D). By combining it with propagation based phase contrast tomography (PCT) it is for the first lime possible to observe in situ the 3D propagation behavior of short fatigue cracks (SFCs) within a set of fully characterized grains (orientation and shape). The combined approach, termed 3D X-ray Tomography of short cracks and Microstructure (3DXTSM), has been developed on the metastable beta titanium alloy "Beta21S". A large part of this work deals with the development of the 3DXTSM methodology. In the combined dataset, each point on the 3D fracture surface can be associated with a multidimensional data structure containing variables describing the grain orientation, the local fracture surface normal and the propagation history. The method uses a surface mesh composed of triangles that describes the crack (in other words: the fracture surface) in the last propagation state measured. Grain orientations, crack fronts, local growth rates and grain boundaries can be visualized by assigning colors to this mesh. The data structure can be interrogated in a number of different ways. Tools for extracting pole figures and pole density distribution functions have been implemented. An algorithm was developed that is capable of measuring the 3D local growth rate of a crack containing branches. The accuracy of the grain boundaries as reconstructed with OCT was evaluated and the elastic constants of Beta21S were determined.
|
449 |
Optimierung der Positronen-Emissions-Tomographie bei der Schwerionentherapie auf der Basis von RöntgentomogrammenPönisch, Falk 16 April 2003 (has links) (PDF)
Die Positronen-Emissions-Tomographie (PET) bei der Schwerionentherapie ist eine wichtige Methode zur Qualitätskontrolle in der Tumortherapie mit Kohlenstoffionen. Die vorliegende Arbeit beschreibt die Verbesserungen des PET-Verfahrens, wodurch sich in der Folge präzisere Aussagen zur Dosisapplikation treffen lassen. Aufbauend auf den Grundlagen (Kap. 2) werden die Neuentwicklungen in den drei darauf folgenden Abschnitten (Modellierung des Abbildungsprozesses bei der PET, Streukorrektur für PET bei der Schwerionentherapie, Verarbeitung der rekonstruierten PET-Daten) beschrieben. Die PET-Methode bei der Schwerionentherapie basiert auf dem Vergleich zwischen den gemessenen und vorausberechneten Aktivitätsverteilungen. Die verwendeten Modelle in der Simulation (Erzeugung der Positronenemitter, deren Ausbreitung, der Transport und der Nachweis der Annihilationsquanten) sollten so präzise wie möglich sein, damit ein aussagekräftiger Vergleich möglich wird. Die Genauigkeit der Beschreibung der physikalischen Prozesse wurde verbessert und zeiteffiziente Algorithmen angewendet, die zu einer erheblichen Verkürzung der Rechenzeit führen. Die erwarteten bzw. die gemessenen räumlichen Radioaktivitätsverteilungen werden mit einem iterativen Verfahren rekonstruiert [Lau99]. Die gemessenen Daten müssen hinsichtlich der im Messobjekt auftretenden Comptonstreuung der Annihilationsphotonen korrigiert werden. Es wird ein geeignetes Verfahren zur Streukorrektur für die Therapieüberwachung vorgeschlagen und dessen Realisierung beschrieben. Zur Einschätzung der Güte der Behandlung wird die gemessene und die simulierte Aktivitätsverteilung verglichen. Dazu wurde im Rahmen der vorliegenden Arbeit eine Software entwickelt, das die rekonstruierten PET-Daten visualisiert und die anatomischen Informationen des Röntgentomogramms mit einbezieht. Nur durch dieses Auswerteverfahren war es möglich, Fehler im physikalischen Strahlmodell aufzudecken und somit die Bestrahlungsplanung zu verbessern.
|
450 |
Etude expérimentale sur la localisation des déformations dans les grès poreuxCharalampidou, Elli maria 03 May 2011 (has links) (PDF)
Cette étude expérimentale traite la localisation des déformations sur un grès poreux: le grès de Vosges. Un nombre des essais triaxiaux sont effectués sous des pressions de confinement (i.e., 20 MPa - 190 MPa) et des déformations axiales différentes pour mieux comprendre la réponse mécanique de ce grès. La localisation des déformations a été étudiée dans des différentes échelles en appliquant une variation de mesures de champs (full-field methods) comme la Tomographie Ultrasonore (en 2D), les Emissions Acoustiques (en 3D), les Rayons X (en 3D), et la Corrélation des Images (en 3D). Les méthodes expérimentales ont été appliquées avant, pendant et après les essais triaxiaux. Des coupes fine ont été observées sous le microscope optique et électronique (SEM). La combinaison des multiples techniques expérimentales, qui ont des différentes sensitivités et résolutions, a décrit la procédure de la formation et l'évolution des bands de déformation observées sur le grès de Vosges. Des bandes de cisaillement ont été formées sous des pressions intermédiaires et des bandes de compaction sous des pressions élevées. Des bandes de compactions pure n'ont pas été observées.Les bandes de déformations observées se sont caractérisées comme des zones de déformation de cisaillement localisée et/ou de compaction. En plus, elles se sont caractérisées comme des structures de fable vitesse ultrasonore, des places d'origine des fissures inter- ou intra- granulaires, et des places des densités de matériel élevées.Deux mécanismes principales ont été observées au niveau de grain dans les bandes de cisaillement et de bandes de compaction (shear-enhanced compaction bands): d'un cote c'est la fissuration des grains (endommagement) et de l'autre cote c'est la réduction de porosité (sur la forme de compaction). Les deux mécanismes i présent différences sur leurs proportions et leur ordre d'occurrence dans le temps.
|
Page generated in 0.059 seconds