391 |
Optimisation des paramètres d'acquisition et de reconstruction pour une reduction de dose en tomodensitométrie dans le bilan diagnostique de douleurs thoraciques aux urgences / Optimization of acquisition and reconstruction parameters in chest CT aiming a dose reduction in emergency settings for chest painMacri, Francesco 22 November 2016 (has links)
Le scanner a révolutionné la médecine permettant une accélération et une meilleure prise en charge du patient. La tomodensitométrie (TDM) s’accompagne d’un désavantage qui est l’augmentation du risque de cancer radio-induit des patients qui en bénéficient. La question se pose notamment aux urgences où l’emploi du scanner est de plus en plus prédominant, souvent après la réalisation d’une radiographie. Cette attitude, malgré tout justifiée dans la plupart des cas, peut s'avérer délétère. De ce fait les principes de radioprotection obligent à l’optimisation de la dose délivrée aux patients. L’inquiétude principale réside dans l’irradiation du thorax qui est la région la plus radiosensible du corps humain. Cela se traduit par une recherche continue d’un compromis entre l’obtention de la dose la plus basse possible tout en gardant une qualité d’image satisfaisante pour le diagnostic. Les dernières années des innovations technologiques ont été développées pour optimiser la dose au scanner ; la plus importante et la plus récente étant la reconstruction itérative (RI). La RI permet d’améliorer les index de qualité image avec une dose abaissée ou à dose équivalente reconstruite avec la classique rétroprojection filtrée, mais restituant enfin une qualité d’image modifiée. L’objectif de cette thèse était d’établir un protocole TDM du thorax délivrant une dose similaire à celle d’une radiographie du thorax de face et une de profil (ULD-CT_Ultra-low-dose-Computed Tomography) pour des indications de douleurs thoraciques en urgence sans injection de produit de contraste. La réaction des radiologues non habitués a été investiguée pour considérer la modification de l’image liée à la réduction de la dose et de l’emploi de la RI. Pour atteindre cet objectif les travaux de cette thèse se sont déroulés selon trois phases. La première phase représente une approche globale à la RI, testée sur fantômes pour optimiser les protocoles TDM de notre département. À partir des résultats obtenus, la deuxième phase a débuté. Des protocoles TDM thorax standard, à basse dose (LD-CT_Low-dose) et à très basse dose (ULD-CT) ont été testés sur des cadavres humains. La troisième phase a été caractérisée par l’application du protocole ULD-CT en pratique clinique aux urgences. Quatre articles scientifiques ont été rédigés pour représenter les trois phases de cette thèse. En conclusion, le protocole ULD-CT reconstruit avec des hauts niveaux de RI a délivré une dose inférieure à celle du niveau de référence diagnostique national pour une radiographie du thorax de face et une de profil. Ce type de protocole à très faible dose reconstruit avec RI est une alternative valable à la radiographie pour certaines indications sélectionnées pour l’exploration du thorax en urgence. En outre les radiologues malgré des remarques critiques sur la qualité d’image de l’ULD-CT ont toujours déclaré un niveau de confiance diagnostique élevé. / Computed Tomography (CT) improved patients' health care. However CT has a major drawback, which is the ionizing irradiation of the patient with an ensuing radiation-induced cancer risk. This issue is particularly observed in emergency settings, where the CT is increasingly becoming a dominant tool for the care decision-making, often after a radiographic study. Although this attitude is justified in the majority of the cases, it could be deleterious. Thus the principles of radiation safety obligate to the optimization of radiation dose delivered to the patients. The main problem is that the chest is the most radiation sensitive region of the human body. Hence the research of the better trade-off between the dose reduction and a diagnostic image quality is mandatory. Recently, several technological improvements have been developed to optimize the radiation dose at CT. The newest and most important innovation is the iterative reconstruction (IR). IR improves the quality image indexes of a CT image generated with a lowered dose or equivalent to that reconstructed with filtered back projection. Finally this reconstruction method renders a modified CT image. The goals of this PhD thesis were: i) to establish an unenhanced CT protocol, delivering a dose in the range of a radiographic study (ULD_ultra-low-dose-CT), for chest pain indications with no need of contrast media administration and ii) to investigate the reaction of unaccustomed radiologists to ULD-CT imaging. To accomplish these tasks the work of this thesis has been split in three phases. In the first phase a study approaching globally the IR was carried out testing several CT protocols on phantoms, in order to optimize the CT protocols of our institution. The outcomes of this study opened the second phase. A standard dose CT, a low-dose-CT and an ULD-CT protocols were acquired on the chest of human cadavers. The third phase was characterized by the application of ULD-CT in clinical practice in emergency settings. Four scientific articles were produced to communicate the results of this doctorate work. In conclusion, the ULD-CT protocol, reconstructed with high strengths of IR, conveyed a dose lower than the one of the national diagnostic reference level for a double projections chest X-ray. This ULD-CT protocol with IR is a valid alternative to the radiography for the study of the chest, for selected indications in emergency settings. Moreover, despite the radiologists were censorious about the ULD-CT image quality, they demonstrated always a high diagnostic confidence level.
|
392 |
Reconstruction 3D de vaisseaux sanguins / 3D reconstruction of blood vesselsAl Moussawi, Ali 17 December 2014 (has links)
Ce travail concerne la reconstruction 3D de vaisseaux sanguins à partir de coupes transversales en nombre éventuellement réduit. Si des données sont manquantes, une reconstruction cohérente avec un réseau de vaisseaux est obtenue. Cette approche permet en outre de limiter les interventions humaines lors du traitement des images des coupes transversales 2D. Sachant que les images utilisées sont obtenues par scanner,la difficulté est de connecter les vaisseaux sanguins entre deux coupes espacées pour obtenir un graphe qui correspond au cœur des vaisseaux. En associant les vaisseaux sanguins sur les coupes à des masses à transporter, on construit un graphe solution d’un problème de transport ramifié. La reconstruction 3D de la géométrie résulte des données 2D d’imagerie issues des différentes coupes transversales et du graphe. La géométrie 3D des vaisseaux sanguins est représentée par la donnée d’une fonction Level Set définie en tout point de l’espace dont l’iso-valeur zéro correspond aux parois des vaisseaux. On s’intéresse ensuite à résoudre numériquement le modèle de Navier-Stokes en écoulement incompressible sur un maillage cartésien inclus dans la géométrie reconstruite. Ce choix est motivé par la rapidité d’assemblage du maillage et des opérateurs discrets de dérivation, en vue d’éventuelles déformation des vaisseaux. L’inadaptation du maillage avec l’interface de la géométrie amène à considérer une condition limite modifiée permettant un calcul consistant des contraintes aux parois. / This work concerns the 3D reconstruction of blood vessels from a limited number of 2D transversal cuts obtained from scanners. If data are missing, a coherentreconstruction with a vessel network is obtained. This approach allows to limit human interventions in processing images of 2D transversal cuts. Knowing that the images used are obtained by scanner, the difficulty is to connect the blood vessels between some widely spaced cuts in order to produce the graph corresponding to the network of vessels. We identify the vessels on each trnasversal cut as a mass to be transported, we construct a graph solution of a branched transport problem. At this stage, we are able to reconstruct the 3D geometry by using the 2D Level Set Functions given by the transversal cuts and the graph information. The 3D geometry of blood vessels is represented by the data of the Level Set function defined at any point of the space whose 0-level corresponds to the vessel walls. The resulting geometry is usually integrated in a fluid mechanic code solving the incompressible Navier-Stokes equations on a Cartesian grid strictly included in a reconstructed geometry. The inadequacy of the mesh with the interface of the geometry is overcomed thanks to a modified boundary condition leading to an accurate computation of the constraints to the walls.
|
393 |
Intégration des mouvements physiologiques en tomodensitométrie : estimation, reproduction et influence en imagerie cardiaque / Physiological motion in computed tomography : estimation, reproduction and effect in cardiac imagingGuerra, Rui 10 January 2007 (has links)
Une chaîne de traitement a été mise en place permettant de reproduire des mouvements physiologiques afin d’en étudier l’influence et tester les solutions pour y pallier. Une méthodologie originale, basée sur des acquisitions échographiques « Doppler Tissue Imaging », a permis de quantifier les mouvements tridimensionnels de contraction cardiaque. Ces données ont alors servi à optimiser le placement des fenêtres temporelles d’acquisition/reconstruction, à quantifier la résolution temporelle minimum pour geler le mouvement cardiaque le long de son cycle et de données d’entrées de commande d’une plateforme de mouvement et pour un simulateur informatique. Une étude dynamique menée sur des modélisations de calcifications d’artère coronaire a montré l’influence du mouvement respiratoire et la nécessité de l’intégrer dans le processus d’acquisition. Des premiers algorithmes d’estimation et de correction du mouvement ont également été testés sur des données brutes réelles et simulées. / The new idea presented in this work takes into account patient motion in the acquisition and reconstruction processes. For this work, the complete acquisition system has been developed in order to reproduce physiologic motion, analyse their effect and propose correction methods to reduce image artefacts. A new methodology based on Doppler Tissue Imaging was used to find the motion in three dimensions of several coronary artery segments. Based on these data, optimal temporal windows were defined for reconstruction and an analysis of the ideal temporal window in the heart cycle was proposed. Both motion models were then used the control of a motion platform and as input for computer simulations. A first analysis carried on coronary calcification showed the influence of respiratory motion. Estimation and correction of motions were then performed on CT raw data and simulated motion. This works shows that it is necessary to include motion in the acquisition/reconstruction algorithms in CT.
|
394 |
Sur quelques paramètres et classes de graphes reconstructiblesMeza, Oscar 08 December 1983 (has links) (PDF)
.
|
395 |
Reconstruction et alignement en vision 3D : points, droites, plans et camérasBartoli, Adrien 10 September 2003 (has links) (PDF)
Cette thèse concerne la reconstruction de modèles 3D de scènes à partir d'images prises par des caméras. Il est courant de reconstruire à partir de sous-ensembles d'images puis de fusionner les modèles partiels ainsi obtenus par une phase d'alignement 3D. Les algorithmes de reconstruction et d'alignement s'appuient sur des correspondances de points ou de droites entre les images. La localisation de ces points ou droites dans les images est affectée par un bruit de mesure, influençant la qualité des modèles 3D reconstruits. Cette thèse est centrée sur l'obtention de résultats optimaux et sur les problèmes de représentation qui en découlent. La première partie de cette thèse aborde le problème de la reconstruction de modèles 3D. Les cas des caméras calibrées et non calibrées sont traités. Nous développons des méthodes de reconstruction de points, de droites et de caméras. L'incorporation de contraintes géométriques de coplanarité permet la reconstruction conjointe de plans. Nos contributions principales sont le développement et la comparaison de méthodes permettant la reconstruction 3D optimale de points, droites, plans et caméras. La deuxième partie de cette thèse aborde le problème de l'alignement de modèles 3D, qui consiste à estimer la transformation géométrique liant deux modèles 3D. Les méthodes existantes sont basées sur des correspondances de points. Nous étudions le cas des correspondances de droites. Les cas des caméras calibrées et non calibrées sont traités. Nos contributions majeures dans ce domaine sont, d'un point de vue théorique, une étude des transformations géométriques de droites 3D. Plus précisément, nous étendons la représentation matricielle standard, adaptée aux points, en une représentation adaptée aux droites. D'un point de vue pratique, nous développons et comparons plusieurs méthodes d'alignement linéaires et non-linéaires. Nous proposons finalement des méthodes de reconstruction de modèles 3D lorsque la scène observée n'est pas rigide. Par ailleurs, nous développons un méthode de détection automatique de surfaces planes dans une modèle 3D.
|
396 |
Combining analytical and iterative reconstruction in helical cone-beam CTSunnegårdh, Johan January 2007 (has links)
<p>Contemporary algorithms employed for reconstruction of 3D volumes from helical cone beam projections are so called non-exact algorithms. This means that the reconstructed volumes contain artifacts irrespective of the detector resolution and number of projection angles employed in the process. In this thesis, three iterative schemes for suppression of these so called cone artifacts are investigated.</p><p>The first scheme, iterative weighted filtered backprojection (IWFBP), is based on iterative application of a non-exact algorithm. For this method, artifact reduction, as well as spatial resolution and noise properties are measured. During the first five iterations, cone artifacts are clearly reduced. As a side effect, spatial resolution and noise are increased. To avoid this side effect and improve the convergence properties, a regularization procedure is proposed and evaluated.</p><p>In order to reduce the cost of the IWBP scheme, a second scheme is created by combining IWFBP with the so called ordered subsets technique, which we call OSIWFBP. This method divides the projection data set into subsets, and operates sequentially on each of these in a certain order, hence the name “ordered subsets”. We investigate two different ordering schemes and number of subsets, as well as the possibility to accelerate cone artifact suppression. The main conclusion is that the ordered subsets technique indeed reduces the number of iterations needed, but that it suffers from the drawback of noise amplification.</p><p>The third scheme starts by dividing input data into high- and low-frequency data, followed by non-iterative reconstruction of the high-frequency part and IWFBP reconstruction of the low-frequency part. This could open for acceleration by reduction of data in the iterative part. The results show that a suppression of artifacts similar to that of the IWFBP method can be obtained, even if a significant part of high-frequency data is non-iteratively reconstructed.</p>
|
397 |
Etude anthropométrique de la main. Le volume et son utilisation pour l'aide à l'identification des personnes/Anthropometrical Study of the Hand. The Volume and its Utilization in Individuals IdentificationLefèvre, Philippe M F E 16 October 2009 (has links)
Dans nos sociétés culturelles, trois régions anatomiques sont habituellement apparentes et visibles donc identifiables : ce sont le visage et les mains. La main est donc un élément d’identification spécifique à chaque individu et reconnaissable.
En mesurant le volume de la main démembrée d’une personne, peut-on déterminer la typologie de cette personne associant, entre autres mesures de la main, le volume au poids?
La mesure du volume de moulage des mains de 109 adultes (dont 14 gauchers) est réalisée à l’aide d’un volumètre à aiguille et plusieurs équations de régression mettent en évidence les relations entre des composantes anthropométriques du corps et de ses segments avec le volume des mains.
Ensuite, le volume et des variables spécifiques des mains d’un nouvel échantillon de 88 sujets vivants sont mesurés et leur typologie est également déterminée.
Les équations de régression caractérisant les relations entre les variables des mains et la typologie estiment la stature par les longueur et largeur des mains (Main Droite : r² = .66 ; SEE = 4 cm ; Main Gauche : r² = .62 ; SEE = 4,2cm) et le poids par le volume et le périmètre de PII du 5ème doigt (MD : r² = .69 ; SEE = 6.64kg ; MG : r² = .64 ; SEE = 7,13kg)
La validation de la méthode est réalisée sur un échantillon analogue mais indépendant de 21 sujets adultes. Le poids de 90.5 % des sujets est estimé avec un écart maximum de 5.98kg et la stature de 76% de l’échantillon avec un écart maximum de 3cm.
De nombreuses techniques ont été élaborées afin de reconstruire le visage à partir du crâne d’une personne disparue ; dans le même ordre d’idée peut-on reconstruire l’aspect virtuel de la peau d’une main en disposant de son squelette ?
Des modèles informatisés, par CT Scan, des os et de la peau sont obtenus des mains d’un cadavre et d’un volontaire.
Le logiciel Lhp Builder permet la localisation des coordonnées spatiales de points de repères anatomiques osseux des modèles.
A partir de 3 repères, les relations spatiales entre les modèles sont établies et employées afin d’interpoler la peau manquante de la main.
Le volume de la « peau interpolée » et le volume de la « peau réelle » obtenus par imagerie médicale sont comparés afin de valider la méthode.
Une différence de volume de 3.5 % entre les volumes respectifs de la main du cadavre et de la main reconstruite situe le niveau de précision de la méthode.
D’autres manipulations de reconstruction sont exécutées dans des situations analogues au cadre médico-légal (enfouissement en terre de pièces animales, mise en digestion dans des produits caustiques)
Cette première approche méthodologique de reconstruction de la main semble prometteuse et la main reconstruite deviendrait un élément important pour l’identification de personnes disparues./
In our cultural society, three anatomical body parts are usually apparent so visible and thus identifiable: the face and the hands. The hand may be an element of identification specific to each individual and recognizable.
By measuring the dismembered hand volume of a person, the typology of this person associating, inter alia measurements of the hand, volume with weight could be determined ?
The volume measurement of casts hands of 109 adults (of which 14 left-handed persons) is realized using a needle volumeter and several regression equations highlight the relations between anthropometrical components of the body and its segments with the hands volume.
Then, the hands volume and specific hands variables of a new sample of 88 living subjects are measured and their typology is also determined.
The regression equations characterizing the relations between the hands variables and typology estimate the stature by hands length and width (Right hand: r² = 66; SEE = 4 cm; Left hand: r² = 62; SEE = 4,2cm) and the weight by volume and perimeter of PII of the 5 th finger (Right hand: r² = 69; SEE = 6.64kg; Left hand: r² = 64; SEE = 7,13kg).
The validation of the method is carried out on a sample similar but independent of 21 adult subjects. The weight of 90.5 % of the subjects is estimated with a maximum difference of 5.98kg and the stature of 76% of the sample with 3cm maximum.
Many techniques were elaborated in order to rebuild the face starting from cranium of a missing person; in the same order can one rebuild the virtual aspect of the hand skin while having its skeleton?
From computerized models, by CT Scan, bones and skin are obtained of hands of a corpse and a living volunteer.
The software Lhp Builder allows the localization of the 3D co-ordinates of anatomical bones landmarks of the models.
From 3 landmarks, the 3D relations between the models are established and used in order to interpolate the missing skin of the hand.
The volume of the " interpolated skin " and the volume of the " real skin " obtained by medical imaging are compared in order to validate the method.
A volume difference of 3.5 % between respective volumes of the hand corpse and the rebuilt hand estimates the level of precision of the method.
Other experiments of rebuilding are carried out in situations similar to the medico-legal framework (ground hiding of animal parts, digestion in caustic products)
This first methodological approach of hand rebuilding seems promising and the rebuilt hand would become a significant element for the identification of missing people.
|
398 |
Combining analytical and iterative reconstruction in helical cone-beam CTSunnegårdh, Johan January 2007 (has links)
Contemporary algorithms employed for reconstruction of 3D volumes from helical cone beam projections are so called non-exact algorithms. This means that the reconstructed volumes contain artifacts irrespective of the detector resolution and number of projection angles employed in the process. In this thesis, three iterative schemes for suppression of these so called cone artifacts are investigated. The first scheme, iterative weighted filtered backprojection (IWFBP), is based on iterative application of a non-exact algorithm. For this method, artifact reduction, as well as spatial resolution and noise properties are measured. During the first five iterations, cone artifacts are clearly reduced. As a side effect, spatial resolution and noise are increased. To avoid this side effect and improve the convergence properties, a regularization procedure is proposed and evaluated. In order to reduce the cost of the IWBP scheme, a second scheme is created by combining IWFBP with the so called ordered subsets technique, which we call OSIWFBP. This method divides the projection data set into subsets, and operates sequentially on each of these in a certain order, hence the name “ordered subsets”. We investigate two different ordering schemes and number of subsets, as well as the possibility to accelerate cone artifact suppression. The main conclusion is that the ordered subsets technique indeed reduces the number of iterations needed, but that it suffers from the drawback of noise amplification. The third scheme starts by dividing input data into high- and low-frequency data, followed by non-iterative reconstruction of the high-frequency part and IWFBP reconstruction of the low-frequency part. This could open for acceleration by reduction of data in the iterative part. The results show that a suppression of artifacts similar to that of the IWFBP method can be obtained, even if a significant part of high-frequency data is non-iteratively reconstructed.
|
399 |
Design, development and implementation of a parallel algorithm for computed tomography using algebraic reconstruction techniqueMelvin, Cameron 05 October 2007 (has links)
This project implements a parallel algorithm for Computed Tomography based on the Algebraic Reconstruction Technique (ART) algorithm. This technique for reconstructing pictures from projections is useful for applications such as Computed Tomography (CT or CAT). The algorithm requires fewer views, and hence less radiation, to produce an image of comparable or better quality. However, the approach is not widely used because of its computationally intensive nature in comparison with rival technologies. A faster ART algorithm could reduce the amount of radiation needed for CT imaging by producing a better image with fewer projections.
A reconstruction from projections version of the ART algorithm for two dimensions was implemented in parallel using the Message Passing Interface (MPI) and OpenMP extensions for C. The message passing implementation did not result in faster reconstructions due to prohibitively long and variant communication latency. The shared memory implementation produced positive results, showing a clear computational advantage for multiple processors and measured efficiency ranging from 60-95%. Consistent with the literature, image quality proved to be significantly better compared to the industry standard Filtered Backprojection algorithm especially when reconstructing from fewer projection angles. / October 2006
|
400 |
Performance Evaluation Of Magnetic Flux Density Based Magnetic Resonance Electrical Impedance Tomography Reconstruction AlgorithmsEker, Gokhan 01 September 2009 (has links) (PDF)
Magnetic Resonance Electrical Impedance Tomography (MREIT) reconstructs images of electrical conductivity distribution based on magnetic flux density (B) measurements. Magnetic flux density is generated by an externally applied current on the object and measured by a Magnetic Resonance Imaging (MRI) scanner. With the measured data and peripheral voltage measurements, the conductivity distribution of the object can be reconstructed. There are two types of reconstruction algorithms. First type uses current density distributions to reconstruct conductivity distribution. Object must be rotated in MRI scanner to measure three components of magnetic flux density. These types of algorithms are called J-based reconstruction algorithms. The second type of reconstruction algorithms uses only one component of magnetic flux density which is parallel to the main magnetic field of MRI scanner. This eliminates the need of subject rotation. These types of algorithms are called B-based reconstruction algorithms. In this study four of the B-based reconstruction algorithms, proposed by several research groups, are examined. The algorithms are tested by different computer models for noise-free and noisy data. For noise-free data, the algorithms work successfully. System SNR 30, 20 and 13 are used for noisy data. For noisy data the performance of algorithm is not as satisfactory as noise-free data. Twice differentiation of z component of B (Bz) is used for two of the algorithms. These algorithms are very sensitive to noise. One of the algorithms uses only one differentiation of Bz so it is immune to noise. The other algorithm uses sensitivity matrix to reconstruct conductivity distribution.
|
Page generated in 0.1092 seconds