• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 96
  • 44
  • 9
  • 4
  • 3
  • 2
  • 2
  • 1
  • Tagged with
  • 168
  • 168
  • 168
  • 44
  • 25
  • 22
  • 20
  • 20
  • 17
  • 17
  • 16
  • 15
  • 15
  • 14
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Contribution aux méthodes de reconstruction d'images appliquées à la tomographie d'émission par positrons par l'exploitation des symétries du système

Leroux, Jean-Daniel January 2014 (has links)
Le désir d’atteindre une haute résolution spatiale en imagerie médicale pour petits animaux conduit au développement d’appareils composés de détecteurs de plus en plus petits. Des appareils s’approchant de la résolution théorique maximale en tomographie d’émission par positrons (TEP) sont à nos portes. Pour retirer le maximum d’information de ces appareils, il importe d’utiliser des méthodes de traitement évoluées qui prennent en considération l’ensemble des phénomènes physiques entourant la prise de mesure en TEP. Le problème est d’autant plus complexe à résoudre du fait que ces caméras sont composées de milliers de détecteurs qui donnent lieu à des millions de lignes de réponses mesurées pouvant alors être traitées par un algorithme de reconstruction d’images. Cette situation mène à des problèmes de reconstruction d’images en 3 dimensions (3D) qui sont difficiles à résoudre principalement à cause des limites en ressources mémoires et de calcul des ordinateurs modernes. Les travaux réalisés dans le cadre de cette thèse répondent à deux grands besoins relatifs au domaine de la reconstruction d’images en TEP, soit l'atteinte d'une meilleure qualité d'image et l'accélération des calculs menant à l'obtention de celle-ci. Le premier volet des travaux repose sur le l'élaboration de méthodes de modélisation 3D précises du processus d’acquisition en TEP permettant d'atteindre une meilleure qualité d’image. Ces modèles 3D s'expriment sous forme de matrices systèmes qui sont utilisées par un algorithme de reconstruction d'images. Pour générer ces modèles 3D pour la TEP, des méthodes de calculs analytiques et basées sur des simulations Monte Carlo (MC) ont été développées. Des méthodes hybrides, basé sur des stratégies analytiques et Monte Carlo, ont également été mises en œuvre afin de combiner les avantages des deux approches. Les méthodes proposées se distinguent de l'art antérieur en ce qu'elles tirent profit des symétries du système afin de réduire considérablement le temps de calcul requis pour l'obtention de matrices 3D précises. Pour l’approche analytique, le calcul de la matrice est divisé en diverses étapes qui favorisent la réutilisation de modèles pré-calculés entre les lignes de réponses symétriques de l’appareil. Pour l’approche par simulations MC, la réutilisation des événements MC collectés entre les lignes de réponse symétriques de l’appareil permet d’augmenter la statistique utilisée pour générer la matrice MC et du même coup de réduire le temps de simulation. La méthode hybride proposée permet de réduire encore davantage le temps de simulation MC et cela, sans faire de compromis sur la qualité de la matrice système. Le second volet des travaux repose sur le développement de nouvelles méthodes de reconstruction d’images basées sur un référentiel en coordonnées cylindriques permettant de réduire les contraintes d’espace mémoire et d'accélérer les calculs menant à l’image. Ces méthodes se divisent en deux catégories distinctes. Les premières sont des méthodes dites itératives qui permettent de résoudre le problème de reconstruction d’images par un processus itératif qui réalise une nouvelle estimation de l’image à chaque itération de façon à maximiser le degré de vraisemblance entre l’image et la mesure de l’appareil. Les secondes sont des méthodes dites directes qui permettent de résoudre le problème en inversant la matrice système qui relie l’image à la mesure de projections par une décomposition en valeurs singulières (DVS) de la matrice. La matrice inverse ainsi obtenue peut alors être multipliée directement avec la mesure pour obtenir l’image reconstruite. L’utilisation d’une image en coordonnées cylindriques entraîne une redondance au niveau des coefficients de la matrice système obtenue. En exploitant ces redondances, il est possible d’obtenir une matrice système avec une structure dite bloc circulante qui peut alors être transformée dans le domaine de Fourier afin d’accélérer les calculs lors du processus de reconstruction d’images itératif ou par DVS. De plus, pour la méthode par DVS, l’utilisation d’une matrice bloc circulante factorisée facilite grandement la procédure d'inversion de la matrice par DVS, ce qui rend l’application de la méthode possible pour des problèmes de reconstruction d’images en 3D. Or, la résolution de problèmes aussi complexes n’était jusqu’ici pas possible avec les méthodes par DVS de l’art antérieur dû aux contraintes d’espace mémoire et à la charge excessive de calcul. En somme, les travaux combinés ont pour objectif ultime de réunir à la fois la vitesse de calcul et une qualité d'image optimale en un même algorithme afin de créer un outil de reconstruction 3D idéal pour l'utilisation dans un contexte clinique.
62

Low-linear energy transfer radiolysis of liquid water at elevated temperatures up to 350[degrees]C Monte-Carlo simulations

Sanguanmith, Sunuchakan January 2012 (has links)
A re-examination of our Monte-Carlo modeling of the high-temperature radiolysis of liquid water by low-linear energy transfer (LET~0.3 keV/[micro]m) radiation has been undertaken in an attempt to reconcile our computed g-values (primary yields) of the various radiolytic products (e[superscript -][subscript aq], ¨OH, H¨, H[subscript 2], and H[subscript 2]O[subscript 2]) with recently reevaluated experimental data over the range from 25 up to 350 [degrees]C. The temperature dependence of the rate constant for the self-reaction of the hydrated electron (e[superscript -][subscript aq]) measured under alkaline conditions, and in particular the abrupt drop observed above 150 [degrees]C, was assumed, in contrast to previous study, to be valid also in near-neutral pH water. To best reproduce the currently available temperature-dependent g-values, we found it necessary to introduce a discontinuity in the temperature dependence at 150 [degrees]C of certain parameters that intervene in the physicochemical stage of the radiolysis, including the thermalization distance (r[subscript]th) and the dissociative attachment (DEA) of subexcitation electrons, and the dissociative decay of electronically and vibrationally excited water molecules. With the exception of g(H[subscript 2]) above 200 [degrees]C, all calculated g-values were consistent with the general observation that when the temperature is increased, the yields of free radicals g(e[superscript]-[subscript]aq), g(¨OH), and g(H¨) increase while the molecular yield g(H[subscript 2]O[subscript 2]) decreases.Although H[subscript 2] is a molecular product, g(H[subscript 2]) was observed to continue to increase with temperature for a reason that has been a matter of controversy recently. Our simulations show that the reaction of H¨ atoms with water previously proposed by Swiatla-Wojcik and Buxton can indeed account for the anomalous increase in g(H[subscript 2]) at high temperature if we use for the rate constant of this reaction the value of 10[superscript 4] M[superscript 1] s[superscript -1] at 300 [degrees]C. Finally, as a direct application of the Fricke (ferrous sulfate) dosimeter, we have calculated the spur lifetime ([tau]s) and its temperature dependence. The results show that our calculated [tau]s value is decreasing from 4.2×10[superscript -7] to 5.7×10[superscript -8] s over the temperature range 25-350 [degrees]C.
63

Évaluation et optimisation de systèmes de taxis collectifs en simulation

Lioris,, Eugénie 17 December 2010 (has links) (PDF)
Le développement économique d'une région urbaine est lié à son accessibilité. Le rôle des taxis est reconnu mondialement mais c'est un moyen très coûteux, pas abordable quotidiennement par tous. Pour abaisser les coûts, il faudrait faire partager le service par plusieurs utilisateurs tout en préservant ses qualités essentielles (trajet presque direct, service porte à porte) en accroissant la productivité de ses véhicules devenus "collectifs". Cette idée a été étudiée en 1971, par P.H. Fargier et G. Cohen, considérée toujours comme révolutionnaire et prématurée par un marché strictement réglementé. Avec une révision de la réglementation, cette extension du service des taxis, si on lui donnait l'opportunité de se mettre en place, pourrait permettre aux taxis de prendre leur part du transport public en s'adressant à la majorité de la population et pas seulement à une minorité de privilégiés pouvant assumer le prix d'un transfert individuel.
64

Validation de la simulation Monte-Carlo de la gamma-caméra petit animal Biospace sur la grille légère CiGri. Application à l'évaluation de l'algorithme de l'inversion analytique de la transformée de Radon atténuée

Aoun, Joe 30 October 2009 (has links) (PDF)
Les simulations Monte-Carlo SMC représentent actuellement en imagerie médicale nucléaire un outil puissant d'aide à la conception et à l'optimisation des détecteurs, et à l'évaluation des algorithmes de reconstruction et des méthodes de correction des effets physiques responsables de la dégradation des images reconstruites (atténuation, diffusion, etc...). L'inconvénient majeur des simulations Monte-Carlo réside dans le temps de calcul important qu'elles nécessitent. Au cours de cette thèse, nous avons tiré parti de la plate-forme de SMC GATE (Geant4 Application for Tomographic Emission) dédiée aux examens SPECT/PET pour une modélisation réaliste des phénomènes physiques, et de la grille de calcul légère CiGri (Ciment Grid) afin de réduire le temps de calcul. Le premier objectif de cette thèse consiste à modéliser la gamma-caméra Biospace dédiée à l'imagerie petit animal à l'aide du logiciel GATE. Le modèle de la gamma-caméra est validé en comparant les résultats issus des simulations GATE avec les données acquises expérimentalement. Les résultats des simulations reproduisent avec précision les performances mesurées de la gamma-caméra. Le modèle validé est ensuite utilisé pour l'évaluation de l'algorithme de Novikov-Natterer de reconstruction analytique de la transformée de Radon atténuée. Les résultats de cette étude montrent que l'algorithme de reconstruction de Novikov-Natterer permet d'améliorer les images d'un point de vue qualitatif et quantitatif par rapport à la méthode analytique standard FBP.
65

Accélération de la simulation Monte Carlo du transport des neutrons dans un milieu évoluant par la méthode des échantillons corrélés.

Dieudonné, Cyril 12 December 2013 (has links) (PDF)
Depuis quelques années, les codes de calculs Monte Carlo évoluant qui couplent un code Monte Carlo, pour simuler le transport des neutrons, à un solveur déterministe, qui traite l'évolution des milieux dû à l'irradiation sous le flux neutronique, sont apparus. Ces codes permettent de résoudre les équations de Boltzmann et de Bateman dans des configurations complexes en trois dimensions et de s'affranchir des hypothèses multi-groupes utilisées par les solveurs déterministes. En contrepartie, l'utilisation du code Monte Carlo à chaque pas de temps requiert un temps de calcul prohibitif.Dans ce manuscrit, nous présentons une méthodologie originale évitant la répétition des simulations Monte Carlo coûteuses en temps et en les remplaçant par des perturbations. En effet, les différentes simulations Monte Carlo successives peuvent être vues comme des perturbations des concentrations isotopiques de la première simulation. Dans une première partie, nous présenterons donc cette méthode, ainsi que la méthode de perturbation utilisée: l'échantillonnage corrélé. Dans un second temps, nous mettrons en place un modèle théorique permettant d'étudier les caractéristiques de la méthode des échantillons corrélés afin de comprendre ses effets durant les calculs en évolution. Enfin, dans la troisième partie nous discuterons de l'implémentation de cette méthode dans TRIPOLI-4® en apportant quelques précisions sur le schéma de calcul qui apportera une accélération importante aux calculs en évolution. Nous commencerons par valider et optimiser le schéma de perturbation à travers l'étude de l'évolution d'une cellule de combustible de type REP. Puis cette technique sera utilisée sur un calcul d'un assemblage de type REP en début de cycle. Après avoir validé la méthode avec un calcul de référence, nous montrerons qu'elle peut accélérer les codes Monte Carlo évoluant standard de presque un ordre de grandeur.
66

Simulation de l'imagerie à 3γ avec un télescope Compton au xénon liquide / Simulation of the 3γ imaging using liquid xenon Compton telescope

Mohamad Hadi, Abdul Fattah 17 June 2013 (has links)
L’imagerie 3γ est une technique innovante d’imagerie médicale nucléaire qui est étudiée au laboratoire SUBATECH. Elle repose sur la localisation tridimensionnelle d’un radioisotope émetteur (β+, γ), le 44Sc, à l’aide d’un télescope Compton au xénon liquide. Le lieu de désintégration de ce radioisotope est obtenu par l’intersection de la ligne de réponse, construite à partir de la détection des deux photons de 511 keV issus de l’annihilation d’un positron, et du cône déterminé à partir du troisième photon. Un prototype de petite dimension XEMIS1 (XEnon Medical Imaging System) a été développé afin de faire la preuve expérimentale de la faisabilité de l’imagerie à 3γ. Les résultats de ce prototype sont très promoteurs en terme de résolution en énergie, de pureté du xénon liquide et de faible bruit électronique. La simulation Monte Carlo est un outil indispensable pour accompagner la R&D et évaluer les performances de la nouvelle technique d’imagerie proposée. Les travaux rapportés dans cette thèse concernent le développement de la simulation du système d’imagerie 3γ avec GATE (Geant4 Application for Tomographic Emission). De nouvelles fonctionnalités ont été implémentées dans GATE afin de simuler un détecteur de type TPC (Time Projection Chamber). Nous avons effectué une simulation du prototype XEMIS1 et obtenu des résultats en bon accord avec nos données expérimentales. La prochaine étape du projet consiste à construire une caméra cylindrique au xénon liquide pour l’imagerie du petit animal. Les résultats des simulations de cette caméra présentés dans cette thèse montrent la possibilité de localiser chaque désintégration le long de la ligne de réponse avec une très bonne précision et une bonne sensibilité de détection. Des premières images de fantômes simples, réalisées évènements par événements, et après reconstruction tomographiques ont également présentées. / Nuclear medical 3γ imaging is an innovative technique which is studied at the SUBATECH laboratory. It isbased on the three-dimensional localization of a (β+, γ) radioisotope emitter, the 44Sc, by using a liquid xenon Compton telescope. The position of the disintegration of this radioisotope is obtained by the intersection of the line of response, built by the detection of two 511 keVphotons from the annihilation of a positron, and the cone determined by the third photon. A small prototype XEMIS1 (XEnon Medical Imaging System) was developed to demonstrate experimentally the feasibility of 3γ imaging. The results of this prototype are quite encouraging in terms of energy resolution, purity of liquid xenon and electronic noise. The Monte Carlo simulation is an indispensable tool to support the R&D and to evaluate the new proposed technique of imaging ; this thesis work is to develop the simulation of 3γ imaging system by using GATE (Geant4 Application for Tomographic Emission). New functionalities have been added to GATE to simulate a TPC (Time Projection Chamber) detector. We performed a simulation of XEMIS1 prototype and obtained results in good agreement with our experimental data. The next step of the project is to build a full liquid xenon cylindrical camera for the small animal imaging. The results presented in this thesis of the simulations of this camera demonstrate the ability to locate every decayalong the line of response with very good accuracy and good detection sensitivity. The first direct images of simple phantoms, realized event by event, and after tomographic reconstruction are also presented.
67

Mise au point d'un réacteur photocatalytique pour la dépollution de l'eau / Development of a photocatalytic reactor for wastewater treatment

Zekri, Mohamed el Mehdi 25 September 2012 (has links)
L’objectif de cette étude est de mettre au point une méthodologie de travail dédiée à la conception d’un réacteur photocatalytique pour la purification des eaux. Notre ambition étant de passer de la photocatalyse comme processus chimique à la photocatalyse comme procédé de dépollution. Pour cela il nous a paru nécessaire de répondre à deux questions, à savoir : - Dans un tel système, quels seront les phénomènes physico-chimiques majeurs mis en jeux ? -Y-a-t’il un moyen de prédire les performances de notre système ?Tout d’abord, nous avons essayé de travailler sur des photocatalyseurs en suspension, donc non immobilisés sur un support. Le but est d’éviter une étape de filtration couteuse et techniquement difficile. Ainsi différents types de dioxyde de titane ont été déposés sur des supports de différentes géométries.Le premier média obtenu était du dioxyde de titane commercial (P25 de Evonik et UV100 de Sachtleben) déposé sur des billes en verre de diamètre 2 et 4 mm, introduit dans un réacteur annulaire siège de la réaction de dégradation photocatalytique et éclairé par une seule source de lumière UV. La photoactivité de ce média a été testée sur du phénol, le polluant primaire modèle choisi dans cette étude. L’hydroquinone et la benzoquinone, deux de ses principaux intermédiaires de dégradation ont également été analysés. L’efficacité du dépôt a ainsi été calculée sur les différentes configurations obtenues. Les résultats ont été satisfaisants sans arriver à avoir un niveau de photoactivité comparable à celui du TiO2 en mode suspension. Nous avons donc cherché à améliorer les performances de notre système réactionnel en travaillant sur un support ayant une autre géométrie. Notre choix s’est porté sur des mousses en alumine épousant parfaitement le vide réactionnel. Le même protocole expérimental a été appliqué à ces dernières. Les résultats de photodégradation ont montrés une durabilité meilleure que celle obtenue sur les billes en verre, mais aussi une photoperformance dépassant celle réalisée sur du dioxyde de titane en mode suspension.Afin de mieux comprendre les différences de photoactivité entre les supports, nous avons tenté de simuler, par la méthode Monte Carlo, la propagation de la lumière à travers les photocatalyseurs, qu’ils soient en mode suspension ou déposés. Les résultats ont montrés que le dioxyde de titane en suspension avait le meilleur taux d’absorption de la lumière comparé au TiO2 fixé sur les supports. Néanmoins l’absorption se fait sur un volume très petit du réacteur et la meilleure répartition de l’énergie lumineuse se trouve dans les mousses en alumine.Les données issues de ces simulations notamment, la LVRPA pour « Local Volumetric Rate of Photon Absorption » nous ont permis d’entamer la dernière étape de notre travail à savoir la construction d’un modèle prédictif des performances photocatalytiques du système réactionnel. Nous avons pour cela introduit un terme qui traduit la probabilité qu’un photon absorbé par le photocatalyseur donne un radical hydroxyle. Les résultats obtenus par notre environnement mathématique ont montrés de bonnes corrélations avec les expériences et ont permis de tirer certaines conclusions quand à l’amélioration de notre système photocatalytique. / The objective of this work is to develop a methodology dedicated to the design of a photocatalytic reactor for water purification. The principle is to go from photocatalysis as chemical process to photocatalysis as remediation method.Iit necessary for that to respond to two questions: - In such a system, what are the major physico-chemical phenomena? - Is there a way to predict the performance of our system?First of all, we tried to work on suspended photocatalysts to avoid a costly filtration step and technical difficulties. Thus, different types of titanium dioxide were deposited on substrates of different geometries.The first obtained medium was commercial titanium dioxide (P25 from Evonik and UV100 from Sachtleben) deposited on glass beads of 2 and 4 mm, inserted into an annular reactor illuminated by a single UV light source. The photoactivity of this media has been tested on phenol, the primary pollutant model chosen in this study. Hydroquinone and benzoquinone, two of its main degradation intermediates were also analyzed. The deposition efficiency has been estimated on different configurations. The results were satisfactory but did not reach a level comparable to that of photoactivity of TiO2 in suspend mode. Thus, we sought to improve the performance of our reaction system working on a support having a different geometry. Our choice fell on alumina foams perfectly matching the vacuum in the reactor. The same experimental protocol was applied to the foam. The results have shown photodegradation durability better than that obtained on glass beads and also the photoperformance exceeding that of titanium dioxide in suspend mode.To understand better the photoactivity of our media, we simulated by the Monte Carlo method the propagation of the light through the different photocatalysts (suspend mode or deposited). The results showed that the titanium dioxide suspension had the best absorption of light compared to TiO2 fixed on media. Nevertheless, absorption was located on a very small volume of the reactor and a better distribution of the light energy occurs in the alumina foams.The data obtained from these simulations, including the LVRPA "Local Volumetric Rate of Photon Absorption", allowed us to achieve the final step of our work, which is the construction of a predictive model of photocatalytic performance of the reaction system. Thus, we have introduced a term that reflects the probability that a photon absorbed by the photocatalyst gives a hydroxyl radical. The results obtained by our mathematical environment have shown a good correlation with experiments and helped us to draw some conclusions for the improving of our photocatalytic system.
68

Dosimétrie neutron en radiothérapie : étude expérimentale et développement d'un outil personnalisé de calcul de dose Monte Carlo / Neutron dosimetry in radiotherapy : experimental study and Monte Carlo personalised dose calculation tool development

Elazhar, Halima 07 September 2018 (has links)
L’optimisation des traitements en radiothérapie vise à améliorer la précision de l’irradiation des cellules cancéreuses pour épargner le plus possible les organes environnants. Or la dose périphérique déposée dans les tissus les plus éloignés de la tumeur n’est actuellement pas calculée par les logiciels de planification de traitement, alors qu’elle peut être responsable de l’induction de cancers secondaires radio-induits. Parmi les différentes composantes, les neutrons produits par processus photo-nucléaires sont les particules secondaires pour lesquelles il y a un manque important de données dosimétriques. Une étude expérimentale et par simulation Monte Carlo de la production des neutrons secondaires en radiothérapie nous a conduit à développer un algorithme qui utilise la précision du calcul Monte Carlo pour l’estimation de la distribution 3D de la dose neutron délivrée au patient. Un tel outil permettra la création de bases de données dosimétriques pouvant être utilisées pour l’amélioration des modèles mathématiques « dose-risque » spécifiques à l’irradiation des organes périphériques à de faibles doses en radiothérapie. / Treatment optimization in radiotherapy aims at increasing the accuracy of cancer cell irradiation while saving the surrounding healthy organs. However, the peripheral dose deposited in healthy tissues far away from the tumour are currently not calculated by the treatment planning systems even if it can be responsible for radiation induced secondary cancers. Among the different components, neutrons produced through photo-nuclear processes are suffering from an important lack of dosimetric data. An experimental and Monte Carlo simulation study of the secondary neutron production in radiotherapy led us to develop an algorithm using the Monte Carlo calculation precision to estimate the 3D neutron dose delivered to the patient. Such a tool will allow the generation of dosimetric data bases ready to be used for the improvement of “dose-risk” mathematical models specific to the low dose irradiation to peripheral organs occurring in radiotherapy.
69

Diffusion Microscopist Simulator - The Development and Application of a Monte Carlo Simulation System for Diffusion MRI / Diffusion Microscopist Simulator - Développement et Application d'un Simulateur de Monte Carlo pour l'IRM de Diffusion

Yeh, Chun hung 28 September 2011 (has links)
L'imagerie par résonance magnétique de diffusion (IRMd) a fait une percée significative dans les troubles neurologiques et les recherches sur le cerveau grâce à son extraordinaire sensibilité à la cytoarchitecture des tissus. Cependant, comme le processus de diffusion de l'eau dans les tissus neuronaux est un phénomène biophysique complexe à l'échelle moléculaire, il est difficile d'en déduire les caractéristiques microscopiques des tissus à l'échelle du voxel, à partir des données d'IRMd. La contribution méthodologique majeure de cette thèse est le développement d'un cadre de simulation de type Monte Carlo intégré et générique, appelé `Diffusion Microscopist Simulator' (DMS), qui permet d'élaborer des modèles de tissus biologiques tridimensionnels aux géométries et propriétés variées et qui permet de synthétiser des données d'IRMd correspondantes pour une grande variété d'IRM, de séquences d'impulsions et de paramètres. L'outil DMS vise à combler le fossé entre les processus de diffusion élémentaires, qui se produisent à une échelle micrométrique, et le signal de diffusion résultant, mesuré à l'échelle millimétrique, qui offre un meilleur aperçu des caractéristiques observées dans l'IRMd, tout en offrant une information vérité terrain pour l'optimisation et la validation des protocoles d'acquisition de l'IRMd pour différentes applications.Nous avons vérifié les performances et la validité du simulateur à travers différents tests, et appliqué cet outil pour aborder des thèmes de recherche particuliers à l'IRMd. Il y a deux contributions majeures dans cette thèse. Tout d'abord, nous avons utilisé l'outil DMS pour étudier l'impact de la durée d'impulsions de gradient de diffusion finies (delta) sur l'estimation de l'orientation des fibres par l'IRMd. Nous avons démontré que la pratique actuelle qui utilise un delta long, imposée par la limitation physique des scanners d'IRM cliniques, est en fait bénéfique pour la cartographie des orientations des fibres, même si elle viole l'hypothèse sous-jacente faite dans la théorie de l'espace q. Deuxièmement, nous avons employé le simulateur pour étudier la possibilité d'estimer le rayon des axones en utilisant un système d'IRM clinique. Les résultats suggèrent que la technique d'inférence de la taille des axones reposant sur un modèle analytique de la réponse IRM d'un axone au processus de diffusion est applicable aux données d'IRMd acquises avec des scanners IRM standards. / Diffusion magnetic resonance imaging (dMRI) has made a significant breakthrough in neurological disorders and brain research thanks to its exquisite sensitivity to tissue cytoarchitecture. However, as the water diffusion process in neuronal tissues is a complex biophysical phenomena at molecular scale, it is difficult to infer tissue microscopic characteristics on a voxel scale from dMRI data. The major methodological contribution of this thesis is the development of an integrated and generic Monte Carlo simulation framework, ‘Diffusion Microscopist Simulator' (DMS), which has the capacity to create 3D biological tissue models of various shapes and properties, as well as to synthesize dMRI data for a large variety of MRI methods, pulse sequence design and parameters. DMS aims at bridging the gap between the elementary diffusion processes occurring at a micrometric scale and the resulting diffusion signal measured at millimetric scale, providing better insights into the features observed in dMRI, as well as offering ground-truth information for optimization and validation of dMRI acquisition protocols for different applications.We have verified the performance and validity of DMS through various benchmark experiments, and applied to address particular research topics in dMRI. Based on DMS, there are two major application contributions in this thesis. First, we use DMS to investigate the impact of finite diffusion gradient pulse duration (delta) on fibre orientation estimation in dMRI. We propose that current practice of using long delta, which is enforced by the hardware limitation of clinical MRI scanners, is actually beneficial for mapping fibre orientations, even though it violates the underlying assumption made in q-space theory. Second, we employ DMS to investigate the feasibility of estimating axon radius using a clinical MRI system. The results suggest that the algorithm for mapping the direct microstructures is applicable to dMRI data acquired from standard MRI scanners.
70

Modélisation et analyse des étapes de simulation des émetteurs de positons générés lors des traitements en protonthérapie - du faisceau à la caméra TEP - pour le suivi des irradiations / Modeling and analysis of all the positron emitters simulation steps generated during the treatment phase in protontherapy - from the beam to the PET camera - for the follow-up of the irradiations

Van Ngoc Ty, Claire 19 December 2012 (has links)
La protonthérapie est une technique innovante de traitement des cancers dans les zones critiques, telles que les yeux ou la base du crâne. Même si le phénomène physique d’interactions des protons dans les tissus est bien connu et présente des avantages pour la protonthérapie, il existe des incertitudes sur le parcours des protons liées aux hétérogénéités des tissus traversés en situation clinique et liées au calcul des paramètres du faisceau dans le planning de traitement qui contrebalancent les avantages théoriques des protons pour la délivrance de la dose. Des méthodes de contrôle de qualité de l’irradiation ont donc été proposées. La plupart reposent sur l’exploitation de la cartographie des émetteurs de positons générés lors de l’irradiation. Ceux-ci peuvent être détectés et quantifiés à l’aide de la tomographie par émission de positons (TEP), une technique d’imagerie médicale utilisée principalement pour établir le bilan d’extension des cancers par imagerie. Des acquisitions TEP ont donc été proposées et validées sur des fantômes et chez des patients après protonthérapie pour le contrôle du parcours des protons. Le contrôle s’effectue en comparant la distribution radioactive mesurée en TEP et la distribution β+ simulée. La simulation de l’activité positronique générée par les protons dans le milieu traversé peut être décomposée en plusieurs étapes : une étape de simulation du faisceau de protons, une étape de modélisation des interactions des protons dans l’objet irradié et une étape d’acquisition TEP. Différentes modélisations de ces étapes sont possibles. Au cours de cette thèse, nous avons proposé plusieurs modélisations pour les 3 étapes et nous avons évalué l’apport pour la qualité du contrôle de l’irradiation. Nous avons restreint notre évaluation à la vérification du parcours des protons. Ce travail de thèse s’appuie sur des irradiations en milieu homogène et inhomogène (dans un modèle de tête) réalisé au centre de protonthérapie d’Orsay. Les objets irradiés ont été transportés dans le Service Hospitalier Frédéric Joliot pour l’acquisition TEP. Nous avons comparé l’incertitude sur le parcours des protons à partir des modélisations de la distribution β+ obtenues : 1) En modélisant l’irradiation par un faisceau de protons sous une forme simplifiée et par simulation Monte Carlo. En modélisant la production des émetteurs β+ dans les tissus par simulation Monte Carlo avec le logiciel GEANT4 en incluant les modèles de physiques des versions 9.2 et 9.4 et en utilisant des sections efficaces ; 2) En modélisant l’acquisition TEP avec une modélisation simplifiée et une modélisation Monte Carlo de l’acquisition par la caméra TEP ; 3) Les résultats montrent qu’une modélisation simplifiée du faisceau n’affecte pas l’estimation du parcours des protons. La modélisation Monte-Carlo de la caméra permet de mieux modéliser le bruit présent dans le signal TEP mesuré en milieu homogène. Des résultats préliminaires de la modélisation de la caméra TEP sont présentés dans un modèle de tête (inhomogène). En conclusion, une modélisation simplifiée de la caméra TEP permet d’évaluer le parcours des protons en milieu homogène à 1 mm près, qui est équivalent à la reproductibilité de la mesure TEP post-irradiation telle qu’elle est mesurée par Knopf et al. (2008). / The protontherapy is an innovative technique for cancer treatment in critical areas, such as the eye or the head. Even though the interaction of protons with human tissues is a well-known physical phenomenon which gives rise to the protontherapy, there are uncertainties on the proton trajectory due to heterogeneities in the irradiated tissue, the calculation of the beam parameters in the planning treatment affects the theoretical benefits of the protons and the chosen dose delivery process. Thus, methods for irradiation quality control have been suggested. Most of them rely on utilizing the mapping of the positron emitters generated during the irradiation. They are detectable and quantifiable thanks to the use of the PET (positron emitter tomography), a medical imaging technique mainly used for the cancer expansion assessment. PET acquisitions were proposed and then realized on phantoms and patients after protontherapy. The quality control relies on comparing the measured radioactive distribution to the simulated β+ distribution. The modeling of the positronic activity generated by protons in the irradiated area can be divided into three steps: the simulation of the proton beam, the modeling of the proton interactions in the irradiated object and the modeling of the PET acquisition. Different ways of simulating these steps are possible. This PhD work suggests different ways of modeling the three steps and evaluates theirs benefits for the irradiation quality control. We have restrained our evaluation to the verification of the proton range and to the uncertainties related to the proton range. This research work utilizes on irradiations in homogenous and inhomogeneous areas in a head model. We have compared the uncertainties on the proton range measured thanks to the following β+ distributions: 1) A β+ distribution obtained by modeling the irradiation with a proton beam simulated analytically and simulated using the complete Monte Carlo method; 2) A Monte Carlo modeling of the proton range using the GEANT4 software (versions 9.2 and 9.4) relying and using cross-sections; 3) A simulation of the PET acquisition using a simplified modeling and a Monte Carlo modeling. Our results show that a simplified modeling of the beam does not affect the estimation of the proton range. Besides, the Monte Carlo modeling of the PET camera enables modeling the noise present in the PET signal measured in a homogeneous area. Preliminary results of the PET camera modeling are presented in a head model (inhomogeneous). Finally, a simplified modeling of the PET camera enables evaluate the proton range in a homogeneous area with a 1mm-precision, which is equivalent to the reproducibility of the PET offline measure as described in (Knopf et al., 2008).

Page generated in 0.1556 seconds