• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 133
  • 39
  • 24
  • 2
  • Tagged with
  • 196
  • 79
  • 71
  • 50
  • 33
  • 32
  • 26
  • 26
  • 25
  • 23
  • 22
  • 22
  • 20
  • 20
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Un spectromètre à pixels actifs pour la métrologie des champs neutroniques

Taforeau, Julien 30 September 2013 (has links) (PDF)
La métrologie fondamentale est la garante de la pérennité des systèmes de mesure et est en charge de fournir les étalons de références. En ce qui concerne la métrologie des rayonnements ionisants et, en particulier la métrologie des neutrons, des détecteurs étalons sont utilisés pour caractériser les champs de références, en énergie et en fluence. Les dosimètres ou détecteurs de particules sont étalonnés. Cette thèse présente le développement d'un spectromètre neutron candidat au statut d'étalon primaire pour la caractérisation de champs neutroniques dans la gamme 5-20 MeV. Le spectromètre utilise le principe du télescope à protons de recul comme moyen de détection ; la technologie CMOS, au travers de trois capteurs de positions, est mise à profit pour réaliser la trajectographie du proton de recul. Un détecteur Si(Li) est en charge de la mesure de l'énergie résiduelle du proton. Les simulations des dispositifs, réalisées sous MCNPX, ont permis d'estimer les performances du dispositif et de valider la procédure de reconstruction de l'énergie des champs neutroniques. Une étape essentielle de caractérisation des éléments du télescope et en particulier des capteurs CMOS est également proposée afin de garantir la validité de mesures expérimentales postérieures. Les tests réalisés aussi bien en champs mono-énergétiques qu'en champs étendus témoignent des très bonnes performances du système. La quantification des incertitudes indiquent une mesure de l'énergie avec une précision de plus de 1.5 % pour une résolution de moins de 6 %. La mesure de la fluence neutronique est quand a elle réalisée avec une incertitude de 4 à 6 %.
172

Spectrométrie de masse COINTOF : Conception et d'un analyseur à temps de vol et développement de la méthode d'analyse

Teyssier, Cécile 28 September 2012 (has links) (PDF)
Le Dispositif d'Irradiation d'Agrégats Moléculaires (DIAM) est conçu pour l'étude de mécanismes de dissociation résultant de l'interaction de nanosystèmes moléculaires avec des protons de 20-150 keV. Une technique originale de spectrométrie de masse appelée COINTOF (Correlated Ion and Neutral Time Of Flight) permet la mesure corrélée du temps de vol des fragments neutres et chargés issus de la dissociation d'un système moléculaire sélectionné en masse. Une stratégie de traitement des signaux a été développée afin de pouvoir distinguer des fragments proches en temps (< 1ns). Les données collectées sont structurées dans le logiciel ROOT® pour l'analyse statistique des corrélations. Le fonctionnement de la technique COINTOF est illustré par des expériences de dissociation induite par collision d'agrégats d'eau protonés sur une cible gazeuse. La méthodologie d'analyse des données est exposée à travers l'étude du canal de dissociation du trimère d'eau protoné produisant l'ion chargé H3O+ et deux molécules d'eau. La distribution de la différence de temps de vol entre les deux fragments neutres est mesurée, mettant en évidence une énergie libérée de quelques eV. En parallèle, un second spectromètre de masse à temps de vol adapté à l'évolution du dispositif a été développé. Il associe un temps de vol linéaire et un temps de vol orthogonal et intègre un détecteur à position (ligne à retard). Des simulations ont démontré les potentialités du nouvel analyseur. Enfin, des travaux ont été menés au laboratoire R.-J. A. Lévesque (Université de Montréal) portant sur les capacités d'imagerie de détecteurs à position multi-pixel de la collaboration MPX-ATLAS.
173

Transfert à très haute résolution d'une référence de réquence ultra-stable par lien optique et application à la stabilisation d'un laser moyen-infrarouge

Chanteau, Bruno 17 December 2013 (has links) (PDF)
Ce manuscrit présente le transfert d'une référence de fréquence optique ultra-stable grâce à un lien optique et son application à la stabilisation en fréquence d'un laser moyen-infrarouge. Un lien optique permet de transférer un signal ultrastable de fréquence par fibre optique sans dégrader sa stabilité grâce à une compensation du bruit apportée lors de la propagation. Nous avons étendu cette technique à des liens de grande longueur en transférant la référence de fréquence simultanément avec les données du réseau internet. Ainsi des liens de 300 km puis 540 km ont été démontrés avec une stabilité de l'ordre de 10-19 à 104 s. Ce dispositif a été utilisé au LPL pour asservir un laser CO2 émettant à 10 µm sur une référence de fréquence développée au LNE-SYRTE, à l'Observatoire de Paris. Celle-ci est constituée d'un laser ultra-stable émettant à 1,54 µm, dont la fréquence est mesurée par rapport aux étalons primaires du LNE-SYRTE grâce à un laser femtoseconde. Cette référence est transférée par lien optique jusqu'au LPL où elle permet de stabiliser la fréquence de répétition d'un second laser femtoseconde et de mesurer ou contrôler la fréquence d'un laser CO2. Lorsque celui-ci est asservi sur une référence moléculaire (OsO4), la stabilité est de 4.10-14 à 1 s. Les performances sont encore meilleures lorsque le laser CO2 est asservi directement sur la référence optique. Le laser stabilisé pourra ensuite être utilisé pour l'expérience d'observation de la violation de parité dans les molécules chirales développée au LPL. Ceci démontre la faisabilité d'expériences de spectroscopie moléculaire à ultra haute résolution dans les laboratoires ne disposant pas d'étalons de fréquences.
174

Etude des états isomères des noyaux superlourds : cas des noyaux 257Db et 253 Lr / Study of the isomeric states in the superheavy nuclei : particular case of the 257Db and 253Lr nuclei

Brionnet, Pierre 22 September 2017 (has links)
L'étude de la région des noyaux lourds et superlourds représente un des défis de la physique nucléaire contemporaine, tant au niveau des dispositifs expérimentaux nécessaires que des analyses de données complexes. L'étude des noyaux transfermia (Z = 100 à 106) nous permet, au travers de la spectroscopie de décroissance α et γ/électron, d'apporter de nouvelles informations de structure nucléaire ainsi que sur ses propriétés dans cette région de masse. Dans le cadre de ma thèse, j'ai ainsi pu étudier le noyau 257Db. Cette étude a été menée sur le séparateur SHELS auprès du dispositif GABRIELA au JINR de Dubna (Russie). Elle nous a permis d'apporter de nouvelles informations spectroscopiques sur ce noyau au travers d'une étude de spectroscopie retardée en profitant de la réaction de fusion évaporation 50Ti(209Bi,2n)257Db ainsi que les très bonnes performances du dispositif GABRIELA. Ces études ont notamment permis d'établir un nouveau schéma de niveaux pour le noyau 257Db, mais aussi de confirmer le schéma de décroissance pour les noyaux 257Db et 253Lr. De plus, j'ai aussi pris part au développement et à la caractérisation de détecteurs silicium de dernière génération dans le cadre du projet S3/SIRIUS (SPIRAL2, GANIL). Ces études nous ont non seulement permis de caractériser ces détecteurs, et ainsi vérifier leurs performances vis-à-vis du cahier des charges, mais aussi de mettre en évidence des phénomènes internes à basse énergie dans ces derniers. Les caractérisations ainsi que l'analyse et l'interprétation de ces phénomènes sont présentés et discutés. / The study of the heavy and superheavy nuclei mass region represents one of the biggest challenge for the modern nuclear physic regarding both experimental setups and complex analysis. Moreover, the study around the transfermia nuclei (Z = 100 to 106), through the spectroscopy experiments, allows us to bring new information on the nuclear matter and its properties. Therefore, my thesis experiment was focused on the study of the 257Db nuclei. The experiment was performed on the SHELS separator using the GABRIELA setup at the JINR of Dubna (Russia). This study allows us to highlight new information regarding this nucleus, through the delayed spectroscopy method and by using the 50TI(209Bi,2n)257Db fusion evaporation reaction as well as the very good performances of the GABRIELA setup (α, γ and electron detection). This study allows us also to establish a new level scheme as well as to confirm the decay one for the 257Db and 253Lr nuclei. The second part of my thesis work was centered on the development and the characterization of Silicon detectors for the S3/SIRIUS projet (SPRIAL2, GANIL). The characterization allows us to confirm the good performances of these detectors according to the specifications. Moreover, it also highlights internal phenomena at low energy within the detector. Thus, the characterization as well as the interpretation of these phenomena will be presented.
175

Spectrométrie de masse COINTOF : Conception et d'un analyseur à temps de vol et développement de la méthode d'analyse / COINTOF mass spectrometry : design of time-of-flight analyzer and development of the analysis method

Teyssier, Cécile 28 September 2012 (has links)
Le Dispositif d'Irradiation d'Agrégats Moléculaires (DIAM) est conçu pour l'étude de mécanismes de dissociation résultant de l'interaction de nanosystèmes moléculaires avec des protons de 20-150 keV. Une technique originale de spectrométrie de masse appelée COINTOF (Correlated Ion and Neutral Time Of Flight) permet la mesure corrélée du temps de vol des fragments neutres et chargés issus de la dissociation d'un système moléculaire sélectionné en masse. Une stratégie de traitement des signaux a été développée afin de pouvoir distinguer des fragments proches en temps (< 1ns). Les données collectées sont structurées dans le logiciel ROOT® pour l'analyse statistique des corrélations. Le fonctionnement de la technique COINTOF est illustré par des expériences de dissociation induite par collision d'agrégats d'eau protonés sur une cible gazeuse. La méthodologie d'analyse des données est exposée à travers l'étude du canal de dissociation du trimère d'eau protoné produisant l'ion chargé H3O+ et deux molécules d'eau. La distribution de la différence de temps de vol entre les deux fragments neutres est mesurée, mettant en évidence une énergie libérée de quelques eV. En parallèle, un second spectromètre de masse à temps de vol adapté à l'évolution du dispositif a été développé. Il associe un temps de vol linéaire et un temps de vol orthogonal et intègre un détecteur à position (ligne à retard). Des simulations ont démontré les potentialités du nouvel analyseur. Enfin, des travaux ont été menés au laboratoire R.-J. A. Lévesque (Université de Montréal) portant sur les capacités d'imagerie de détecteurs à position multi-pixel de la collaboration MPX-ATLAS. / DIAM (Dispositif d'Irradiation d'Agrégats Moléculaires) is a n ewly designed experimental setup to investigate processes resulting from the irradaition of molecular nano-systems by 20-150 keV protrons. One of its specificities relies on the original techique of mass spectrometry named COINTOF (Correlated Ion and Neutral Time of Flight) consisting in correlated measurments of the time of fkight of charged and neutral fragments produced by the dissociation of a single molecular ion parent. A strategy of treatment and analysis of the detection signals was developed to distinguish two fragments close in time (<1ns). The collected data are structured in the software ROOT for the statistical analysis of the correlations. The COINTOF technique is illustrated in the case of collision induced dissociation of protonated water clusters on atomic targets. The methodology of the analysis is explained through the study of dissociation channel of the protonated water trimer producing the charged fragment H3O+ and two water molecules. The distribution of the time of flight difference between the two neutral fragments is measured providing a,n estimate of the kinetic energy release of a few eV. In parallel, a second time-of-flight mass spectrometer was designed. It associated a linear time-of-flight and an orthogonal time-of-flight and integrates position detectors (delay line anode). Simulations demonstrate the potentials of the new analyzer. Finally, research works were led at the laboratory R.-J. A. Lévesque (Université de Montréal) on the imaging capabilities of the multi-pixel detectors of the MPX-ATLAS collaboration.
176

Détection directe de matière noire avec l’expérience EDELWEISS-III : étude des signaux induits par le piégeage de charges, analyse de données et caractérisation de la sensibilité des détecteurs cryogéniques aux WIMPs de basse masse / Direct detection of dark matter with the EDELWEISS-III experiment : signals induced by charge trapping, data analysis and characterization of cryogenic detector sensitivity to low-mass WIMPs

Arnaud, Quentin 02 November 2015 (has links)
L'expérience EDELWEISS-III est dédiée à la détection directe de matière noire sous forme de WIMPs. Ces particules massives devraient constituer plus de 80% de la masse de l'univers et être détectables via leur diffusion élastique sur un noyau de l'absorbeur d'un détecteur. Le taux d'événements WIMPs attendu étant très faible (<1/kg/an) , une méthode de double mesure chaleur/ionisation est réalisée afin de discriminer les reculs électroniques issus du fond et , des reculs nucléaires engendrés par les neutrons et WIMPs. Le travail de thèse a consisté en l'étude des signaux induits par le piégeage de charges. Un modèle analytique de son impact sur les signaux des voies ionisation et chaleur est présenté. Les prédictions du modèle, confortées par leur accord avec les données et une simulation numérique, ont donné lieu à diverses applications : amélioration des résolutions, sensibilité à la profondeur des dépôts d'énergie, caractérisation du piégeage de charges dans les cristaux. L'analyse des données du Run308 est détaillée et les résultats interprétés en terme de limite d'exclusion. Cette analyse a mis au jour la présence d'un bruit de fond neutron limitant pour la recherche de WIMPs de haute masse (>20GeV). La dernière partie est consacrée à une étude de l'optimisation des détecteurs cryogéniques aux WIMPs de basse masse. Ce travail, réalisée via un test statistique de rapport de vraisemblance profilé, a permis d'étudier l'influence des divers paramètres expérimentaux sur le potentiel d'exclusion. Les conclusions de cette analyse, conjointement aux résultats du Run308, ont mené l'expérience EDELWEISS à privilégier la recherche de WIMPs de basse masse (<20GeV) / The EDELWEISS-III experiment is dedicated to direct dark matter searches aiming at detecting WIMPS. These massive particles should account for more than 80% of the mass of the Universe and be detectable through their elastic scattering on nuclei constituting the absorber of a detector. As the expected WIMP event rate is extremely low (<1/kg/year), a double measurement heat/ionization is performed to discriminate electronic recoils originating from _ and backgrounds and nuclear recoils induced by neutrons and WIMPs. The first part of the thesis work consisted in studying the signals induced by charge carrier trapping. An analytical model of its impact on both ionization and heat signals is presented. The model predictions, through their agreement with both data and a numerical simulation, lead to various applications : improvement of the resolutions, statistical sensitivity to energy deposit depths, characterization of trapping within the crystals. The analysis of the Run308 data is detailed and its results are interpreted in terms of an exclusion limit on the WIMP-nucleon cross section (SI). This study brings to light the presence of a limiting neutron background for high mass WIMP searches (>20GeV). Finally, a study dedicated to the optimization of solid cryogenic detectors to low mass WIMP searches is presented. This study is performed on simulated data using a statistical test based on a profiled likelihood ratio that allows for statistical background subtraction and spectral shape discrimination. This study combined with results from Run308, has lead the EDELWEISS experiment to favor low mass WIMP searches (<20GeV)
177

Etude préliminaire sur les possibilités d'utilisation des images du capteur AVHRR des satellites atmosphériques de la NOAA pour la détection des zones brûlées dans les Ghâts occidentaux

De Caluwe, Nicolas January 2006 (has links)
Doctorat en Sciences / info:eu-repo/semantics/nonPublished
178

Développement d'un simulateur pour le X-ray integral field unit : du signal astrophysique à la performance instrumentale / Development of an End-to-End simulator for the X-ray Integral Field Unit : from the astrophysical signal to the instrument performance

Peille, Philippe 28 September 2016 (has links)
Cette thèse est consacrée au développement d'un modèle End-to-End pour le spectrocalorimètre X-IFU qui observera à partir de 2028 l'Univers en rayons X avec une précision jamais atteinte auparavant. Ce travail s'est essentiellement organisé en deux parties. J'ai dans un premier temps étudié la dynamique des parties les plus internes des binaires X de faible masse à l'aide de deux sondes particulières que sont les sursauts X et les oscillations quasi-périodiques au kHz (kHz QPOs). En me basant sur les données d'archive du satellite Rossi X-ray Timing Explorer et sur des méthodes d'analyse spécifiquement développées dans ce but, j'ai notamment pu mettre en évidence pour la première fois une réaction du premier sur le second, confirmant le lien très étroit entre ces oscillations et les parties les plus internes du système. Le temps de rétablissement du système suite aux sursauts entre également en conflit dans la plupart des cas avec l'augmentation supposée du taux d'accrétion suite à ces explosions. Au travers d'une analyse spectro-temporelle complète des deux kHz QPOs de 4U 1728-34, j'ai également pu confirmer l'incompatibilité des spectres de retard des deux QPOs qui suggère une origine différente de ces deux oscillations. L'étude de leurs spectres de covariance, obtenus pour la première fois dans cette thèse, a quant à elle mis en évidence le rôle central de la couche de Comptonisation et potentiellement celui d'une zone particulièrement compacte de la couche limite pour l'émission des QPOs. Dans le second volet de ma thèse, j'ai développé un simulateur End-to-End pour l'instrument X-IFU permettant de représenter l'ensemble du processus menant à une observation scientifique en rayons X, de l'émission des photons par une source jusqu'à leur mesure finale à bord du satellite. J'ai notamment mis en place des outils permettant la comparaison précise de plusieurs matrices de détecteurs en prenant en compte les effets de la reconstruction du signal brut issu des électroniques de lecture. Cette étude a mis en évidence l'intérêt de configurations hybrides, contenant une sous-matrice de petits pixels capables d'améliorer par un ordre de grandeur la capacité de comptage de l'instrument. Une solution alternative consisterait à défocaliser le miroir lors de l'observation de sources ponctuelles brillantes. Situées au coeur de la performance du X-IFU, j'ai également comparé de manière exhaustive différentes méthodes de reconstruction des signaux bruts issus des détecteurs X-IFU. Ceci a permis de montrer qu'à faible coût en termes de puissance de calcul embarquée, une amélioration significative de la résolution en énergie finale de l'instrument pouvait être obtenue à l'aide d'algorithmes plus sophistiqués. En tenant compte des contraintes de calibration, le candidat le plus prometteur apparaît aujourd'hui être l'analyse dans l'espace de résistance. En me servant de la caractérisation des performances des différents types de pixels, j'ai également mis en place une méthode de simulation rapide et modulable de l'ensemble de l'instrument permettant d'obtenir des observations synthétiques à long temps d'exposition de sources X très complexes, représentatives des futures capacités du X-IFU. Cet outil m'a notamment permis d'étudier la sensibilité de cet instrument aux effets de temps mort et de confusion, mais également d'estimer sa future capacité à distinguer différents régimes de turbulence dans les amas de galaxies et de mesurer leur profil d'abondance et de température. A plus long terme ce simulateur pourra servir à l'étude d'autres cas scientifiques, ainsi qu'à l'analyse d'effets à l'échelle de l'ensemble du plan de détection tels que la diaphonie entre pixels. / This thesis is dedicated to the development of an End-ta-End model for the X-IFU spectrocalorimeter scheduled for launch in 2028 on board the Athena mission and which will observe the X-ray universe with unprecedented precision. This work has been mainly organized in two parts. I studied first the dynamics of the innermost parts of low mass X-ray binaries using two specific probes of the accretion flow: type I X-ray bursts and kHz quasi-periodic oscillations (kHz QPOs). Starting from the archivai data of the Rossi X-ray Timing Explorer mission and using specific data analysis techniques, I notably highlighted for the first time a reaction of the latter to the former, confirming the tight link between this oscillation and the inner parts of the system. The measured recovery time was also found in conflict with recent claims of an enhancement of the accretion rate following these thermonuclear explosions. From the exhaustive spectral timing analysis of both kHz QPOs in 4U 1728-34, I further confirmed the inconsistancy of their lag energy spectra, pointing towards a different origin for these two oscillations. The study of their covariance spectra, obtained here for the first time, has revealed the key role of the Comptonization layer, and potentially of a more compact part of it, in the emission of the QPOs. In the second part of my thesis, I focused on the development of an End-to-:End simulator for the X-IFU capable of depicting the full process leading to an X-ray observation, from the photon emission by the astrophysical source to their on-board detection. I notably implemented tools allowing the precise comparison of different potential pixel array configurations taking into account the effects of the event reconstruction from the raw data coming from the readout electronics. This study highlighted the advantage of using hybrid arrays containing a small pixel sub-array capable of improving by an order of magnitude the count rate capability of the instrument. An alternative solution would consist in defocusing the mirror during the observation of bright point sources. Being a key component of the overall X-IFU performance, I also thoroughly compared different reconstruction methods of the pixel raw signal. This showed that with a minimal impact on the required on-board processing power, a significant improvement of the final energy resolution could be obtained from more sophisticated reconstruction methods. Taking into account the calibration constraints, the most promising candidate currently appears to be the so-called "resistance space analysis". Taking advantage of the obtained performance characterization of the different foreseen pixel types, I also developed a fast and modular simulation method of the complete instrument providing representative synthetic observations with long exposure times of complex astrophysical sources suffinguish different turbulence regimes in galaxy clusters and to measure abundance and temperature profiles. In the longer run, this simulator will be useful for the study of other scientific cases as well as the analysis of instrumental effects at the full detection plane level such as pixel crosstalk.
179

Modélisations et inversions des diagrammes de diffusion particulaire enregistrés par un photodétecteur organique conformable / Size distribution of particle systems analyzed with organic photodetectors

Sentis, Matthias 12 December 2014 (has links)
Dans le cadre d'un consortium entre centres de recherche publics et industriels, ce travail de thèse de doctorat s'est attaché à démontrer l'intérêt des détecteurs photo-organiques (OPS) pour la caractérisation des suspensions et écoulements diphasiques. Les principes de plusieurs granulomètres permettant la caractérisation de ces milieux lorsqu'ils sont confinés dans une cuve cylindrique transparente (configuration standard du Process Analytical Technology) ont été proposés. Pour évaluer et optimiser les performances de ces systèmes, un code de simulation de type Monte-Carlo a été spécifiquement développé. Ce dernier permet de prendre en compte les nombreux paramètres du problème comme le profil du faisceau laser, les différentes surfaces spéculaires composant le montage, la composition du milieu particulaire (concentration, diamètre moyen, écart-type, matériau,...), la forme et la position des OPS. Les propriétés de diffusion des particules sont traitées à l'aide des théories de Lorenz-Mie et de Debye, de même qu'un modèle hydride prenant en compte les contributions géométriques et physiques. Pour les milieux dilués (diffusion simple), l'analyse repose sur l'inversion des diagrammes de diffusion obtenus sur une large plage angulaire ou au voisinage de singularités optiques remarquables (arc-en-ciel, diffusion critique, diffraction). Pour les milieux denses (diffusion multiple), les pistes étudiées reposent sur l'analyse des caractéristiques de la tache de rétrodiffusion. / As part of a consortium between academic and industry, this PhD work investigates the interest and capabilities of organic photo-sensors (OPS) for the optical characterization of suspensions and two-phase flows. The principle of new optical particle sizing instruments is proposed to characterize particle systems confined in a cylinder glass (standard configuration for Process Analytical Technologies). To evaluate and optimize the performance of these systems, a Monte-Carlo model has been specifically developed. This model accounts for the numerous parameters of the system: laser beam profile, mirrors, lenses, sample cell, particle medium properties (concentration, mean & standard deviation, refractive indices), OPS shape and positions, etc. Light scattering by particles is treated either by using Lorenz-Mie theory, Debye, or a hybrid model (that takes into account the geometrical and physical contributions). For diluted media (single scattering), particle size analysis is based on the inversion of scattering diagrams obtained over a wide angular range or near optical singularities (rainbow, critical scattering, diffraction). For dense media (multiple scattering), the solutions foreseen are based on the analysis of the backscattering spotlight characteristics.
180

Simulation d’un accélérateur linéaire d’électrons à l’aide du code Monte-Carlo PENELOPE : métrologie des traitements stéréotaxiques par cônes et évaluation de l’algorithme eMC / Simulation of a linear accelerator with PENELOPE Monte Carlo code : stereotactic treatments metrology by cones and eMC algorithm assessment

Garnier, Nicolas 19 December 2018 (has links)
L’accélérateur linéaire d’électrons du Centre Hospitalier Princesse Grace a été simulé à l’aide du code Monte-Carlo PenEasy. Après avoir validé l’ensemble des techniques permettant d’accélérer le temps de calcul (réduction de variance, parallélisation, …), les caractéristiques des faisceaux initiaux d’électrons ont été déterminées pour une énergie photons et quatre énergies électrons afin d’étudier deux problématiques cliniques. La première concerne l’étude comparative des réponses de huit dosimètres pour la mesure des données de base en mini-faisceaux à l’aide de cônes stéréotaxiques de diamètres compris entre 30 mm et 4 mm. Ces faisceaux de photons sont caractérisés par de forts gradients de dose et un manque important d’équilibre électronique latéral, ce qui rend les techniques dosimétriques conventionnelles inadaptées. Des mesures de facteurs d’ouverture collimateur (FOC), de profil de dose et de rendement en profondeur ont été réalisées avec sept détecteurs actifs (diodes, chambres d’ionisations et MicroDiamond) et un détecteur passif (film radiochromique) et comparées avec les résultats issus de la simulation Monte-Carlo considérée comme notre référence. Pour la mesure du FOC, seul le film radiochromique est en accord avec la simulation avec des écarts inférieurs à 1 %. La MicroDiamond semble être le meilleur détecteur actif avec un écart maximal de 3,7 % pour le cône de 5 mm. Concernant les mesures de profils de dose, les meilleurs résultats ont été obtenus avec le film radiochromique et les diodes blindées ou non (écart de pénombre inférieur à 0,2 mm). Pour les rendements en profondeur, l’ensemble des détecteurs utilisés sont satisfaisants (écart de dose absorbée inférieur à 1 %). La deuxième application concerne l’évaluation de l’algorithme de dépôt de dose électron eMC sur des coupes scanographiques. Pour cela, un programme de « voxélisation » sous MATLAB a été développé afin de transformer les nombres Hounsfield issus du scanner en propriété de matériau (densité et composition chimique) utilisable par le code Monte-Carlo PenEasy. Une triple comparaison entre la mesure avec films radiochromiques, le calcul avec l’algorithme eMC et la simulation Monte-Carlo PenEasy a été réalisée dans différentes configurations : des fantômes hétérogènes simples (superposition de plaques de différentes densités), un fantôme hétérogène complexe (fantôme anthropomorphique) et une comparaison sur patient. Les résultats ont montré qu’une mauvaise affectation d’un matériau du milieu provoque un écart de dose absorbée localement (jusqu’à 16 %) mais aussi en aval de la simulation du fait d’une mauvaise prise en compte de la modification du spectre électronique. La comparaison des distributions de dose absorbée sur le plan patient a montré un très bon accord entre les résultats issus de l’algorithme eMC et ceux obtenus avec le code PenEasy (écart < 3 %). / Using the PenEasy Monte-Carlo code was simulated the linear electron accelerator of Princess Grace Hospital Center. After the validation of all the techniques allowing to accelerate the calculation time (variance reduction technique, parallelization, etc.), the characteristics of the initial electron beams were determined for one photon energy and four electron energies in order to study two clinical issues. The first one concerns the comparative study of the responses of eight dosimeters for the measurement of basic data in small fields using stereotactic cones with a diameter between 30 mm to 4 mm. These photon beams are characterized by strong dose gradients and a significant lack of charged particule equilibrium, making conventional dosimetric techniques unsuitable. Output factor measurment (OF), dose profile and depth dose measurements were performed with seven active detectors (diodes, ionization chambers and MicroDiamond) and a passive detector (radiochromic film) and compared with the results from the Monte Carlo simulation considered as our reference. For the OF measurement, only the radiochromic film is in agreement with the simulation with difference less than 1%. The MicroDiamond seems to be the best active detector with a maximum gap of 3.7% for the 5 mm cone. Concerning the dose profile measurements, the best results were obtained with the radiochromic film and diodes shielded or not (penumbre difference of less than 0,2 mm). For depth dose, all the detectors used have good result (absorbed dose difference less than 1 %). The second application concerns the evaluation of the eMC electron deposition algorithm on CT slices. For this, a « voxelisation » program under MATLAB was developed to transform the Hounsfield numbers from the scanner to material property (density and chemical composition) usable by the PenEasy Monte-Carlo code. A triple comparison between measurement with radiochromic films, calculation with the eMC algorithm and Monte-Carlo PenEasy simulation was carried out in different configurations: simple heterogeneous phantom (superposition of plates of different densities), a complex heterogeneous phantom (anthropomorphic phantom) and a patient comparison. The results showed that a wrong material assignment of the medium causes a difference of dose absorbed locally (up to 16%) but also downstream the simulation due to a wrong taking into account of the modification of the electronic spectrum. The absorbed dose distribution comparison on the patient plane showed a very good agreement between the results from the eMC algorithm and those obtained with the PenEasy code (deviation < 3%).

Page generated in 0.0676 seconds