• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 190
  • 71
  • 24
  • Tagged with
  • 278
  • 97
  • 84
  • 78
  • 44
  • 38
  • 37
  • 34
  • 34
  • 31
  • 28
  • 24
  • 22
  • 22
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Traitement sous rayonnement ionisant de mélanges amidon-lignine et de leurs modèles : étude et quantification des modifications induites. / Study and quantification of the effects induced by ionizing radiation on starch-lignin blends and their corresponding models.

Khandal, Dhriti 19 November 2012 (has links)
Cette travail été réalisée dans le cadre de la Projet LignoStarch ANR CP2D pour connaître les différents phénomènes induite par rayonnement ionisants dans les mélanges de l'amidon et lignine au niveau moléculaire. L'amidon peut être utilisé seul ou en combinaison avec d'autres composés pour élaborer des articles biodégradables à partir de ressources renouvelables. La lignine et ses dérivés sont bons candidats pour limiter la sensibilité d'eau des matériaux à base d'amidon, mais ils ne sont pas compatibles avec des polysaccharides. Le traitement sous faisceau d'électrons est proposé comme une méthode efficace pour induire les liaisons covalentes entre les deux constituants (amidon et lignine). En comparaison avec les mélanges de départ, les propriétés des mélanges irradiés montrent qu'il est possible d'ajuster les propriétés mécaniques du matériau final. Afin d'améliorer la compréhension et la maîtrise de ces effets de l'irradiation, une étude de mélanges modèles de maltodextrines et de divers alcools ou acides aromatiques a été réalisée. Les résultats montrent une compétition entre les phénomènes de dégradation par scission et le greffage. Les analyses par CES, RMN, et MALDI-TOF permettent de mettre en évidence et de quantifier les greffages consécutifs à l'irradiation. L'exploitation par la méthode statistique proposée par Saito des données relatives à l'évolution des masses molaires et des fractions de gel dans des mélanges à base de pullulane permet d'accéder à des grandeurs quantifiant l'efficacité des deux réactions en compétition. Ainsi, les rendements radiochimiques de coupure de chaine G(S) et de pontage G(X) ont pu être calculés pour différentes quantités d'alcool cinnamique introduites dans les mélanges. Les évolutions observées rendent bien compte de la formation de gel qui n'est observée qu'en présence d'une quantité minimale d'alcool aromatique, lorsque la condition G(s) < 4 G(x) est satisfaite. Mots Clés : Amidon, Lignine, Maltodextrine, Maltotriose, Pullulane, Composés Modèles de la Lignine (Additif Aromatiques), Scission, Réticulation, Greffage, Faisceau d'Electrons, Rendements Radiochimiques de Scission G(s) et Réticulation G(x), Méthode Saito, Méthode Charlesby-Pinner. / This work was part of the LignoStarch ANR CP2D Project aimed at understanding the radiation-induced processes and mechanisms in thermoplastic starch – lignin mixture at the molecular level. Starch has the advantage of being biodegradable and agriculture based renewable resource that can be converted into a thermoplastic material with or without any additive. Lignin and its derivatives are good candidates for reducing the water sensitivity of starch based materials; however being hydrophobic in nature they are not compatible with the polysaccharides. Electron Beam radiation has been proposed as an efficient method for modifying the starch lignin blends and creating covalent linkages between the two constituents for improved blend stability. Previous studies as part of the Project have shown that the mechanical properties of the irradiated blends can be positively modified by choosing an appropriate blend composition. For a better understanding of how the properties of the blend can be tailored, an understanding of the radiation-induced processes was carried out using model blends comprising maltodextrin and different aromatic compounds having structural features of lignin monomers. The blends were analyzed using SEC, NMR, and MALDI-TOF for placing in evidence the phenomenon of radiation-induced grafting to compete with chain scission in presence of the aromatic additives. The quantification of the radiochemical yields of scission G(s) and crosslinking G(x) were carried out using the blends of pullulan polysaccharide as a function of varying amounts of aromatic additive in the blend. The methods of calculation exploited here are based on the study of radiation-induced molecular mass changes before the formation of gel as proposed by Saito and the quantification of sol-gel content for formulations resulting in gel as proposed by the Charlesby-Pinner method. The condition of gel formation G(s) < 4 G(x) is found to be valid for a certain minimum quantity of aromatic additive for high applied doses.Keywords: Starch, Lignin, Maltodextrin, Pullulan, Lignin-like Monomers (Aromatic Additives), Scission, Crosslinking, Grafting, Electron Beam, Radiochemical yields of Scission G(s) and Crosslinking G(x), Saito Method, Charlesby-Pinner Method.
52

Mesure de luminescence induite par faisceaux d'ions lourds rapides résolue à l'echelle picoseconde / Measurement of picosecond time-resolved, swift heavy ion induced luminescence

Durantel, Florent 13 December 2018 (has links)
Nous avons travaillé sur le développement d’un instrument de mesure de la luminescence induite par un faisceau d’ions lourds (nucléons  12) et d’énergie de l’ordre du MeV/nucléons. Basé sur une méthode de comptage de photons uniques obtenus par coïncidences, le dispositif permet d’obtenir sur 16 voies à la fois un spectre en énergie dans le domaine proche UV-visible-proche IR (185-920 nm) et la réponse temporelle sur la gamme ns-µs, avec un échantillonnage de 100 ps. Des mesures en température peuvent être réalisées depuis la température ambiante jusqu’à 30K.Ce travail met particulièrement l’accent sur les méthodes d’extraction des données : Une fois montrée la nécessité de déconvoluer les signaux, on s’intéresse dans un premier temps à évaluer différents profils instrumentaux modélisés et reconstruit à partir de mesures. A cet effet, un travail de caractérisation temporelle de chaque constituant du dispositif est mené. Puis ces profils instrumentaux sont utilisés dans deux méthodes de déconvolution par moindres carrés d’abord puis par maximum d’entropie ensuite.Deux matériaux types sont testés : Le Titanate de Strontium pour l’étude de la dynamique de l’excitation électronique, et un scintillateur plastique commercial, le BC400, pour l’étude du vieillissement et de la baisse des performances en fonction de la fluence. Dans les deux cas on a pu mettre en évidence la présence d’une composante ultra rapide de constante de temps subnanoseconde. / We developed an instrument for measuring the luminescence induced by a heavy ion beam (nucleons  12) and energy in the range of MeV / nucleon. Based on a single photon counting method obtained by coincidences, the device can provide in the same run a 16-channel energy spectrum in the UV-visible- IR region (185-920 nm) and a time-resolved response in the range of ns up to µs for each channel. Temperature measurements can be performed from room temperature down to 30K.This work places particular emphasis on data extraction methods: Once the need to deconvolve the signals demonstrated the evaluation of different instrument profiles (simulated and reconstructed from measurements) leads to a systematic temporal characterization of each component of the device. Then, these instrumental profiles are used in two deconvolution methods: least squares first followed by maximum entropy method.Two typical materials are tested: the Strontium Titanate for the study of the dynamics of the electronic excitation, and a commercial scintillator, the BC400, for the study of the aging and the decrease of performances with fluence. In both cases, we have been able to highlight the presence of an ultrafast component of subnanosecond time constant.
53

Design of non-invasive profile monitors for the ESS proton beam / Conception de profileurs non invasifs pour le faisceau de protons de ESS

Benedetti, Florian 23 September 2019 (has links)
La source européenne de spallation (ESS) sera une infrastructure de recherche dévolue aux sciences utilisant les neutrons comme sonde d’observation. Elle est actuellement en construction à Lund, en Suède, et sera la plus brillante des sources de neutrons pulsées au monde. Comme son nom l'indique, la production des neutrons est assurée par les processus de spallation : des protons à haute énergie bombardant une cible de tungstène. Le faisceau de protons est généré par un puissant accélérateur linéaire de 2 GeV qui peut être divisé en deux parties : une partie "chaude" qui accélère les protons jusqu'à 90 MeV, suivie d’une partie « froide » constituée de cavités supraconductrices refroidies à l'hélium liquide, permettant d’atteindre les 2 GeV. La forte intensité de 62.5 mA et la longue impulsion de 2,86 ms répétée 14 fois par seconde, conduisent à une puissance moyenne de faisceau de 5 MW et une puissance crête de 125 MW. La connaissance du faisceau est donc indispensable pour la mise en service, c'est-à-dire le réglage du faisceau afin d'assurer un fonctionnement correct et sûr de la machine. Différents diagnostics seront installés le long de l'accélérateur pour remplir ces tâches.Cette thèse traite du développement d'un profileur transverse non invasif pour la partie froide de l’accélérateur de ESS : les Ionization Profile Monitors (IPM). La thèse se concentre sur les aspects critiques des IPM afin de s’assurer de leur faisabilité dans les conditions du faisceau de ESS. Ces moniteurs sont basés sur l’ionisation induite par le passage des protons du gaz résiduel présent dans le tube de l’accélérateur. Un champ électrique est appliqué entre deux plaques parallèles de l'IPM. Les électrons ou les ions dérivent vers un détecteur segmenté permettant de reconstruire le profil dans une direction transverse du faisceau.Plusieurs défis, qui auraient pu compromettre l’utilisation des IPM pour les mesures des profils de faisceau à ESS, sont décrits :• Les faibles taux de comptage dus aux faibles sections efficaces d'ionisation à haute énergie (90 à 2000 MeV) ainsi qu’aux basses pressions du gaz résiduel de l’ordre de 10-9 mbar,• L'homogénéité du champ électrique à l'intérieur de l'IPM, essentiel pour assurer des mesures de profils précises mais difficile pour les chambres à vide étriquées des IPM,• L’importante charge d'espace du faisceau, qui distord le profil mesuré en déviant lestrajectoires des produits d'ionisation. Cet aspect fondamental peut remettre en cause l’utilisation d’IPM pour faire des mesures fiables de profil de faisceau.Une fois ces études terminées, nous avons sélectionné trois systèmes de lecture fiables, basés sur :• des pistes conductrices lues par un intégrateur de charge multicanal,• des détecteurs à micro-canaux couplés à un écran phosphore (pMCP),• un détecteur de silicium développé au CERN, et utilisé en particulier pour le futur profileur du faisceau du PS.Ces études ont fait l’objet d’une Revue de Conception Préliminaire (PDR 2017/01) marquant le début de la construction des différents prototypes. Les tests préliminaires ont écarté la possibilité d'utiliser des détecteurs au silicium en raison des trop faibles énergies des ions incidents.En partant de zéro, des IPM, des moniteurs de référence et un banc d’essai ont été conçus et installés sur l’accélérateur de protons IPHI à Saclay. Les conditions expérimentales de ESS ont été reproduites afin de valider une solution pour les IPM, ainsi que tester nos modèles.Les campagnes de test ont montré qu'un MCP était nécessaire pour détecter le signal d’ionisation. De plus, l'IPM optique (pMCP + caméra) est la solution recommandée car elle offre une sensibilité plus élevée. Le retour d’expérience accumulé lors des tests des prototypes, nous a permis de proposer une conception quasi finale d’un IPM, présentée lors de la Revue Critique de Conception (CDR 2019/02), menant au début de la phase de production. / The European Spallation Source (ESS) will be a research infrastructure dedicated to sciences using neutrons as probes. The source is currently under construction in Lund, Sweden, and will be the world’s brightest pulsed source of neutrons. As its name suggests, the production of neutrons is ensured by the spallation process: high energy protons will impinge a tungsten target. To accelerate the protons, a powerful 2 GeV linear accelerator is being built. The accelerator can be split in two parts. A “hot” part is responsible for acceleration up to 90 MeV. Then a “cold” part made of superconducting cavities cooled with liquid helium is used to reach the highest energies. The high intensity of 62.5 mA and he long pulse of 2.86 ms repeated 14 times per second, lead to an incredible beam power of 5 MW in average and 125 MW in peak. The knowledge of the beam is therefore mandatory to ensure the commissioning, i.e. the beam tuning in order to achieve a proper and safe functioning of the machine. Different diagnostics will be installed along the accelerator to fulfil these tasks.This thesis deals with the development of a non-invasive transverse profiler for the cold part of the ESS accelerator: the Ionization Profile Monitor (IPM).The thesis focuses on critical aspects of the IPMs to guarantee its feasibility in ESS beam conditions. These monitors are based on the ionization of the residual gas induced by the proton beam inside the beam pipe. A transverse electrical field is generated between both parallel plates of the IPM. The electrons or ions drift, with respect to the electric field, towards a segmented detector allowing the reconstruction of the beam profile in one transverse direction. For a complete transverse profile, it is necessary to add a second profiler tilted by 90°.Several challenges for facing IPM to the ESS conditions, which may compromise their use, are described:• the weak counting rates due to the low ionization cross-sections at high energy (90 to 2000 MeV) and to the low residual gas pressure of 10-9 mbar,• the electric field homogeneity inside the IPM, which is relevant for insuring a precise profile measurement, was not obvious in the narrow vacuum chambers devoted to them,• the large Space Charge Effect of the beam, distorting the measured profile by deviating the ionization by-product trajectories. This fundamental aspect may compromise the use of an IPM for beam profile measurements.Once these former studies done, we selected the three reliable read-out systems based on:• conductive strips read by a multichannel charge integrator,• micro-channel plates coupled with phosphor screen (pMCP),• a silicon detector developed at CERN and foreseen for the future PS beam profiler.This work was the object of the Preliminary Design Review (PDR 2017/01) marking the beginning of the construction phase of the different prototypes. Preliminary tests discarded the possibility of using silicon detectors due to the low ion energies.Starting from scratch, IPMs, reference monitors and a test bench were designed and installed at the IPHI proton accelerator at Saclay. Close ESS conditions were achieved to validate an IPM solution and our simulations.The test campaigns showed that an MCP is mandatory to detect signal. Moreover, the optical IPM (pMCP + Camera) is the preferred solution since it provides higher sensitivity. Feedbacks from the prototype test campaigns, allows us to deliver an IPM final design presented during the Critical Design Review (CDR 2019/02) leading to the beginning of the production phase.
54

Oxygen effect in medical ion beam radiation combined with nanoparticles / Effet de l’oxygène dans l'irradiation par des ions médicaux combinés avec des nanoparticules

Bolsa Ferruz, Marta 18 December 2017 (has links)
Environ 50% des patients recevant un traitement contre le cancer bénéficient de la radiothérapie. La radiothérapie conventionnelle consiste à utiliser des rayons X de haute énergie capables de traverser les tissus et de traiter des tumeurs situées en profondeur de façon non-invasive. Malheureusement, les rayons X ne font pas la distinction entre les tumeurs et les tissus sains, qui peuvent donc être endommagés. Cette non-sélectivité est à l’origine de graves effets secondaires, voire du développement de cancers secondaires. Par conséquent, l’amplification des effets radiatifs au sein de la tumeur par rapport aux tissus environnants représente un défi majeur.L’hadronthérapie (traitement par faisceaux de protons ou d’ions carbone) est considérée comme l’une des techniques les plus prometteuses car, contrairement aux rayons X, la quantité d’énergie déposée atteint son maximum en fin de trajectoire. Lorsque le faisceau est réglé de manière à ce que ce maximum atteigne la tumeur, aucun dommage n’est causé aux tissus situés au-delà. Un autre avantage majeur est que les ions lourds sont plus efficaces pour traiter les tumeurs radiorésistantes. L’utilisation de cette technique est cependant restreinte du fait des dommages – plus faibles mais néanmoins significatifs – causés aux tissus normaux situés sur la trajectoire du faisceau d’ions en amont de la tumeur. Afin d’améliorer les performances de l’hadronthérapie, l’équipe a développé à l’ISMO une nouvelle stratégie combinant l’utilisation de nanoparticules (NPs) métalliques avec l’irradiation par faisceaux d’ions. L’utilisation de NPs a pour but non seulement d’amplifier les effets des rayonnements dans la tumeur mais également d’améliorer l'imagerie médicale à l’aide des mêmes agents (théranostic). Les NPs possèdent une chimie de surface permettant leur fonctionnalisation avec des ligands capable d’améliorer la biocompatibilité, la stabilité ainsi que la circulation sanguine et l’accumulation dans la tumeur. L’équipe a déjà démontré que les petites NPs d’or et de platine (≈ 3 nm) avaient la capacité d’amplifier les effets causés par les faisceaux d’ions carbone médicaux en présence d’oxygène. Cependant, les tumeurs radiorésistantes sont susceptibles de contenir des régions hypoxiques. Il est donc urgent de quantifier et de caractériser l’influence de l’oxygène sur l’effet radio-amplificateur. Le but de ma thèse était d’étudier l’influence de l’oxygène lors d’irradiations par des faisceaux d’ions médicaux en présence de NPs d’or et de platine. Pour cela, deux lignes de cellules cancéreuses humaines radiorésistantes ont été testées: HeLa (col de l’utérus) et BxPC-3 (pancréas). Plusieurs techniques d’irradiation ont été utilisées : des faisceaux d’ions carbone et hélium générés par « passive scattering » et des faisceaux d’ions carbone générés par « pencil beam scanning ». Les principaux résultats de cette étude sont les suivants. En condition oxique (concentration d’O₂ = 20%), une amplification des effets radiatifs a été observée pour les deux types de NPs (à concentration de métal égale). Ce phénomène se réduit à mesure que la concentration d’oxygène diminue mais reste significatif jusqu’à 0.5%. Aucune différence significative n’a été observée entre les deux lignes cellulaires. Il est intéressant de noter que la dépendance à l’oxygène varie en fonction de la technique d’irradiation utilisée. Une tentative d’explication de l’influence de l’oxygène par des processus moléculaires est proposée. Des perspectives de développements ultérieurs sont suggérées. / About 50% of the cancer patients who are treated benefit from radiation therapy. Conventional radiotherapy consists of high energy X-rays traveling through the tissues, so that deeply sited tumors are treated in a non-invasive way. Unfortunately, X-rays are not tumor selective and healthy tissues may be damaged. This lack of selectivity is responsible for severe side effects and/or secondary cancers. Hence, improving the differential of radiation effects between the tumor and surrounding tissues remains a major challenge. Particle therapy (treatment by protons or carbon ion beams) is considered as one of the most promising technique because, by opposition to X-rays, the energy deposition of ions is maximum at the end of their tracks. When the beam is tuned so that the maximum reaches the tumor, there is no damage induced in tissues siting after the tumor. Another important added value is that heavy ions are more efficient to treat radioresistant tumors. The use of this modality is however restricted by the low but significant damage that is induced to normal tissues located at the entrance of the track prior to reaching the tumor. To improve the performance of particle therapy, a new strategy based on the combination of high-Z nanoparticles with ion beam radiation has been developed by the group at ISMO. This approach aims at using nano-agents not only to increase radiation effects in the tumor but also to improve medical imaging with the same agent (theranostic). Nanoparticles present a remarkable surface chemistry, which allows functionalization with ligands able to improve biocompatibility, stability as well as blood circulation and accumulation in tumors. The group already demonstrated the efficiency of small (≈ 3 nm) gold and platinum nanoparticles to amplify the effects of medical carbon ions in normoxic conditions (in the presence of oxygen). However, radioresistant tumors may host hypoxic regions. It is thus urgent to quantify and characterize the influence of oxygen on the radio-enhancement effect. The goal of my thesis was to study the influence of oxygen on medical ion radiation effects in the presence of gold and platinum nanoparticles. This was performed using two radioresistant human cancer cell lines: HeLa (uterine cervix) and BxPC-3 (pancreas). Different radiation modalities were used: carbon and helium ion beams delivered by a passive scattering delivery system and carbon ion beams delivered by a pencil beam scanning system. The major results of this work are the following. In oxic conditions (O₂ concentration = 20%), an enhancement of ion radiation effects was observed for the two nanoparticles (at the same concentration in metal). This effect decreased with the oxygen concentration but remained significant for a concentration of 0.5%. No significant difference was found between the cell lines. Interestingly, the oxygen-dependence varied with the type of radiation. An attempt to explain the effect of oxygen by molecular processes is proposed. Perspectives of further developments are suggested.
55

Klystrons et IOTs multifaisceaux à fort rendement / High efficient multi-beam klystrons and IOTs

Vuillemin, Quentin 28 August 2017 (has links)
La consommation d'énergie est au centre de nos préoccupations. Quelle qu'en soit la raison, économique, écologique, ou politique, ce problème est aujourd'hui au coeur de notresociété.L'objectif de cette thèse est de proposer un moyen de réduire le coût énergétique de composants spécifiques: les klystrons et les klystrodes, appelées aussi IOTs pour Inductive Output Tubes. Ces composants sont des amplificateurs utilisés comme source de haute puissance RF (Radio-Fréquence). Ces tubes existent sous plusieurs formes mais l'état de l'art, en matière de consommation d'énergie, sont les tubes multi-faisceaux. Nous nous fixons donc comme objectif d'améliorer ces klystrons et IOTs multi-faisceaux : les MBKs et MBIOTs. Cette thèse s'inscrit dans le contexte d'amélioration des accélérateurs de particules, par le biais d'une meilleure production des ondes radiofréquence; plus particulièrement en améliorant le rendement des tubes. Améliorer le rendement signifie simplement diminuer l'écart entre l'énergie fournie pour générer les ondes radios et l'énergie effectivement produite etutilisée dans les accélérateurs. Afin d’atteindre cet objectif, la thèse décrit une nouvelle méthode d’analyse des données des simulations (le diagramme de dispersion de vitesse), explique les étapes de conception d’un tube, et approfondit théoriquement la dynamique des électrons et les structures liées au haut rendement. / Nowadays, energy consumption is a capital issue. It is a central problematic in our society for economical, ecological or politicalreasons.The aim of this thesis is to study ways to lower energical costs of specific components : klystrons and klystrodes, also known as IOTs (Inductive Output Tubes). Those components are amplifiers which are used as RF (Radio Frequency) sources in particle accelerators.Various forms of those tubes exist, however themulti-beam tubes are the state of the art regarding energy consumption. Thus, we focus on enhancing the efficiency of multi-beam klystrons and IOTs : the MBKs and MBIOTs.As a result, this thesis is part of the effort to decrease the costs of particle accelerators, by better producing RF waves; and more specifically enhancing the efficiency of tubes.This simply means lowering the gap between the energy needed to produce RF waves and the energy used in accelerators.In order to fulfill this task, the thesis describes a new method to analyse simulated data (the velocity dispersion diagram), explains the steps to develop a tube, and study theoretically beam dynamics and structures in order to reach high efficiency.
56

Développement d'un outil de simulation par Monte Carlo du rayonnement diffusé en tomodensitométrie

Saucier, Marie Annie 25 September 2018 (has links)
L’objectif de ce projet est de créer un programme logiciel permettant de corriger le rayonnement diffusé dans une acquisition tomodensitométrique à géométrie conique. Pour ce faire, une simulation Monte Carlo est utilisée pour estimer le rayonnement diffusé, ce qui consiste à reproduire numériquement un examen en tomodensitométrie. Ce projet a été divisé en deux sections : la validation de la physique pour ce programme spécifique et le développement logiciel du programme. La validation consistait à reproduire les résultats obtenus avec Geant4 avec GPUMCD. Geant4, la plateforme de référence, et GPUMCD, la plateforme à l’étude, sont deux librairies logicielles pour la simulation numérique du transport de particules à travers la matière utilisant les calculs Monte Carlo. Les éléments étudiés sont les sections efficaces, les matériaux, l’algorithme de diffusion Rayleigh et l’algorithme de diffusion Compton. Bien que quelques erreurs persistent dans la physique de GPUMCD, une nette amélioration des résultats entre GPUMCD et Geant4 a été obtenue. La différence entre les deux simulations qui était supérieure à 100% pour une géométrie complexe est passée sous la barre du 10%. De plus, il a été possible d’identifier quelques autres causes telles qu’une différence dans la définition des modèles physiques, et ce, plus précisément dans l’algorithme de diffusion Compton. En ce qui concerne la seconde partie du projet, bien que la correction n’a pu être effectuée pour une reconstruction, tous les éléments ont été implémentés pour estimer le rayonnement diffusé pour une géométrie de patient provenant de données cliniques d’une reconstruction tomodensitométrique. Les paramètres et les stratégies étudiés dans le but d’optimiser le temps de calculs tout en conservant la justesse des résultats sont : le traçage de rayons, le lissage gaussien du rayonnement diffusé, la réduction du nombre de pixels sur le détecteur, l’interpolation des projections, la symétrie et la réduction de nombre de voxels dans le patient. De plus, en considérant une correction de haute qualité, soit 2% d’erreur et moins par stratégie implémentée, on obtient un temps de simulation de moins de 2 minutes sur une GPU Nvidia Titan X. Pour une simulation dite de basse qualité, soit 5% d’erreur et moins par stratégie implémentée, on obtient un temps d’exécution de moins de 15 s par simulation. Cela correspond à des temps cliniquement acceptables si le patient doit attendre sur la table. / The goal of this project is to develop an application to correct the scattered radiation in a cone beam computed tomography scan (CBCT). A Monte Carlo simulation is used to estimate the scattered radiation which is a numerical replication of a CBCT acquisition. This project has been divided into two sections : the validation of the physics for this specific application and the development of the application. The validation consisted in reproducing the results obtained with Geant4 in GPUMCD. Geant4 is the reference platform and GPUMCD is the platform studied. Both are Monte Carlo simulators of the passage of particles through matter.The elements studied are the cross sections, the materials, the Rayleigh scattering algorithm and the Compton scattering algorithm. Although some errors are still present, a great improvement of the results between GPUMCD and Geant4 was obtained. The difference between the two simulations was greater than 100 % for complex geometries and dropped below 10% after corrections of the physics. In addition, it was possible to identify some other problems such as a theoretical difference in the Compton scattering algorithms. Regarding the second part of the project, although the correction could not be implemented in a reconstruction, all elements are present to estimate the scattered radiation for an actual CBCT reconstruction. The parameters and strategies studied in order to optimize the computation time while maintaining the accuracy of the results are : ray tracing, Gaussian smoothing of scattered radiation, reduction of the number of pixels on the detector, interpolation of between the simulated projections, symmetry and reduction of number of voxels in the patient. In addition, considering a correction of high quality is 2 % error and less per implemented strategy, a simulation time of less than 2 minutes is obtained. For a low quality simulation (5% error and less per parameter), a simulation time of less than 15 seconds per simulation was obtained. Those are clinically acceptable simulation times.
57

Implantation d'un algorithme de reconstruction itératif 4D en tomodensitométrie à faisceau conique

Mascolo-Fortin, Julia 24 April 2018 (has links)
La tomodensitométrie avec faisceau conique (CBCT) est actuellement utilisée en radiothérapie externe pour visualiser le patient dans la salle de traitement. Le mouvement respiratoire des patients y est encore difficilement pris en compte et des avancées sur le sujet pourraient améliorer la précision des traitements. En ce sens, l’obtention d’une séquence imageant les mouvements dans la région d’intérêt serait souhaitable. Ce mémoire présente le développement d’un algorithme de reconstruction 4D pour CBCT qui tente de répondre à certains besoins cliniques, soit l’obtention d’une qualité d’image suffisante, une facilité de mise en place clinique et une rapidité de calcul. L’algorithme 4D développé se base sur l’algorithme itératif convexe avec sous-ensembles ordonnés et régularisation de variation totale. Cette méthode a été choisie pour sa rapidité d’exécution, procurée par l’utilisation de sous-ensembles et la parallélisation des calculs sur carte graphique, et pour sa capacité à diminuer les artéfacts de rayons, communs en imagerie 4D, procurée par la régularisation de variation totale. La méthode développée pour obtenir une image 4D à partir d’acquisitions CBCT standards a fait appel à l’algorithme Amsterdam Shroud pour déduire le mouvement respiratoire de l’ensemble de projections CBCT. Elle a été validée sur un fantôme numérique et sur des acquisitions cliniques. Les résultats obtenus démontrent le potentiel de l’algorithme, puisqu’une image de résolution spatiale et temporelle satisfaisante a été reconstruite en moins de 5 minutes. Un tel temps de calcul se compare avantageusement à d’autres méthodes disponibles et ouvre la porte à une visualisation rapide du mouvement respiratoire en salle de traitement. / Cone beam computed tomography (CBCT) is currently used to visualize patients directly in the treatment room. However, the respiratory movement is still hardly taken into account and new developments could improve the precision of treatment. To this end, obtaining a film imaging movements in the region of interest would be beneficial. This master’s thesis presents the development of a reconstruction algorithm for 4D CBCT which seeks to respond to particular clinical needs, namely sufficient image quality, clinical implementation simplicity and high computational speed. The developed 4D algorithm is based on the ordered subsets convex iterative algorithm combined with the total variation minimization regularization technique. This method was chosen for its fast execution time, enabled by the use of subsets and the parallelization on GPU, and for its capability to reduce streaking artifacts, common on 4D imaging, enabled by the total variation regularization. The method developed to reconstruct a 4D image from standard CBCT scans employed the Amsterdam Shroud algorithm to deduce respiratory movement of a CBCT projections’ set. Its validation was performed on a numerical phantom and on clinical datasets. Results demonstrate the potential of the algorithm, since an image with sufficient spatial and temporal resolution was reconstructed in less than 5 minutes. Such computational times can be compared favorably with other available methods and could allow for online applications.
58

Évaluation rétrospective des bénéfices de la radiothérapie adaptative pour les cancers ORL

Airouss, Zouhair 16 January 2024 (has links)
Titre de l'écran-titre (visionné le 11 janvier 2024) / L'objectif de ce projet de maîtrise était d'évaluer la précision et la faisabilité de la dosimétrie basée sur la tomographie par faisceau conique (CBCT) dans la replanification des traitements en radiothérapie pour des patients atteints de cancers de la tête et du cou (ORL). Une étude rétrospective a été menée sur 20 patients replanifiés pour comparer la distribution de dose basée sur CBCT à celle du TDM. Les résultats montrent que la CBCT offre une précision similaire au TDM, avec une différence maximale de 2.2% pour le D98% au niveau du volume cible prévisionnel (PTV). Des algorithmes d'auto-segmentation et de recalage déformable (ANACONDA de RayStation et Limbus basé sur l'apprentissage profond) ont également été évalués pour leur performance en segmentation. Les résultats ont montré une haute similarité entre les auto-contours et les contours manuels, bien que certaines structures, comme l'œsophage et le larynx, nécessitent une vérification systématique. Nous avons également mis en évidence l'importance de la replanification en montrant des variations significatives en termes de couverture de dose dans différentes régions d'intérêt. Un seuil d'action basé sur la variation de D98% a été proposé pour guider la replanification. Ce seuil, ayant une spécificité de 0.9 mais une sensibilité de 0.684, nécessite une validation supplémentaire. Ce travail souligne l'importance de la replanification dans le traitement en radiothérapie et propose la CBCT comme une alternative viable pour la surveillance et l'ajustement du traitement.
59

L'utilisation du recalage déformable d'images CT sur CBCT dans le but de générer des contours du jour et d'améliorer le cumul de dose avec image du jour

Fillion, Olivier 24 April 2018 (has links)
Ce projet de maitrise concerne l'utilisation du recalage déformable pour la déformation des contours et la déformation des distributions de dose. Son but est d'étudier la possibilité de générer automatiquement des contours du jour par recalage déformable et de proposer une nouvelle méthode pour cumuler les doses sur l'ensemble d'un traitement de radiothérapie. La méthode consiste à recaler l'image CT, qui permet de faire des calculs de dose, sur l'image CBCT, qui montre l'anatomie du jour, dans le but d'améliorer les suivis de patients. Pour évaluer la possibilité d'utiliser cette méthode, le projet est divisé en trois parties, centrées autour de cas de cancer de la prostate. Premièrement, on caractérise les recalages déformables provenant du logiciel Elastix en utilisant les images d'un fantôme anthropomorphique. Les calculs de dose sur ces images montrent que la méthode permettrait de calculer précisément des doses sur image du jour. Deuxièmement, on quantifie la précision de la déformation de contours avec le logiciel OnQ rts. La précision est évaluée en comparant les contours recalés aux contours tracés manuellement à l'aide de métriques de similarité. Cette étude montre que les contours produits par recalage déformable doivent être corrigés par la suite pour améliorer leur précision. De plus, la combinaison de l'indice d'inclusivité et des contours comme la prostate et le contour externe du corps permettent d'évaluer avec le plus de précision les déformations anatomiques. Troisièmement, on démontre la faisabilité de déformer les doses du jour de manière à les cumuler à l'aide du logiciel Elastix. Le principal défi pour bien déterminer les écarts de dose en clinique serait de bien caractériser la précision des recalages des organes à risque, puisqu'ils sont situés près des régions de haut gradient de dose. Dans le futur, cette technique pourrait être utilisée si la qualité des recalages est bien contrôlée.
60

Développement et caractérisation d'un matériau en bois densifié en surface par imprégnation de monomères acrylates et polymérisation in-situ par faisceaux d'électrons

Triquet, Juliette 05 March 2023 (has links)
Enraciné dans l'histoire, le bois est aussi un matériau d'avenir. Sa résistance et ses propriétés mécaniques remarquables par rapport à sa densité en font un matériau très intéressant pour la construction. D'autre part son utilisation permet de réduire l'empreinte environnementale des bâtiments. Cependant, pour certaines applications d'apparence, sa dureté constitue un frein à son utilisation dans les projets de construction non résidentiels. La densification du bois par imprégnation de monomères et leur polymérisation in-situ permet d'améliorer sa dureté. Parmi les systèmes, les monomères acrylates polymérisés par faisceaux d'électrons présentent de nombreux avantages comme la polymérisation instantanée en profondeur et à température ambiante. L'utilisation du procédé est malheureusement limitée compte tenu des coûts élevés de matières premières. Dans le cadre de ce projet, on souhaite développer un nouveau matériau en bois densifié en surface par imprégnation de monomères acrylates et leur polymérisation in-situ par faisceaux d'électrons. Dans un premier temps une méthode d'analyse de la dureté du bois densifié en fonction de la composition du matériau est proposée et permet de comparer les performances de différents mélanges de monomères. Par la suite, un nouveau matériau densifié en surface par imprégnation unilatérale a été développé et a montré une amélioration significative de la dureté du bouleau jaune (Betula alleghaniensis, Britt.), de l'érable à sucre (Acer saccharum, Marsh.) et du chêne rouge (Quercus rubra, L.) grâce à un profil de densité asymétrique. La faisabilité du procédé pour la fabrication de couvre-planchers d'ingénierie préfinis densifiés en surface a été démontrée. Le procédé a permis d'améliorer non seulement la dureté, mais aussi l'adhérence du revêtement photopolymérisable. Finalement, l'effet des faisceaux d'électrons et de la dose sur le bois, le polymère in-situ et le bois densifié en surface a été étudié et a permis de déterminer la dose optimale pour augmenter la dureté sans endommager le bois. Le développement d'un tel procédé et la démonstration de ses performances dans le cadre de son utilisation en couvre-planchers d'ingénierie constitue la nouveauté de ce travail et une innovation majeure dans le domaine. / Invented billion years ago by nature, wood is still a revolutionary material. Its mechanical properties and remarkable resistance compared to its density make it a very interesting material as a building component and its use may reduce the environmental footprint of buildings. However, its hardness remains an obstacle to its use in non-residential construction projects for certain appearance applications. Processes such as densification through impregnation of monomers and their in-situ polymerization increases its density and hardness. Electron beam cured acrylates have many advantages as densification system, such as instantaneous curing deep inside the wood and at room temperature. However, the use of this process is limited given the high costs of raw materials due to impregnation. The aim of this project is to develop a new wood material densified by impregnation of acrylate monomers and their in-situ polymerization through electron beam irradiation. First, a statistical approach to analyze hardness of densified wood as a function of the material's composition is proposed and allows to compare the performance of different mixtures of monomers. Subsequently, a new surface densified material prepared by unilateral impregnation was developed and showed significant hardness improvements for yellow birch (Betula alleghaniensis, Britt.), sugar maple (Acer saccharum, Marsh.) and red oak (Quercus rubra, L.). The feasibility and efficiency of the process to improve hardness of prefinished engineered wood flooring has been demonstrated and also showed increased adhesion strength of UV-cured coating. Finally, the effect of electron beam on wood, in-situ polymer and surface densified wood allowed to establish the optimal dose to increase the hardness without damaging the wood. The development of such a process and the demonstration of its performances in the context of its use for engineered wood flooring constitutes the novelty of this work and is a major innovation in the field.

Page generated in 0.047 seconds