• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 81
  • 30
  • 3
  • Tagged with
  • 115
  • 115
  • 115
  • 31
  • 23
  • 22
  • 22
  • 16
  • 14
  • 13
  • 13
  • 12
  • 12
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Amélioration du calcul de dose TG-43 en curiethérapie à bas débit par un algorithme de dose primaire et diffusée sur processeur graphique

Bourque, Alexandre 19 April 2018 (has links)
Les calculs de dose en curiethérapie à bas débit reposent depuis 1995 sur un formalisme qui considère le milieu irradié comme étant homogène et constitué d’eau afin de mieux accommoder les temps de calcul clinique. Ce travail présente une amélioration de ce formalisme dosimétrique issu du protocole TG-43 de l’AAPM (American Association of Physicists in Medicine), utilisé actuellement dans les systèmes de planification de traitement (SPT) clinique. Avec l’ajout d’un tracé radiologique pour tenir compte des hétérogénéités et en séparant la dose primaire de la dose diffusée, il est possible de raffiner les calculs dosimétriques. Or, cette modification au calcul le rendant plus complexe était coûteuse en temps d’exécution jusqu’à très récemment. Elle se voit matérialisée dans ce travail avec l’arrivée récente de la technologie GPGPU, les calculs scientifiques sur périphériques graphiques. En exploitant le parallélisme des calculs de dose en curiethérapie à bas débit pour les implants permanents, l’algorithme baptisé TG-43-RT pour TG-43 avec tracé de rayons (Ray-Tracing en anglais) permet d’obtenir des facteurs d’accélération de l’ordre de 103 par rapport au CPU. Seulement 0.5 s par source est requis dans une géométrie de 1003 voxels, et les dosimétries d’anatomies hétérogènes sont sensiblement améliorées. Le TG-43-RT corrige les dépôts de dose en aval des hétérogénéités et réduit les effets indésirables de l’atténuation inter-sources. Des écarts de dose de plus de 80% au-delà d’une calcification avaient de quoi influencer les HDV, or, le TG-43-RT ramène ces déviations en-deçà de l’incertitude de 8.7% (2σ) concédée par les SPT, tel qu’établi dans le TG-138. Les simulations Monte Carlo ont été employées pour servir de référence absolue à la méthode développée et quantifier les améliorations dosimétriques relatives à l’actuel calcul de dose. L’algorithme a été testé d’un point de vue clinique dans un fantôme de prostate avec des sources d’125I et dans un fantôme de sein avec des sources de 103Pd pour unifier les corrections apportées. / Brachytherapy dose calculations have been relying since 1995 on a formalism that considers the whole geometry as a homogeneous water tank. This gives the opportunity to compute dose distributions within a reasonable clinical timeframe, but with considerable approximations that can influence or even change the treatment. This work presents an upgraded version of this formalism derived from the TG-43 protocol (AAPM), currently used in actual treatment planning systems. The new algorithm includes a primary and scatter dose separation using ray-tracing operation to account for heterogeneities through the medium. These modifications to the dose calculation are very power consuming and too long for the clinical needs when executed on modern CPUs. With the GPGPU technology, a GPU-driven algorithm allows a complex handling of the anatomic heterogeneities in the dose calculation and keeps execution times below 0.5 s/seed. The algorithm was named TG-43-RT for TG-43 with Ray-Tracing and accelerations factors of three order of magnitude were obtained over a regular CPU implementation. The TG-43-RT algorithm adequatly corrects dose deposition along heterogeneities and it reduces interseed attenuation effects. Dose is scored in the medium instead of water, which also applies a severe correction for high heterogeneous medium like the breast. Deviations of more than 80% in dose deposition were obtained over calcification inside the prostate when compared to Monte Carlo simulations. This kind of deviation influences DVH shape. However, the TG-43-RT was keeping those deviations within the 8.7% uncertainty range (2σ) associated with a regular TG-43 evaluation as stated in the TG-138. Monte Carlo simulations were used as a gold standard to get an absolute dose calculation reference. The algorithm was also tested in a prostate phantom with 125I seeds and in a breast phantom with 103Pd seeds to mimic real anatomic geometries and unify the applied corrections.
52

Élaboration des éléments d'une simulation Monte Carlo permettant l'évaluation d'une planification de traitement en radiothérapie externe : compression d'images DICOM à l'aide d'un octree et modélisation de la tête d'un accélérateur linéaire

Hubert-Tremblay, Vincent 11 April 2018 (has links)
L'objectif de ce travail est de développer deux modules pour créer une simulation Monte Carlo ayant comme objectif futur de calculer les doses de radiation d'un traitement en radiothérapie externe. Le premier module permet de lire, modéliser et réduire le nombre de voxels présent dans une série d'images médicales de type DICOM. La réduction doit se faire tout en gardant les informations essentielles pour une simulation Monte Carlo. Un algorithme a été développé pour appliquer une compression de type octree à la distribution des densités électroniques recueillies dans les images de tomodensitométrie. L'image résultante possède ainsi une certaine anisotropie au niveau de la résolution. Des résultats obtenus, la réduction du nombre total de voxels atteinte est de l'ordre de 75% de la taille initiale. Les simulations Monte Carlo démontrent qu'aucune information dosimétrique n'est perdue après la transformation. L'efficacité de la simulation se trouve améliorée tant au niveau de sa rapidité que de son utilisation de la mémoire. Le second module développé est un modèle d'accélérateur linéaire de type Primus (Siemens). Ce modèle permet d'obtenir des distributions de doses pour deux faisceaux de photons d'énergies différentes (6 et 23 megavolts [MV]). Dans les deux cas, les distributions de doses ont été comparées à des mesures expérimentales prises avec une chambre à ionisation. Les distributions de doses dans l'axe central du faisceau ont atteint un niveau de précision de 2%. Au niveau des distributions de doses hors axe, les déviations maximales sont de l'ordre de 5% et de 2mm dans les pénombres. Pour le faisceau de 23 MV, la géométrie présente une asymétrie qui devra être corrigée en modifiant le filtre égalisateur ou en utilisant une source de radiation asymétrique. Dans tous les cas, l'ouverture des collimateurs secondaires devra être optimisée afin d'éliminer les erreurs au niveau de la pénombre. Une fois ces modifications effectuées, les images DICOM compressées avec l'octree pourront être insérées à l'intérieur du modèle de l'accélérateur. Ce faisant, il suffirait d'ajuster la configuration des faisceaux et du patient pour évaluer un traitement en radiothérapie externe.
53

Contribution de l'approche contrainte/résistance à l'évaluation de la fiabilité des structures

Bereriche, Youcef 16 April 2018 (has links)
Dans ce mémoire, on traite des méthodes et d'outils d'évaluation de la fiabilité des systèmes mécanique. La fiabilité dans ce contexte est définie comme étant la probabilité que la résistance soit supérieure à la sollicitation que le système subit. On considère que la résistance est aléatoire et que l'occurrence et l'intensité de la sollicitation sont aléatoires. Les outils d'analyse et d'évaluation de la fiabilité, retenus dans ce travail, permettent d'évaluer et d'optimiser les performances d'un système existant ou d'intégrer le caractère aléatoire de sollicitation et de la résistance, en phase de conception. Des exemples d'applications issus des domaines du génie mécanique et de la sécurité des structures sont rapportés dans ce mémoire pour illustrer les différents concepts théoriques. Le contenu de ce mémoire a été conçu et structuré de manière à servir de document de référence pour la conception et l'exploitation de systèmes assujettis à des sollicitations dont l'intensité et l'occurrence sont aléatoires et dont la résistance se dégrade, aléatoirement également, selon l'âge et l'usage du système.
54

Simulations Monte Carlo sur processeur graphique en curiethérapie à bas débit de dose pour le cancer de la prostate

Bonenfant, Éric 19 April 2018 (has links)
Ce mémoire porte sur l’étude d’un algorithme Monte Carlo en curiethérapie à bas débit de dose sur processeur graphique. Avec le développement de cette plate-forme de calcul, l’application de la méthode Monte Carlo fait un pas en avant quant à son utilisation clinique dans un département de radio-oncologie. Le travail se déroule en deux parties. Premièrement, le développement d’un algorithme Monte Carlo sur processeur graphique, bGPUMCD, est poursuivi dans le but d’en améliorer les performances. Deuxièmement, une source de curiethérapie à bas débit de dose, la SelectSeed de Nucletron, est simulée et étalonnée pour être en accord avec les données du rapport du Task Group 43 de l’American Association of Physicists in Medicine. Avec cette source, quatre cas cliniques sont ensuite simulés pour montrer la concordance des résultats avec un autre algorithme Monte Carlo bien établi et évaluer les temps de calcul pour une éventuelle utilisation clinique de l’algorithme.
55

Dosimétrie Monte Carlo de curiethérapie interstitielle à haut débit de dose pour le cas gynécologique

Desbiens, Maxime 18 April 2018 (has links)
La curiethérapie à haut débit de dose utilisant un projecteur de source d’Ir-192 peut être utilisée efficacement dans le traitement d’une tumeur gynécologique maligne. Le traitement peut être interstitiel ou endocavitaire, dépendamment des caractéristiques de la tumeur et de l’anatomie de la patiente. En clinique, la dosimétrie est faite par l’application du formalisme TG-43. Le but de cette étude est d’évaluer à l’aide de simulations Monte Carlo (MC) l’impact dosimétrique lors d’un traitement interstitiel de la présence d’un applicateur et de poches d’air dans le volume cible en plus des hétérogénéités tissulaires. Les effets du blindage et du diamètre de l’applicateur dans un traitement endocavitaire ainsi que l’effet de la voxelisation ont aussi été évalués. Dans tous les cas, la dosimétrie a été réalisée à l’aide de la suite logicielle MC Geant4. Les résultats ont démontré que, dans certaines situations, les simulations MC mènent à des corrections significatives de la dose. / High dose rate brachytherapy using an Ir-192 remote afterloader can be successfully used in the management of gynecologic malignancies. Treatment can be either interstitial or endocavitary depending of the tumor caracteritics and patient’s anatomy. Clinically, the dosimetry is made through the application of the TG-43 formalism. The purpose of this study is to assess with Monte Carlo (MC) method and for an interstitial treatment dosimetric effects of the presence of the applicator and air pockets in clinical target volume and organs at risk along with tissue heterogeneities. As a related work, assessment of the effects of shielding and applicator diameters on the dose distribution of intracavitary treatment and voxelisation effects of the applicator in an interstitial treatment has been performed. In all cases, dosimetry has been achieved with the Geant4 MC toolkit. Results have shown that, in some situations, MC simulations lead to significant dose corrections.
56

Modélisation neutronique des réacteurs à lit de boulets dans le code APOLLO2

Grimod, Maurice 07 December 2010 (has links) (PDF)
DANS LA THÈSE, UNE NOUVELLE TECHNIQUE ITÉRATIVE D'HOMOGÉNÉISATION POUR LES RÉACTEURS À LIT DE BOULETS EST DÉVELOPPÉE. LE MODÈLE CONSIDÈRE LES DIFFÉRENCES SPECTRALES, PROPRES À CHAQUE TYPE DE BOULET, POUR LES CALCULS D'HOMOGÉNÉISATION ET D'ÉVOLUTION MICROSCOPIQUE. LA MÉTHODE DÉVELOPPÉE DANS LE CODE DE CALCUL NEUTRONIQUE APOLLO2 A ÉTÉ VÉRIFIÉE PAR COMPARAISON AVEC DES SIMULATIONS MONTE CARLO DE RÉFÉRENCE, AVEC TRIPOLI4. LES RÉSULTATS OBTENUS PAR LE MODÈLE APOLLO2 SONT PEU DIFFÉRENTS DE LA RÉFÉRENCE (MOINS DE 100 PCM SUR LE KEFF, DE ±4% SUR LA DISTRIBUTION DES TAUX DE PRODUCTION, AVEC UNE DIFFÉRENCE DE 3% AU POINT CHAUD). ENSUITE, UNE PREMIÈRE VALIDATION A ÉTÉ RÉALISÉE PAR RAPPORT À LA PREMIÈRE DIVERGENCE DU PROTOTYPE HTR-10. LE NOMBRE OBTENU AVEC LE NOUVEAU MODÈLE EST SEULEMENT DE 77 BOULETS EN DESSOUS DE LA VALEUR EXPÉRIMENTAL DE 16890 BOULETS. UNE MÉTHODE A ENSUITE ÉTÉ DÉVELOPPÉE POUR ÉVALUER LA COMPOSITION DU CŒUR À L'ÉQUILIBRE, LIÉE À LA RÉ-CIRCULATION DES BOULETS. LA NOUVELLE MÉTHODE A ÉTÉ APPLIQUÉE POUR ÉVALUER LE BIAIS ASSOCIÉ À L'EMPLOI D'UN SEUL BOULET DE COMPOSITION ISOTOPIQUE MOYENNE. LES DIFFÉRENCES SPECTRALES ENTRE LES DIFFÉRENTS TYPES DE BOULETS ÉTANT EN GRANDE PARTIE DUES AUX RÉSONANCES DU PU240, LE BIAIS EST PLUS IMPORTANT QUAND LE CŒUR EST CHARGÉ AVEC UN COMBUSTIBLE DE PU, OÙ ON OBSERVE DES ÉCARTS SUR LES DISTRIBUTIONS DE PUISSANCES ET LES CONCENTRATIONS DE ± 10%. POUR CONCLURE, EN SE BASANT SUR L'EXPÉRIENCE ACCUMULÉE AU CEA ET AVEC LA MÉTHODE DÉVELOPPÉE ICI, ON POURRAIT MONTER UN SCHÉMA ITÉRATIF DE CALCUL COUPLÉ NEUTRONIQUE - THERMO-HYDRAULIQUE, EN CALCULANT LE CŒUR 3D EN DIFFUSION ET EN ASSOCIANT À CHAQUE RÉGION DE SPECTRE UNE GÉOMÉTRIE MULTI-BOULETS.
57

Modélisation markovienne des dynamiques d'usages des sols. Cas des parcelles situées sur le bord du corridor forestier {Ranomafana-Andringitra}

Raherinirina, Angelo 08 February 2013 (has links) (PDF)
Nous proposons une démarche markovienne d'inférence et de modéli- sation de dynamiques agraires dans le cadre d'usage de parcelles situées en lisière du corridor forestier reliant les deux parcs nationaux de Ranomafana et d'An- dringitra. La préservation de la forêt de la côte est de Madagascar est cruciale, il est donc pertinent de développer des outils permettant de mieux comprendre les dynamiques de déforestation puis de l'usage des parcelles et enfin de leur éventuel retour à l'état de forêt. Nous nous appuyons sur deux jeux de don- nées de terrain établis par l'IRD. Dans ce genre d'étude, une étape préliminaire consiste à construire la matrice de transition empirique, cela s'apparente donc à une modélisation markovienne de la dynamique. Dans ce cadre nous considérons l'approche par maximum de vraisemblance et l'approche bayésienne. Cette der- nière approche nous permet d'intégrer des informations non-présentes dans les données mais reconnues par les spécialistes, elle fait appel à des techniques d'ap- proximation de Monte Carlo par chaînes de Markov (MCMC). Nous étudions les propriétés asymptotiques des modèles obtenus à l'aide de ces deux approches et notamment le temps de convergence vers la loi quasi-stationnaire dans le premier cas et vers la loi stationnaire dans le second. Nous testons différentes hypothèses portant sur les modèles. Cette approche markovienne n'est plus valide sur le deuxième jeu de données, plus étendu, où il a fallu faire appel à une approche semi-markovienne : les lois des temps de séjour dans un état donné ne sont plus né- cessairement géométriques et peuvent dépendre de l'état suivant. À nouveau nous faisons appel aux approches par maximum de vraisemblance et bayésienne. Nous étudions le comportement asymptotique de chacun de ces modèles. En termes applicatifs, nous avons pu déterminer les échelles de temps de ces dynamiques.
58

Approximation particulaire et méthode de Laplace pour le filtrage bayésien / Particle approximation and the Laplace method for Bayesian filtering

Bui Quang, Paul 01 July 2013 (has links)
La thèse porte sur l'apport de la méthode de Laplace pour l'approximation du filtre bayésien dans des modèles de Markov cachés généraux, c'est-à-dire dans un cadre séquentiel, avec comme domaine d'application privilégié la poursuite de cibles mobiles. A la base, la méthode de Laplace est une méthode asymptotique pour le calcul d'intégrales, c'est-à-dire dans un cadre statique, valide en théorie dès que la fonction à intégrer présente un maximum de plus en plus significatif, lequel apporte la contribution essentielle au résultat. En pratique, cette méthode donne des résultats souvent très précis même en dehors de ce cadre de validité théorique. Les deux contributions principales de la thèse sont les suivantes. Premièrement, nous avons utilisé la méthode de Laplace en complément du filtrage particulaire : on sait en effet que les méthodes de Monte Carlo séquentielles basées sur l'échantillonnage pondéré sont mises en difficulté quand la fonction de pondération (ici la fonction de vraisemblance) est trop localisée, par exemple quand la variance du bruit d'observation est trop faible, or c'est précisément là le domaine où la méthode de Laplace est efficace et justifiée théoriquement, d'où l'idée naturelle de combiner les deux points de vue. Nous proposons ainsi un algorithme associant la méthode de Laplace et le filtrage particulaire, appelé le Laplace particle filter. Deuxièmement, nous avons analysé l'approximation du filtre bayésien grâce à la méthode de Laplace seulement (c'est-à-dire sans génération d'échantillons aléatoires) : il s'agit ici de contrôler la propagation de l'erreur d'approximation d'un pas de temps au pas de temps suivant, dans un cadre asymptotique approprié, par exemple quand le bruit d'observation tend vers zéro, ou quand le bruit d'état et le bruit d'observation tendent conjointement (et à la même vitesse) vers zéro, ou plus généralement quand l'information contenue dans le système tend vers l'infini, avec une interprétation en terme d'identifiabilité. / The thesis deals with the contribution of the Laplace method to the approximation of the Bayesian filter in hidden Markov models with continuous state--space, i.e. in a sequential framework, with target tracking as the main application domain. Originally, the Laplace method is an asymptotic method used to compute integrals, i.e. in a static framework, valid in theory as soon as the function to be integrated exhibits an increasingly dominating maximum point, which brings the essential contribution to the integral. The two main contributions of the thesis are the following. Firstly, we have combined the Laplace method and particle filters: indeed, it is well-known that sequential Monte Carlo methods based on importance sampling are inefficient when the weighting function (here, the likelihood function) is too much spatially localized, e.g. when the variance of the observation noise is too small, whereas this is precisely the situation where the Laplace method is efficient and theoretically justified, hence the natural idea of combining the two approaches. We thus propose an algorithm associating the Laplace method and particle filtering, called the Laplace particle filter. Secondly, we have analyzed the approximation of the Bayesian filter based on the Laplace method only (i.e. without any generation of random samples): the objective has been to control the propagation of the approximation error from one time step to the next time step, in an appropriate asymptotic framework, e.g. when the variance of the observation noise goes to zero, or when the variances of the model noise and of the observation noise jointly go (with the same rate) to zero, or more generally when the information contained in the system goes to infinity, with an interpretation in terms of identifiability.
59

Calculs de sensibilités par méthode de Monte-Carlo, pour la conception de procédés à énergie solaire concentrée / Monte-Carlo Method and sensitivity computations for the design of concentrated solar energy processes

De la Torre, Jérémie 04 February 2011 (has links)
Dans le contexte énergétique mondial de raréfaction des ressources fossiles, et de réduction des émissions de gaz à effet de serre, l’agence internationale de l’énergie prévoit que la filière solaire thermodynamique fournisse en 2050 plus de 10% de l’électricité mondiale. De gros efforts de recherche sont nécessaires pour atteindre cet objectif. Les axes de développement actuels des technologies solaires à concentration portent, entre autres, sur les systèmes optiques composés de multiples miroirs (champs d’héliostats, concentrateurs linéaires de Fresnel, Beam-Down), sur les récepteurs solaires volumétriques (récepteurs à air, lits fluidisés) et sur les réacteurs (chimie à haute température, photobioréacteurs, dessalement par voie thermodynamique). Le transfert d’énergie par rayonnement est un des phénomènes prépondérants dans les systèmes optiques concentrateurs et dans les récepteurs solaires volumétriques. Les laboratoires Rapsodee et Laplace ont développé en quelques années d’étroite collaboration un savoir faire méthodologique sur la modélisation des transferts radiatifs et le calcul de sensibilité par la Méthode de Monte- Carlo et ils ont accumulé une expérience pratique, issue de la synthèse d’image, en programmation scientifique en interaction avec des chercheurs en informatique. Nous montrons dans ce manuscrit dans quelle mesure l’association de ces compétences théoriques et pratiques permet de répondre à certains besoins de la communauté du solaire à concentration et nous donnons des éléments de réponses ou des pistes à explorer en vue de surmonter les difficultés restantes que nous avons rencontrées. / The decrease of the fossil energy resources and the reduction of the emissions of greenhouse effect gas are major environmental issues. In this global situation, the International Energy Agency expects that solar power will provide more than 10% of the world electricity in 2050. Significant research efforts are needed to achieve this goal. Radiative transfer is one of the main physical phenomena in solar optical concentrators and in volumetric solar receivers. In few years of closely work, the laboratories Rapsodee and Laplace developed a methodological know-how in using Monte-Carlo methods for the modeling of radiative transfer and the sensitivity computations. They have also accumulated some experience in scientific programming and algorithms optimisation. We show in this dissertation how the combination of these physicists theoretical and practical skills can meet certain needs of the community of solar concentration. We give some answers or clues to be explored to get through the remaining difficulties we encountered.
60

Cosmological parameter estimation with the Planck satellite data : from the construction of a likelihood to neutrino properties / Estimation des paramètres cosmologiques à partir des données du satellite Planck : de la construction d’une fonction de vraisemblance aux caractéristiques des neutrinos

Spinelli, Marta 28 September 2015 (has links)
Le fond diffus cosmologique (CMB), relique du Big-Bang chaud, porte les traces à la fois de la formation des structures des époques récentes et des premières phases énergétiques de l'Univers.Le satellite Planck, en service de 2009 à 2013, a fourni des mesures de haute qualité des anisotropies du CMB. Celles-ci sont utilisés dans cette thèse pour déterminer les paramètres du modèle cosmologique standard et autour du secteur des neutrinos.Ce travail décrit la construction d'un fonction de vraisemblance pour les hauts-l de Planck. Cela implique une stratégie de masquage pour l'émission thermique de la Galaxie ainsi que pour les sources ponctuelles. Les avant-plans résiduels sont traités directement au niveau du spectre de puissance en utilisant des templates physiques bases sur des études de Planck.Les méthodes statistiques nécessaires pour extraire les paramètres cosmologiques dans la comparaison entre les modèles et les données sont décrites, à la fois la méthode bayésienne de Monte-Carlo par chaînes de Markov et la technique fréquentiste du profil de la fonction de vraisemblance.Les résultats sur les paramètres cosmologiques sont présentés en utilisant les données de Planck seul et en combinaison avec les données à petites échelles des expériences de CMB basées au sol (ACT et SPT), avec les contraintes provenant des mesures des oscillations acoustiques des baryons (BAO) et des supernovae. Les contraintes sur l'échelle absolue de la masse des neutrinos et sur le nombre effectif de neutrinos sont également discutées. / The cosmic microwave background (CMB), relic of the hot Big-Bang, carries the traces of both the rich structure formation of the late time epochs and the energetic early phases of the universe.The Planck satellite provided, from 2009 to 2013, high-quality measurements of the anisotropies of the CMB. These are used in this thesis to determine the parameters of the standard cosmological model and of the extension concerning the neutrino sector. The construction of an high-l Planck likelihood is detailed. This involves a masking strategy that deals in particular with the contamination from thermal emission of the Galaxy. The residual foregrounds are treated directly at the power spectrum level relying on physically motivated templates based on Planck studies.The statistical methods needed to extract the cosmological parameters in the comparison between models and data are described, both the Bayesian Monte Carlo Markov Chain techniques and the frequentist profile likelihood. Results on cosmological parameters are presented using Planck data alone and in combination with the small scale data from the ground based CMB experiment ACT and SPT, the Baryon Acoustic Oscillation and the Supernovae. Constraints on the absolute scale of neutrino masses and of the number of effective neutrino are also discussed.

Page generated in 0.0875 seconds