• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 80
  • 29
  • 3
  • Tagged with
  • 113
  • 113
  • 113
  • 31
  • 23
  • 22
  • 22
  • 16
  • 14
  • 13
  • 13
  • 12
  • 12
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Élaboration des éléments d'une simulation Monte Carlo permettant l'évaluation d'une planification de traitement en radiothérapie externe : compression d'images DICOM à l'aide d'un octree et modélisation de la tête d'un accélérateur linéaire

Hubert-Tremblay, Vincent 11 April 2018 (has links)
L'objectif de ce travail est de développer deux modules pour créer une simulation Monte Carlo ayant comme objectif futur de calculer les doses de radiation d'un traitement en radiothérapie externe. Le premier module permet de lire, modéliser et réduire le nombre de voxels présent dans une série d'images médicales de type DICOM. La réduction doit se faire tout en gardant les informations essentielles pour une simulation Monte Carlo. Un algorithme a été développé pour appliquer une compression de type octree à la distribution des densités électroniques recueillies dans les images de tomodensitométrie. L'image résultante possède ainsi une certaine anisotropie au niveau de la résolution. Des résultats obtenus, la réduction du nombre total de voxels atteinte est de l'ordre de 75% de la taille initiale. Les simulations Monte Carlo démontrent qu'aucune information dosimétrique n'est perdue après la transformation. L'efficacité de la simulation se trouve améliorée tant au niveau de sa rapidité que de son utilisation de la mémoire. Le second module développé est un modèle d'accélérateur linéaire de type Primus (Siemens). Ce modèle permet d'obtenir des distributions de doses pour deux faisceaux de photons d'énergies différentes (6 et 23 megavolts [MV]). Dans les deux cas, les distributions de doses ont été comparées à des mesures expérimentales prises avec une chambre à ionisation. Les distributions de doses dans l'axe central du faisceau ont atteint un niveau de précision de 2%. Au niveau des distributions de doses hors axe, les déviations maximales sont de l'ordre de 5% et de 2mm dans les pénombres. Pour le faisceau de 23 MV, la géométrie présente une asymétrie qui devra être corrigée en modifiant le filtre égalisateur ou en utilisant une source de radiation asymétrique. Dans tous les cas, l'ouverture des collimateurs secondaires devra être optimisée afin d'éliminer les erreurs au niveau de la pénombre. Une fois ces modifications effectuées, les images DICOM compressées avec l'octree pourront être insérées à l'intérieur du modèle de l'accélérateur. Ce faisant, il suffirait d'ajuster la configuration des faisceaux et du patient pour évaluer un traitement en radiothérapie externe.
52

Contribution de l'approche contrainte/résistance à l'évaluation de la fiabilité des structures

Bereriche, Youcef 16 April 2018 (has links)
Dans ce mémoire, on traite des méthodes et d'outils d'évaluation de la fiabilité des systèmes mécanique. La fiabilité dans ce contexte est définie comme étant la probabilité que la résistance soit supérieure à la sollicitation que le système subit. On considère que la résistance est aléatoire et que l'occurrence et l'intensité de la sollicitation sont aléatoires. Les outils d'analyse et d'évaluation de la fiabilité, retenus dans ce travail, permettent d'évaluer et d'optimiser les performances d'un système existant ou d'intégrer le caractère aléatoire de sollicitation et de la résistance, en phase de conception. Des exemples d'applications issus des domaines du génie mécanique et de la sécurité des structures sont rapportés dans ce mémoire pour illustrer les différents concepts théoriques. Le contenu de ce mémoire a été conçu et structuré de manière à servir de document de référence pour la conception et l'exploitation de systèmes assujettis à des sollicitations dont l'intensité et l'occurrence sont aléatoires et dont la résistance se dégrade, aléatoirement également, selon l'âge et l'usage du système.
53

Simulations Monte Carlo sur processeur graphique en curiethérapie à bas débit de dose pour le cancer de la prostate

Bonenfant, Éric 19 April 2018 (has links)
Ce mémoire porte sur l’étude d’un algorithme Monte Carlo en curiethérapie à bas débit de dose sur processeur graphique. Avec le développement de cette plate-forme de calcul, l’application de la méthode Monte Carlo fait un pas en avant quant à son utilisation clinique dans un département de radio-oncologie. Le travail se déroule en deux parties. Premièrement, le développement d’un algorithme Monte Carlo sur processeur graphique, bGPUMCD, est poursuivi dans le but d’en améliorer les performances. Deuxièmement, une source de curiethérapie à bas débit de dose, la SelectSeed de Nucletron, est simulée et étalonnée pour être en accord avec les données du rapport du Task Group 43 de l’American Association of Physicists in Medicine. Avec cette source, quatre cas cliniques sont ensuite simulés pour montrer la concordance des résultats avec un autre algorithme Monte Carlo bien établi et évaluer les temps de calcul pour une éventuelle utilisation clinique de l’algorithme.
54

Modélisation neutronique des réacteurs à lit de boulets dans le code APOLLO2

Grimod, Maurice 07 December 2010 (has links) (PDF)
DANS LA THÈSE, UNE NOUVELLE TECHNIQUE ITÉRATIVE D'HOMOGÉNÉISATION POUR LES RÉACTEURS À LIT DE BOULETS EST DÉVELOPPÉE. LE MODÈLE CONSIDÈRE LES DIFFÉRENCES SPECTRALES, PROPRES À CHAQUE TYPE DE BOULET, POUR LES CALCULS D'HOMOGÉNÉISATION ET D'ÉVOLUTION MICROSCOPIQUE. LA MÉTHODE DÉVELOPPÉE DANS LE CODE DE CALCUL NEUTRONIQUE APOLLO2 A ÉTÉ VÉRIFIÉE PAR COMPARAISON AVEC DES SIMULATIONS MONTE CARLO DE RÉFÉRENCE, AVEC TRIPOLI4. LES RÉSULTATS OBTENUS PAR LE MODÈLE APOLLO2 SONT PEU DIFFÉRENTS DE LA RÉFÉRENCE (MOINS DE 100 PCM SUR LE KEFF, DE ±4% SUR LA DISTRIBUTION DES TAUX DE PRODUCTION, AVEC UNE DIFFÉRENCE DE 3% AU POINT CHAUD). ENSUITE, UNE PREMIÈRE VALIDATION A ÉTÉ RÉALISÉE PAR RAPPORT À LA PREMIÈRE DIVERGENCE DU PROTOTYPE HTR-10. LE NOMBRE OBTENU AVEC LE NOUVEAU MODÈLE EST SEULEMENT DE 77 BOULETS EN DESSOUS DE LA VALEUR EXPÉRIMENTAL DE 16890 BOULETS. UNE MÉTHODE A ENSUITE ÉTÉ DÉVELOPPÉE POUR ÉVALUER LA COMPOSITION DU CŒUR À L'ÉQUILIBRE, LIÉE À LA RÉ-CIRCULATION DES BOULETS. LA NOUVELLE MÉTHODE A ÉTÉ APPLIQUÉE POUR ÉVALUER LE BIAIS ASSOCIÉ À L'EMPLOI D'UN SEUL BOULET DE COMPOSITION ISOTOPIQUE MOYENNE. LES DIFFÉRENCES SPECTRALES ENTRE LES DIFFÉRENTS TYPES DE BOULETS ÉTANT EN GRANDE PARTIE DUES AUX RÉSONANCES DU PU240, LE BIAIS EST PLUS IMPORTANT QUAND LE CŒUR EST CHARGÉ AVEC UN COMBUSTIBLE DE PU, OÙ ON OBSERVE DES ÉCARTS SUR LES DISTRIBUTIONS DE PUISSANCES ET LES CONCENTRATIONS DE ± 10%. POUR CONCLURE, EN SE BASANT SUR L'EXPÉRIENCE ACCUMULÉE AU CEA ET AVEC LA MÉTHODE DÉVELOPPÉE ICI, ON POURRAIT MONTER UN SCHÉMA ITÉRATIF DE CALCUL COUPLÉ NEUTRONIQUE - THERMO-HYDRAULIQUE, EN CALCULANT LE CŒUR 3D EN DIFFUSION ET EN ASSOCIANT À CHAQUE RÉGION DE SPECTRE UNE GÉOMÉTRIE MULTI-BOULETS.
55

Modélisation markovienne des dynamiques d'usages des sols. Cas des parcelles situées sur le bord du corridor forestier {Ranomafana-Andringitra}

Raherinirina, Angelo 08 February 2013 (has links) (PDF)
Nous proposons une démarche markovienne d'inférence et de modéli- sation de dynamiques agraires dans le cadre d'usage de parcelles situées en lisière du corridor forestier reliant les deux parcs nationaux de Ranomafana et d'An- dringitra. La préservation de la forêt de la côte est de Madagascar est cruciale, il est donc pertinent de développer des outils permettant de mieux comprendre les dynamiques de déforestation puis de l'usage des parcelles et enfin de leur éventuel retour à l'état de forêt. Nous nous appuyons sur deux jeux de don- nées de terrain établis par l'IRD. Dans ce genre d'étude, une étape préliminaire consiste à construire la matrice de transition empirique, cela s'apparente donc à une modélisation markovienne de la dynamique. Dans ce cadre nous considérons l'approche par maximum de vraisemblance et l'approche bayésienne. Cette der- nière approche nous permet d'intégrer des informations non-présentes dans les données mais reconnues par les spécialistes, elle fait appel à des techniques d'ap- proximation de Monte Carlo par chaînes de Markov (MCMC). Nous étudions les propriétés asymptotiques des modèles obtenus à l'aide de ces deux approches et notamment le temps de convergence vers la loi quasi-stationnaire dans le premier cas et vers la loi stationnaire dans le second. Nous testons différentes hypothèses portant sur les modèles. Cette approche markovienne n'est plus valide sur le deuxième jeu de données, plus étendu, où il a fallu faire appel à une approche semi-markovienne : les lois des temps de séjour dans un état donné ne sont plus né- cessairement géométriques et peuvent dépendre de l'état suivant. À nouveau nous faisons appel aux approches par maximum de vraisemblance et bayésienne. Nous étudions le comportement asymptotique de chacun de ces modèles. En termes applicatifs, nous avons pu déterminer les échelles de temps de ces dynamiques.
56

Approximation particulaire et méthode de Laplace pour le filtrage bayésien / Particle approximation and the Laplace method for Bayesian filtering

Bui Quang, Paul 01 July 2013 (has links)
La thèse porte sur l'apport de la méthode de Laplace pour l'approximation du filtre bayésien dans des modèles de Markov cachés généraux, c'est-à-dire dans un cadre séquentiel, avec comme domaine d'application privilégié la poursuite de cibles mobiles. A la base, la méthode de Laplace est une méthode asymptotique pour le calcul d'intégrales, c'est-à-dire dans un cadre statique, valide en théorie dès que la fonction à intégrer présente un maximum de plus en plus significatif, lequel apporte la contribution essentielle au résultat. En pratique, cette méthode donne des résultats souvent très précis même en dehors de ce cadre de validité théorique. Les deux contributions principales de la thèse sont les suivantes. Premièrement, nous avons utilisé la méthode de Laplace en complément du filtrage particulaire : on sait en effet que les méthodes de Monte Carlo séquentielles basées sur l'échantillonnage pondéré sont mises en difficulté quand la fonction de pondération (ici la fonction de vraisemblance) est trop localisée, par exemple quand la variance du bruit d'observation est trop faible, or c'est précisément là le domaine où la méthode de Laplace est efficace et justifiée théoriquement, d'où l'idée naturelle de combiner les deux points de vue. Nous proposons ainsi un algorithme associant la méthode de Laplace et le filtrage particulaire, appelé le Laplace particle filter. Deuxièmement, nous avons analysé l'approximation du filtre bayésien grâce à la méthode de Laplace seulement (c'est-à-dire sans génération d'échantillons aléatoires) : il s'agit ici de contrôler la propagation de l'erreur d'approximation d'un pas de temps au pas de temps suivant, dans un cadre asymptotique approprié, par exemple quand le bruit d'observation tend vers zéro, ou quand le bruit d'état et le bruit d'observation tendent conjointement (et à la même vitesse) vers zéro, ou plus généralement quand l'information contenue dans le système tend vers l'infini, avec une interprétation en terme d'identifiabilité. / The thesis deals with the contribution of the Laplace method to the approximation of the Bayesian filter in hidden Markov models with continuous state--space, i.e. in a sequential framework, with target tracking as the main application domain. Originally, the Laplace method is an asymptotic method used to compute integrals, i.e. in a static framework, valid in theory as soon as the function to be integrated exhibits an increasingly dominating maximum point, which brings the essential contribution to the integral. The two main contributions of the thesis are the following. Firstly, we have combined the Laplace method and particle filters: indeed, it is well-known that sequential Monte Carlo methods based on importance sampling are inefficient when the weighting function (here, the likelihood function) is too much spatially localized, e.g. when the variance of the observation noise is too small, whereas this is precisely the situation where the Laplace method is efficient and theoretically justified, hence the natural idea of combining the two approaches. We thus propose an algorithm associating the Laplace method and particle filtering, called the Laplace particle filter. Secondly, we have analyzed the approximation of the Bayesian filter based on the Laplace method only (i.e. without any generation of random samples): the objective has been to control the propagation of the approximation error from one time step to the next time step, in an appropriate asymptotic framework, e.g. when the variance of the observation noise goes to zero, or when the variances of the model noise and of the observation noise jointly go (with the same rate) to zero, or more generally when the information contained in the system goes to infinity, with an interpretation in terms of identifiability.
57

Calculs de sensibilités par méthode de Monte-Carlo, pour la conception de procédés à énergie solaire concentrée / Monte-Carlo Method and sensitivity computations for the design of concentrated solar energy processes

De la Torre, Jérémie 04 February 2011 (has links)
Dans le contexte énergétique mondial de raréfaction des ressources fossiles, et de réduction des émissions de gaz à effet de serre, l’agence internationale de l’énergie prévoit que la filière solaire thermodynamique fournisse en 2050 plus de 10% de l’électricité mondiale. De gros efforts de recherche sont nécessaires pour atteindre cet objectif. Les axes de développement actuels des technologies solaires à concentration portent, entre autres, sur les systèmes optiques composés de multiples miroirs (champs d’héliostats, concentrateurs linéaires de Fresnel, Beam-Down), sur les récepteurs solaires volumétriques (récepteurs à air, lits fluidisés) et sur les réacteurs (chimie à haute température, photobioréacteurs, dessalement par voie thermodynamique). Le transfert d’énergie par rayonnement est un des phénomènes prépondérants dans les systèmes optiques concentrateurs et dans les récepteurs solaires volumétriques. Les laboratoires Rapsodee et Laplace ont développé en quelques années d’étroite collaboration un savoir faire méthodologique sur la modélisation des transferts radiatifs et le calcul de sensibilité par la Méthode de Monte- Carlo et ils ont accumulé une expérience pratique, issue de la synthèse d’image, en programmation scientifique en interaction avec des chercheurs en informatique. Nous montrons dans ce manuscrit dans quelle mesure l’association de ces compétences théoriques et pratiques permet de répondre à certains besoins de la communauté du solaire à concentration et nous donnons des éléments de réponses ou des pistes à explorer en vue de surmonter les difficultés restantes que nous avons rencontrées. / The decrease of the fossil energy resources and the reduction of the emissions of greenhouse effect gas are major environmental issues. In this global situation, the International Energy Agency expects that solar power will provide more than 10% of the world electricity in 2050. Significant research efforts are needed to achieve this goal. Radiative transfer is one of the main physical phenomena in solar optical concentrators and in volumetric solar receivers. In few years of closely work, the laboratories Rapsodee and Laplace developed a methodological know-how in using Monte-Carlo methods for the modeling of radiative transfer and the sensitivity computations. They have also accumulated some experience in scientific programming and algorithms optimisation. We show in this dissertation how the combination of these physicists theoretical and practical skills can meet certain needs of the community of solar concentration. We give some answers or clues to be explored to get through the remaining difficulties we encountered.
58

Cosmological parameter estimation with the Planck satellite data : from the construction of a likelihood to neutrino properties / Estimation des paramètres cosmologiques à partir des données du satellite Planck : de la construction d’une fonction de vraisemblance aux caractéristiques des neutrinos

Spinelli, Marta 28 September 2015 (has links)
Le fond diffus cosmologique (CMB), relique du Big-Bang chaud, porte les traces à la fois de la formation des structures des époques récentes et des premières phases énergétiques de l'Univers.Le satellite Planck, en service de 2009 à 2013, a fourni des mesures de haute qualité des anisotropies du CMB. Celles-ci sont utilisés dans cette thèse pour déterminer les paramètres du modèle cosmologique standard et autour du secteur des neutrinos.Ce travail décrit la construction d'un fonction de vraisemblance pour les hauts-l de Planck. Cela implique une stratégie de masquage pour l'émission thermique de la Galaxie ainsi que pour les sources ponctuelles. Les avant-plans résiduels sont traités directement au niveau du spectre de puissance en utilisant des templates physiques bases sur des études de Planck.Les méthodes statistiques nécessaires pour extraire les paramètres cosmologiques dans la comparaison entre les modèles et les données sont décrites, à la fois la méthode bayésienne de Monte-Carlo par chaînes de Markov et la technique fréquentiste du profil de la fonction de vraisemblance.Les résultats sur les paramètres cosmologiques sont présentés en utilisant les données de Planck seul et en combinaison avec les données à petites échelles des expériences de CMB basées au sol (ACT et SPT), avec les contraintes provenant des mesures des oscillations acoustiques des baryons (BAO) et des supernovae. Les contraintes sur l'échelle absolue de la masse des neutrinos et sur le nombre effectif de neutrinos sont également discutées. / The cosmic microwave background (CMB), relic of the hot Big-Bang, carries the traces of both the rich structure formation of the late time epochs and the energetic early phases of the universe.The Planck satellite provided, from 2009 to 2013, high-quality measurements of the anisotropies of the CMB. These are used in this thesis to determine the parameters of the standard cosmological model and of the extension concerning the neutrino sector. The construction of an high-l Planck likelihood is detailed. This involves a masking strategy that deals in particular with the contamination from thermal emission of the Galaxy. The residual foregrounds are treated directly at the power spectrum level relying on physically motivated templates based on Planck studies.The statistical methods needed to extract the cosmological parameters in the comparison between models and data are described, both the Bayesian Monte Carlo Markov Chain techniques and the frequentist profile likelihood. Results on cosmological parameters are presented using Planck data alone and in combination with the small scale data from the ground based CMB experiment ACT and SPT, the Baryon Acoustic Oscillation and the Supernovae. Constraints on the absolute scale of neutrino masses and of the number of effective neutrino are also discussed.
59

Influence des fautes transitoires sur la fiabilité d'un système commandé en réseau

Ghostine, Rony 12 June 2008 (has links) (PDF)
Ce travail s'inscrit dans le cadre de l'évaluation de la sûreté de fonctionnement des systèmes commandés en réseau (SCR). La capacité des systèmes de commandes à compenser les effets de certaines défaillances de composants amène à redéfinir le concept de défaillances du système. La conséquence est que l'évaluation de la fiabilité prévisionnelle du système est dépendante de l'évaluation fonctionnelle et devient impossible avec les méthodes traditionnelles de la sûreté de fonctionnement. Pour surmonter ces difficultés, une approche basée sur la modélisation en vue de la simulation est proposée. Nous avons choisi les Réseaux d'activités stochastiques (SAN) largement connus dans la modélisation des protocoles de communication ainsi que dans les études de la sûreté de fonctionnement. Dans un premier temps, nous avons cherché à identifier l'incidence de deux types de défaillances fugitives : la perte d'un échantillon d'une part et le retard d'un échantillon dans la boucle de régulation d'autre part. Après, nous simulons le comportement en présence des deux types de perturbations simultanément, mettant en évidence des effets cumulatifs. Si on tient compte maintenant du fait que l'origine des pertes ou retards est due à la présence du réseau, il faut l'introduire dans le modèle. On introduit alors dans le modèle global du système la représentation SAN d'un réseau CAN et l'injection des défaillances dans celui-ci. La méthode de Monte Carlo est utilisée pour estimer les indicateurs de sûreté de fonctionnement et on montre l'influence de certains facteurs comme la charge du réseau par exemple. Nous avons proposé une méthode et les outils associés pour approcher cette évaluation par simulation et ainsi apporter une aide à la conception des systèmes satisfaisant à des exigences critiques sur certains paramètres de performance.
60

Réduction de variance et discrétisation d'équations différentielles stochastiques.<br />Théorèmes limites presque sûre pour les martingales quasi-continues à gauche.

Kebaier, Ahmed 13 December 2005 (has links) (PDF)
Cette Thèse est composée de deux parties portant respectivement sur la discrétisation des équations différentielles stochastiques et sur le théorème de la limite centrale presque sûre pour les martingales.<br /><br />La première Partie est composée de trois chapitres: Le premier chapitre introduit le cadre de l'étude et présente les résultats obtenus. Le deuxième chapitre est consacré à l'étude d'une nouvelle méthode d'accélération de convergence, appelée méthode de Romberg statistique, pour le calcul d'espérances de fonctions ou de fonctionnelles d'une diffusion.<br />Ce chapitre est la version augmentée d'un article à paraître dans la revue Annals of Applied Probability.<br /><br />Le troisième chapitre traite de l'application de cette méthode à l'approximation de densité par des méthodes de noyaux.<br />Ce chapitre est basé sur un travail en collaboration avec Arturo Kohatsu-Higa.<br /><br />La deuxième partie de la thèse est composée de deux chapitres: le premier chapitre présente la littérature récente concernant le théorème de la limite centrale presque sûre et ses extensions. Le deuxième chapitre, basé sur un travail en collaboration avec Faouzi Chaâbane, étend divers résultats de type TLCPS à des martingales quasi-continues à gauche.

Page generated in 0.0666 seconds