• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 79
  • 29
  • 3
  • Tagged with
  • 112
  • 112
  • 112
  • 31
  • 23
  • 22
  • 22
  • 16
  • 14
  • 13
  • 13
  • 12
  • 12
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Étude Monte Carlo des effets de l’orientation des sources et de la présence de calcifications dans la curiethérapie de prostate à bas débit de dose

Collins Fekete, Charles-Antoine 20 April 2018 (has links)
La curiethérapie prostatique se fait en implantant des grains radioactifs dans une zone tumorale. À cause des soucis temporaux, la planification considère ces grains comme des sources ponctuelles dans un monde uniforme d’eau. Ce mémoire présente une évaluation de l’impact de deux effets perturbant la dosimétrie, avec des méthodes Monte Carlo, en curiethérapie prostatique. L’orientation des sources, négligée actuellement, risque d’altérer la dosimétrie calculée. Cet impact est évalué sur une cohorte de patients (n=287). Aucun impact n’est calculé sur la prostate et l’urètre mais un impact de -2% est calculé sur la vessie et le rectum. La présence de calcifications dans la zone tumorale est négligée par la planification actuelle. Une cohorte de patients (n=43) possédant des calcifications permet d’évaluer cet impact. Il ressort du calcul MC une différence de -13% sur le D90 du CTV et de -16% sur le D10 de l’urètre, en comparaison avec l’algorithme de planification actuel. / Prostatic brachytherapy is performed by inserting radioactive seeds in a tumoral zone. Because of time constraint, clinical planning considers those seeds as point sources in a water medium. This thesis presents the quantification of the impact of two perturbing effects on the dosimetry, evaluated through a Monte Carlo algorithm, in prostatic brachytherapy. Seeds orientation, actually neglected, may alter the clinical dosimetry. The impact of this effect is evaluated on a cohort (n=287) of patients. No effect is calculated on the prostate or the urethra but a difference of -2%, when compared to the clinical algorithm, is calculated on the OARs. Calcifications are actually neglected in the clinical planning. A cohort of patients (n=43) with visible calcifications is used to measure the effect of this approximation. MC calculations yield a difference of -13% on the CTV D90 and -16% on the urethra D10, when compared to the clinical algorithm.
32

Comparing inverse probability of treatment weighting methods and optimal nonbipartite matching for estimating the causal effect of a multicategorical treatment

Diop, Serigne Arona 18 April 2019 (has links)
Des débalancements des covariables entre les groupes de traitement sont souvent présents dans les études observationnelles et peuvent biaiser les comparaisons entre les traitements. Ce biais peut notamment être corrigé grâce à des méthodes de pondération ou d’appariement. Ces méthodes de correction ont rarement été comparées dans un contexte de traitement à plusieurs catégories (>2). Nous avons mené une étude de simulation pour comparer une méthode d’appariement optimal non-biparti, la pondération par probabilité inverse de traitement ainsi qu’une pondération modifiée analogue à l’appariement (matching weights). Ces comparaisons ont été effectuées dans le cadre de simulation de type Monte Carlo à travers laquelle une variable d’exposition à 3 groupes a été utilisée. Une étude de simulation utilisant des données réelles (plasmode) a été conduite et dans laquelle la variable de traitement avait 5 catégories. Parmi toutes les méthodes comparées, celle du matching weights apparaît comme étant la plus robuste selon le critère de l’erreur quadratique moyenne. Il en ressort, aussi, que les résultats de la pondération par probabilité inverse de traitement peuvent parfois être améliorés par la troncation. De plus, la performance de la pondération dépend du niveau de chevauchement entre les différents groupes de traitement. La performance de l’appariement optimal nonbiparti est, quant à elle, fortement tributaire de la distance maximale pour qu’une paire soit formée (caliper). Toutefois, le choix du caliper optimal n’est pas facile et demeure une question ouverte. De surcroît, les résultats obtenus avec la simulation plasmode étaient positifs, dans la mesure où une réduction importante du biais a été observée. Toutes les méthodes ont pu réduire significativement le biais de confusion. Avant d’utiliser la pondération de probabilité inverse de traitement, il est recommandé de vérifier la violation de l’hypothèse de positivité ou l’existence de zones de chevauchement entre les différents groupes de traitement
33

Cycle économique et modélisation de la structure à terme du spread CDS : implémentation de la simulation de Monte Carlo au modèle dynamique de Nelson-Siegel

Baron, Standley-Réginald 24 April 2018 (has links)
Au cours de ces dernières années, le spread du Credit Default Swap (CDS) est devenu l'un des instruments très utilisé pour mesurer le risque de crédit. La modélisation de la courbe de la structure à terme du spread CDS s'avère nécessaire, et elle est d'importance capitale pour la gestion quantitative du risque de crédit. Nous proposons une extension du modèle dynamique de Nelson Siegel, en modélisant les changements des facteurs bêtas par un processus autorégressif avec erreurs hétéroscédastiques tenant compte du cycle économique. Par la technique de Monte Carlo nous simulons, à l'aide d'une copule de Student, les prévisions sur un et quatre trimestres du spread CDS à différentes maturités. Notre modèle suggère que le niveau d'influence du cycle économique sur le spread CDS dépend de la maturité. Son impact sur les spreads à longue échéance est plus significatif que sur les spreads à courte maturité. Notre modèle AR-GARCH performe mieux, quel que soit l'horizon de prévision analysé dans le cadre de ce travail, que le modèle vecteur autorégressif (VAR) et le modèle de marche aléatoire.
34

Le Bootstrap comme méthode d'estimation du r de Pearson : une étude Monte Carlo

Chabot, Martin 15 November 2021 (has links)
La méthode Bootstrap est proposée comme alternative aux tests statistiques traditionnels. Le Bootstrap est une nouvelle technique permettant d'approximer la distribution d'échantillonage d'un estimateur. Sa validité est ici étudiée afin de démontrer l'intérêt de son utilisation dans des situations fréquemment rencontrées en psychologie. La recherche comprend trois parties, soit: une analyse graphique, une étude de robustesse et une étude de puissance. Des simulations Monte Carlo sur ordinateur sont utilisées afin de mener ces trois analyses. Les résultats démontrent l’utilité du Bootstrap dans de nombreuses situations où certaines certaines caractéristiques des distributions d’échantillonnages s’éloignent du cas gaussien.
35

Analyse numérique d'équations aux dérivées aléatoires, applications à l'hydrogéologie

Charrier, Julia 12 July 2011 (has links) (PDF)
Ce travail présente quelques résultats concernant des méthodes numériques déterministes et probabilistes pour des équations aux dérivées partielles à coefficients aléatoires, avec des applications à l'hydrogéologie. On s'intéresse tout d'abord à l'équation d'écoulement dans un milieu poreux en régime stationnaire avec un coefficient de perméabilité lognormal homogène, incluant le cas d'une fonction de covariance peu régulière. On établit des estimations aux sens fort et faible de l'erreur commise sur la solution en tronquant le développement de Karhunen-Loève du coefficient. Puis on établit des estimations d'erreurs éléments finis dont on déduit une extension de l'estimation d'erreur existante pour la méthode de collocation stochastique, ainsi qu'une estimation d'erreur pour une méthode de Monte-Carlo multi-niveaux. On s'intéresse enfin au couplage de l'équation d'écoulement considérée précédemment avec une équation d'advection-diffusion, dans le cas d'incertitudes importantes et d'une faible longueur de corrélation. On propose l'analyse numérique d'une méthode numérique pour calculer la vitesse moyenne à laquelle la zone contaminée par un polluant s'étend. Il s'agit d'une méthode de Monte-Carlo combinant une méthode d'élements finis pour l'équation d'écoulement et un schéma d'Euler pour l'équation différentielle stochastique associée à l'équation d'advection-diffusion, vue comme une équation de Fokker-Planck.
36

Interaction lit fluidisé de particules solides-rayonnement solaire concentré pour la mise au point d'un procédé de chauffage de gaz à plus de 1000 K

Bounaceur, Arezki 09 December 2008 (has links) (PDF)
A l'heure actuelle les énergies fossiles traditionnelles (pétrole, charbon...) commencent à s'épuiser, ce qui pousse l'humanité à chercher d'autres sources d'énergie pour subvenir à ses besoins. La nature recèle beaucoup de sources d'énergie inépuisables et non polluantes comme l'énergie solaire, la biomasse et l'énergie éolienne. La disponibilité de l'énergie solaire, sa gratuité et son renouvellement encouragent sa collecte et son exploitation. L'énergie solaire peut être collectée pour diverses utilisations comme la réalisation d'une réaction chimique endothermique ou la production de l'électricité. La production de l'électricité solaire est opérée soit par des procédés photovoltaïques, soit par des procédés thermodynamiques. Ceux ci ont un rendement déjà intéressants, mais sont actuellement limités par la température des cycles à vapeur. Pour améliorer l'efficacité énergétique de ces procédés, une des solutions est de chauffer un gaz à très hautes températures en entrée d'une turbine à gaz. Le travail présenté dans ce mémoire décrit un procédé de collecte d'énergie solaire concentrée basé sur un lit fluidisé à changement de section. La collecte de l'énergie solaire se fait directement au travers d'une fenêtre transparente en quartz. La conception de notre récepteur solaire est basée sur deux études. La première consiste à tester plusieurs colonnes transparentes à froid de géométries et de dimensions différentes pour optimiser la distribution des particules lors de la fluidisation. Elle nous a permis de choisir les dimensions et la géométrie du récepteur solaire. En parallèle, nous avons réalisé un premier récepteur avec éclairement artificiel par des lampes infrarouges, au laboratoire RAPSODEE de l'Ecole des Mines d'Albi. Il nous a permis de vérifier la faisabilité du procédé et d'avoir les premiers résultats de la fluidisation à chaud. Le récepteur solaire a été ensuite testé au four solaire de 4,6 m du PROMES-CNRS à Odeillo. Durant notre travail nous avons étudié expérimentalement et numériquement les transferts thermiques dans le lit fluidisé et l'influence des divers paramètres physiques sur l'efficacité du récepteur. Un modèle mathématique des transferts radiatifs basé sur la méthode de Monte Carlo en 1 D a été réalisé. Ce modèle permet de déterminer la distribution des densités de flux thermiques dans les différentes couches du lit fluidisé ainsi que les pertes radiatives. Nous concluons sur la pertinence de nos choix dans ce travail et sur les perspectives.
37

Simulation d'évènements rares par Monte Carlo dans les réseaux hautement fiables / Rare event simulation using Monte Carlo in highly reliable networks

Saggadi, Samira 08 July 2013 (has links)
Le calcul de la fiabilité des réseaux est en général un problème NP-difficile. On peut par exemple s’intéresser à la fiabilité des systèmes de télécommunications où l'on veut évaluer la probabilité qu’un groupe sélectionné de nœuds peuvent communiquer. Dans ce cas, un ensemble de nœuds déconnectés peut avoir des conséquences critiques, que ce soit financières ou au niveau de la sécurité. Une estimation précise de la fiabilité est ainsi nécessaire. Dans le cadre de ce travail, on s'intéresse à l’étude et au calcul de la fiabilité des réseaux hautement fiables. Dans ce cas la défiabilité est très petite, ce qui rend l’approche standard de Monte Carlo inutile, car elle nécessite un grand nombre d’itérations. Pour une bonne estimation de la fiabilité des réseaux au moindre coût, nous avons développé de nouvelles techniques de simulation basées sur la réduction de variance par échantillonnage préférentiel. / Network reliability determination, is an NP-hard problem. For instance, in telecommunications, it is desired to evaluate the probability that a selected group of nodes communicate or not. In this case, a set of disconnected nodes can lead to critical financials security consequences. A precise estimation of the reliability is, therefore, needed. In this work, we are interested in the study and the calculation of the reliability of highly reliable networks. In this case the unreliability is very small, which makes the standard Monte Carlo approach useless, because it requires a large number of iterations. For a good estimation of system reliability with minimum cost, we have developed new simulation techniques based on variance reduction using importance sampling.
38

Méthodes numériques pour l'étude de la dynamique des phénomènes critiques : application aux verres de spins

Angles D'Auriac, Jean Christian 17 February 1981 (has links) (PDF)
.
39

Algotithmes stochastiques et méthodes de Monte Carlo

Arouna, Bouhari 12 1900 (has links) (PDF)
Dans cette thèse,nous proposons de nouvelles techniques de réduction de variance, pourles simultions Monté Carlo. Par un simple changement de variable, nous modifions la loi de simulation de façon paramétrique. L'idée consiste ensuite à utiliser une version convenablement projetée des algorithmes de Robbins-Monro pour déterminer le paramètre optimal qui "minimise" la variance de l'estimation. Nous avons d'abord développé une implémentation séquentielle dans laquelle la variance est réduite dynamiquement au cours des itératons Monte Carlo. Enfin, dans la dernière partie de notre travail, l'idée principale a été d'interpréter la réduction de variance en termes de minimisation d'entropie relative entre une mesure de probabilité optimale donnée, et une famille paramétrique de mesures de probabilité. Nous avons prouvé des résultats théoriques généraux qui définissent un cadre rigoureux d'utilisation de ces méthodes, puis nous avons effectué plusieurs expérimentations en finance et en fiabilité qui justifient de leur efficacité réelle.
40

Mesure du paramètre de corrélation angulaire bêta-neutrino dans la désintégration de l'6He

Velten, Ph. 24 June 2011 (has links) (PDF)
Le sujet de cette thèse est l'analyse des données de l'expérience LPCTrap d'octobre 2008. L'objectif était de mesurer le coefficient de corrélation angulaire b-v, abv, de la désintégration de l'6He avec une précision de 0.5%. La mise en évidence d'une déviation de la valeur de abv par rapport à la prédiction du Modèle Standard (MS) serait la signature indirecte d'un couplage de type tenseur dans la désintégration faible du noyau 6He qui mettrait en cause la structure V−A adoptée pour décrire l'interaction faible au sein du MS. Un piège de Paul est employé pour confiner les ions 6He+ dans un volume très restreint et pratiquement au repos afin de disposer d'une source de décroissances la mieux définie. La particule et l'ion de recul 6Li++ émis lors de la désintégration sont détectés en coïncidence par des détecteurs placés autour du piège. a bv est déterminé en comparant la distribution expérimentale du temps de vol de l'ion de recul à celle générée par une simulation Monte-Carlo. Durant cette thèse, une simulation basée sur GEANT4 a été développée, qui prend en compte la totalité des effets expérimentaux susceptibles de contribuer à l'erreur systématique de l'estimation de a bv, notamment la diffusion des électrons de basse énergie. Malgré une statistique expérimentale suffisante et une simulation aboutie, une estimation fiable de a bv s'est finalement révélée impossible à obtenir en raison d'un dysfonctionnement du détecteur d'ions. Une étude statistique exploratoire a été entreprise pour préciser le niveau de sensibilité de la technique de mesure aux tests des hypothèses du MS. Les outils développés dans cette thèse seront utilisés pour analyser les expériences futures.

Page generated in 0.0917 seconds