• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • 4
  • Tagged with
  • 11
  • 11
  • 8
  • 7
  • 7
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Étude de la combinaison de la technique quasi-Monte Carlo randomisé vectoriel avec l'échantillonnage exact

Sanvido, Charles January 2006 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
2

Evaluation de la sûreté de fonctionnement des réseaux de distribution par la simulation Monte Carlo : application à des stratégies de maintenance optimales

Ocnasu, Andreea Bianca 10 October 2008 (has links) (PDF)
Le secteur électrique est confronté aujourd'hui à de nouveaux défis imposés par la dérégulation du marché d'électricité, la volonté de réduire les émissions de gaz à effet de serre, le développement des nouvelles technologies. Nous assistons à un besoin croissant en terme d'analyse de sûreté de fonctionnement des réseaux de distribution, qui se manifeste par une migration des méthodes utilisées auparavant dans les réseaux de transport vers le niveau de la distribution. Dans une thèse précédente, une méthode de calcul basée sur une simulation Monte Carlo séquentielle a été développée. Une première partie de la présente thèse concerne l'étude des méthodes d'accélération de calculs. Les meilleurs résultats ont été obtenus pour une hybridation des méthodes des Variables Antithétiques et de Stratification. Nous avons abordé ensuite l'étude de faisabilité d'une méthode d'optimisation basée sur des critères de sûreté. L'application choisie a été l'optimisation des stratégies de maintenance préventive des équipements du réseau. Nous avons cherché, pour tous les équipements du système, le nombre optimal de maintenances préventives et la valeur du taux de défaillance maximal quand la maintenance est réalisée, en minimisant le coût total (coût de la maintenance préventive, maintenance corrective et coût d'interruption des clients). Au final, un ensemble de réflexions liées au développement futur d'un outil d'analyse de sûreté a été présenté. Une structure modulaire de l'outil est proposée pour faciliter son utilisation, ainsi que des possibilités de parallélisation des calculs pour une meilleure efficacité.
3

OPTIMISATION STATISTIQUE DU RENDEMENT PARAMETRIQUE DE MICROSYSTEMES (MEMS)

Delauche, Flavien 23 May 2003 (has links) (PDF)
Les microsystèmes ou MEMS (Micro Electro Mechanical Systems) entrent dans une phase industrielle. Habituellement conçus à partir de procédés utilisés classiquement en microélectronique, ils peuvent aussi inclurent des parties non électroniques : mécaniques, optiques, etc. Leur complexité technologique et la difficulté à modéliser ces applications multi-physiques ont retardé leur industrialisation, mais cette phase est aujourd'hui atteinte. En parallèle se développent donc des contraintes de coût de fabrication et de rendement dans le milieu très concurrentiel du semiconducteur. Les travaux réalisés dans le cadre de cette thèse visent à développer un logiciel implémentant un algorithme original d'optimisation statistique du rendement paramétrique qui tente de s'affranchir des principales limites associées aux méthodes courantes. Il se présente comme un module aisément insérable dans un flot de conception de circuit intégré ou de MEMS. Il s'agit d'optimiser les dimensions des structures réalisées afin de limiter les variations et dégradations des performances des microsystèmes qui sont dues aux fluctuations inéluctables des paramètres technologiques lors de leur fabrication, et sont causes de mauvais rendement.
4

On improving variational inference with low-variance multi-sample estimators

Dhekane, Eeshan Gunesh 08 1900 (has links)
Les progrès de l’inférence variationnelle, tels que l’approche de variational autoencoder (VI) (Kingma and Welling (2013), Rezende et al. (2014)) et ses nombreuses modifications, se sont avérés très efficaces pour l’apprentissage des représentations latentes de données. Importance-weighted variational inference (IWVI) par Burda et al. (2015) améliore l’inférence variationnelle en utilisant plusieurs échantillons indépendants et répartis de manière identique pour obtenir des limites inférieures variationnelles plus strictes. Des articles récents tels que l’approche de hierarchical importance-weighted autoencoders (HIWVI) par Huang et al. (2019) et la modélisation de la distribution conjointe par Klys et al. (2018) démontrent l’idée de modéliser une distribution conjointe sur des échantillons pour améliorer encore l’IWVI en le rendant efficace pour l’échantillon. L’idée sous-jacente de ce mémoire est de relier les propriétés statistiques des estimateurs au resserrement des limites variationnelles. Pour ce faire, nous démontrons d’abord une borne supérieure sur l’écart variationnel en termes de variance des estimateurs sous certaines conditions. Nous prouvons que l’écart variationnel peut être fait disparaître au taux de O(1/n) pour une grande famille d’approches d’inférence variationelle. Sur la base de ces résultats, nous proposons l’approche de Conditional-IWVI (CIWVI), qui modélise explicitement l’échantillonnage séquentiel et conditionnel de variables latentes pour effectuer importance-weighted variational inference, et une approche connexe de Antithetic-IWVI (AIWVI) par Klys et al. (2018). Nos expériences sur les jeux de données d’analyse comparative, tels que MNIST (LeCun et al. (2010)) et OMNIGLOT (Lake et al. (2015)), démontrent que nos approches fonctionnent soit de manière compétitive, soit meilleures que les références IWVI et HIWVI en tant que le nombre d’échantillons augmente. De plus, nous démontrons que les résultats sont conformes aux propriétés théoriques que nous avons prouvées. En conclusion, nos travaux fournissent une perspective sur le taux d’amélioration de l’inference variationelle avec le nombre d’échantillons utilisés et l’utilité de modéliser la distribution conjointe sur des représentations latentes pour l’efficacité de l’échantillon. / Advances in variational inference, such as variational autoencoders (VI) (Kingma and Welling (2013), Rezende et al. (2014)) along with its numerous modifications, have proven highly successful for learning latent representations of data. Importance-weighted variational inference (IWVI) by Burda et al. (2015) improves the variational inference by using multiple i.i.d. samples for obtaining tighter variational lower bounds. Recent works like hierarchical importance-weighted autoencoders (HIWVI) by Huang et al. (2019) and joint distribution modeling by Klys et al. (2018) demonstrate the idea of modeling a joint distribution over samples to further improve over IWVI by making it sample efficient. The underlying idea in this thesis is to connect the statistical properties of the estimators to the tightness of the variational bounds. Towards this, we first demonstrate an upper bound on the variational gap in terms of the variance of the estimators under certain conditions. We prove that the variational gap can be made to vanish at the rate of O(1/n) for a large family of VI approaches. Based on these results, we propose the approach of Conditional-IWVI (CIWVI), which explicitly models the sequential and conditional sampling of latent variables to perform importance-weighted variational inference, and a related approach of Antithetic-IWVI (AIWVI) by Klys et al. (2018). Our experiments on the benchmarking datasets MNIST (LeCun et al. (2010)) and OMNIGLOT (Lake et al. (2015)) demonstrate that our approaches perform either competitively or better than the baselines IWVI and HIWVI as the number of samples increases. Further, we also demonstrate that the results are in accordance with the theoretical properties we proved. In conclusion, our work provides a perspective on the rate of improvement in VI with the number of samples used and the utility of modeling the joint distribution over latent representations for sample efficiency in VI.
5

Accelerated clinical prompt gamma simulations for proton therapy / Simulations cliniques des gamma prompt accélérées pour la Hadronthérapie

Huisman, Brent 19 May 2017 (has links)
Après une introduction à l’hadronthérapie et à la détection gamma prompts, cette thèse de doctorat comprend deux contributions principales: le développement d'une méthode de simulation des gamma prompt (PG) et son application dans une étude de la détection des changements dans les traitements cliniques. La méthode de réduction de variance (vpgTLE) est une méthode d'estimation de longueur de piste en deux étapes développée pour estimer le rendement en PG dans les volumes voxélisés. Comme les particules primaires se propagent tout au long de la CT du patient, les rendements de PG sont calculés en fonction de l'énergie actuelle du primaire, du matériau du voxel et de la longueur de l'étape. La deuxième étape utilise cette image intermédiaire comme source pour générer et propager le nombre de PG dans le reste de la géométrie de la scène, par exemple Dans un dispositif de détection. Pour un fantôme hétérogéné et un plan de traitement CT complet par rapport à MC analogue, à un niveau de convergence de 2% d'incertitude relative sur le rendement de PG par voxel dans la région de rendement de 90%, un gain d'environ 10^3 A été atteint. La méthode s'accorde avec les simulations analogiques MC de référence à moins de 10^-4 par voxel, avec un biais négligeable. La deuxième étude majeure menée dans portait sur l'estimation PG FOP dans les simulations cliniques. Le nombre de protons (poids spot) requis pour une estimation FOP constante a été étudié pour la première fois pour deux caméras PG optimisées, une fente multi-parallèle (MPS) et une conception de bordure de couteau (KES). Trois points ont été choisis pour une étude approfondie et, au niveau des points prescrits, on a constaté qu'ils produisaient des résultats insuffisants, ce qui rend improbable la production clinique utilisable sur le terrain. Lorsque le poids spot est artificiellement augmenté à 10^9 primaires, la précision sur le FOP atteint une précision millimétrique. Sur le décalage FOP, la caméra MPS fournit entre 0,71 - 1,02 mm (1sigma) de précision pour les trois points à 10 $ 9 $ de protons; Le KES entre 2.10 - 2.66 mm. Le regroupement de couches iso-énergétiques a été utilisé dans la détection par PG de distribution passive pour l'un des prototypes d'appareils PG. Dans le groupement iso-depth, activé par la livraison active, les taches avec des chutes de dose distales similaires sont regroupées de manière à fournir des retombées bien définies comme tentative de mélange de gamme de distance. Il est démontré que le regroupement de taches n'a pas nécessairement une incidence négative sur la précision par rapport à la tache artificiellement accrue, ce qui signifie qu'une certaine forme de groupage de points peut permettre l'utilisation clinique de ces caméras PG. Avec tous les spots ou les groupes spot, le MPS a un meilleur signal par rapport au KES, grâce à une plus grande efficacité de détection et à un niveau de fond inférieur en raison de la sélection du temps de vol. / After an introduction to particle therapy and prompt gamma detection, this doctoral dissertation comprises two main contributions: the development of a fast prompt gammas (PGs) simulation method and its application in a study of change detectability in clinical treatments. The variance reduction method (named vpgTLE) is a two-stage track length estimation method developed to estimate the PG yield in voxelized volumes. As primary particles are propagated throughout the patient CT, the PG yields are computed as function of the current energy of the primary, the material in the voxel and the step length. The second stage uses this intermediate image as a source to generate and propagate the number of PGs throughout the rest of the scene geometry, e.g. into a detection device. For both a geometrical heterogeneous phantom and a complete patient CT treatment plan with respect to analog MC, at a convergence level of 2\% relative uncertainty on the PG yield per voxel in the 90\% yield region, a gain of around $10^3$ was achieved. The method agrees with reference analog MC simulations to within $10^{-4}$ per voxel, with negligible bias. The second major study conducted in this PhD program was on PG FOP estimation in clinical simulations. The number of protons (spot weight) required for a consistent FOP estimate was investigated for the first time for two optimized PG cameras, a multi-parallel slit (MPS) and a knife edge design (KES). Three spots were selected for an in depth study, and at the prescribed spot weights were found to produce results of insufficient precision, rendering usable clinical output on the spot level unlikely. When the spot weight is artificially increased to $10^9$ primaries, the precision on the FOP reaches millimetric precision. On the FOP shift the MPS camera provides between 0.71 - 1.02 mm (1$\upsigma$) precision for the three spots at $10^9$ protons; the KES between 2.10 - 2.66 mm. Grouping iso-energy layers was employed in passive delivery PG detection for one of the PG camera prototypes. In iso-depth grouping, enabled by active delivery, spots with similar distal dose fall-offs are grouped so as to provide well-defined fall-offs as an attempt to sidestep range mixing. It is shown that grouping spots does not necessarily negatively affect the precision compared to the artificially increased spot, which means some form of spot grouping can enable clinical use of these PG cameras. With all spots or spot groups the MPS has a better signal compared to the KES, thanks to a larger detection efficiency and a lower background level due to time of flight selection.
6

Mathematical and algorithmic analysis of modified Langevin dynamics / L'analyse mathématique et algorithmique de la dynamique de Langevin modifié

Trstanova, Zofia 25 November 2016 (has links)
En physique statistique, l’information macroscopique d’intérêt pour les systèmes considérés peut être dé-duite à partir de moyennes sur des configurations microscopiques réparties selon des mesures de probabilitéµ caractérisant l’état thermodynamique du système. En raison de la haute dimensionnalité du système (quiest proportionnelle au nombre de particules), les configurations sont le plus souvent échantillonnées en util-isant des trajectoires d’équations différentielles stochastiques ou des chaînes de Markov ergodiques pourla mesure de Boltzmann-Gibbs µ, qui décrit un système à température constante. Un processus stochas-tique classique permettant d’échantillonner cette mesure est la dynamique de Langevin. En pratique, leséquations de la dynamique de Langevin ne peuvent pas être intégrées analytiquement, la solution est alorsapprochée par un schéma numérique. L’analyse numérique de ces schémas de discrétisation est maintenantbien maîtrisée pour l’énergie cinétique quadratique standard. Une limitation importante des estimateurs desmoyennes sontleurs éventuelles grandes erreurs statistiques.Sous certaines hypothèsessur lesénergies ciné-tique et potentielle, il peut être démontré qu’un théorème de limite central est vrai. La variance asymptotiquepeut être grande en raison de la métastabilité du processus de Langevin, qui se produit dès que la mesure deprobabilité µ est multimodale.Dans cette thèse, nous considérons la discrétisation de la dynamique de Langevin modifiée qui améliorel’échantillonnage de la distribution de Boltzmann-Gibbs en introduisant une fonction cinétique plus généraleà la place de la formulation quadratique standard. Nous avons en fait deux situations en tête : (a) La dy-namique de Langevin Adaptativement Restreinte, où l’énergie cinétique s’annule pour les faibles moments,et correspond à l’énergie cinétique standard pour les forts moments. L’intérêt de cette dynamique est que lesparticules avec une faible énergie sont restreintes. Le gain vient alors du fait que les interactions entre lesparticules restreintes ne doivent pas être mises à jour. En raison de la séparabilité des positions et des mo-ments marginaux de la distribution, les moyennes des observables qui dépendent de la variable de positionsont égales à celles calculées par la dynamique de Langevin standard. L’efficacité de cette méthode résidedans le compromis entre le gain de calcul et la variance asymptotique des moyennes ergodiques qui peutaugmenter par rapport à la dynamique standards car il existe a priori plus des corrélations dans le tempsen raison de particules restreintes. De plus, étant donné que l’énergie cinétique est nulle sur un ouvert, ladynamique de Langevin associé ne parvient pas à être hypoelliptique. La première tâche de cette thèse est deprouver que la dynamique de Langevin avec une telle énergie cinétique est ergodique. L’étape suivante con-siste à présenter une analyse mathématique de la variance asymptotique de la dynamique AR-Langevin. Afinde compléter l’analyse de ce procédé, on estime l’accélération algorithmique du coût d’une seule itération,en fonction des paramètres de la dynamique. (b) Nous considérons aussi la dynamique de Langevin avecdes énergies cinétiques dont la croissance est plus que quadratique à l’infini, dans une tentative de réduire lamétastabilité. La liberté supplémentaire fournie par le choix de l’énergie cinétique doit être utilisée afin deréduire la métastabilité de la dynamique. Dans cette thèse, nous explorons le choix de l’énergie cinétique etnous démontrons une convergence améliorée des moyennes ergodiques sur un exemple de faible dimension.Un des problèmes avec les situations que nous considérons est la stabilité des régimes discrétisés. Afind’obtenir une méthode de discrétisation faiblement cohérente d’ordre 2 (ce qui n’est plus trivial dans le casde l’énergie cinétique générale), nous nous reposons sur les schémas basés sur des méthodes de Metropolis. / In statistical physics, the macroscopic information of interest for the systems under consideration can beinferred from averages over microscopic configurations distributed according to probability measures µcharacterizing the thermodynamic state of the system. Due to the high dimensionality of the system (whichis proportional to the number of particles), these configurations are most often sampled using trajectories ofstochastic differential equations or Markov chains ergodic for the probability measure µ, which describesa system at constant temperature. One popular stochastic process allowing to sample this measure is theLangevin dynamics. In practice, the Langevin dynamics cannot be analytically integrated, its solution istherefore approximated with a numerical scheme. The numerical analysis of such discretization schemes isby now well-understood when the kinetic energy is the standard quadratic kinetic energy.One important limitation of the estimators of the ergodic averages are their possibly large statisticalerrors.Undercertainassumptionsonpotentialandkineticenergy,itcanbeshownthatacentrallimittheoremholds true. The asymptotic variance may be large due to the metastability of the Langevin process, whichoccurs as soon as the probability measure µ is multimodal.In this thesis, we consider the discretization of modified Langevin dynamics which improve the samplingof the Boltzmann–Gibbs distribution by introducing a more general kinetic energy function U instead of thestandard quadratic one. We have in fact two situations in mind:(a) Adaptively Restrained (AR) Langevin dynamics, where the kinetic energy vanishes for small momenta,while it agrees with the standard kinetic energy for large momenta. The interest of this dynamics isthat particles with low energy are restrained. The computational gain follows from the fact that theinteractions between restrained particles need not be updated. Due to the separability of the positionand momenta marginals of the distribution, the averages of observables which depend on the positionvariable are equal to the ones computed with the standard Langevin dynamics. The efficiency of thismethod lies in the trade-off between the computational gain and the asymptotic variance on ergodic av-erages which may increase compared to the standard dynamics since there are a priori more correlationsin time due to restrained particles. Moreover, since the kinetic energy vanishes on some open set, theassociated Langevin dynamics fails to be hypoelliptic. In fact, a first task of this thesis is to prove thatthe Langevin dynamics with such modified kinetic energy is ergodic. The next step is to present a math-ematical analysis of the asymptotic variance for the AR-Langevin dynamics. In order to complementthe analysis of this method, we estimate the algorithmic speed-up of the cost of a single iteration, as afunction of the parameters of the dynamics.(b) We also consider Langevin dynamics with kinetic energies growing more than quadratically at infinity,in an attempt to reduce metastability. The extra freedom provided by the choice of the kinetic energyshould be used in order to reduce the metastability of the dynamics. In this thesis, we explore thechoice of the kinetic energy and we demonstrate on a simple low-dimensional example an improvedconvergence of ergodic averages.An issue with the situations we consider is the stability of discretized schemes. In order to obtain aweakly consistent method of order 2 (which is no longer trivial for a general kinetic energy), we rely on therecently developped Metropolis schemes.
7

Simulation de centres de contacts

Buist, Éric January 2009 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
8

Méthode de simulation avec les variables antithétiques

Gatarayiha, Jean Philippe 06 1900 (has links)
Les fichiers qui accompagnent mon document ont été réalisés avec le logiciel Latex et les simulations ont été réalisés par Splus(R). / Dans ce mémoire, nous travaillons sur une méthode de simulation de Monte-Carlo qui utilise des variables antithétiques pour estimer un intégrale de la fonction f(x) sur un intervalle (0,1] où f peut être une fonction monotone, non-monotone ou une autre fonction difficile à simuler. L'idée principale de la méthode qu'on propose est de subdiviser l'intervalle (0,1] en m sections dont chacune est subdivisée en l sous intervalles. Cette technique se fait en plusieurs étapes et à chaque fois qu'on passe à l'étape supérieure la variance diminue. C'est à dire que la variance obtenue à la kième étape est plus petite que celle trouvée à la (k-1)ième étape ce qui nous permet également de rendre plus petite l'erreur d’estimation car l'estimateur de l'intégrale de f(x) sur [0,1] est sans biais. L'objectif est de trouver m, le nombre optimal de sections, qui permet de trouver cette diminution de la variance. / In this master thesis, we consider simulation methods based on antithetic variates for estimate integrales of f(x) on interval (0,1] where f is monotonic function, not a monotonic function or a function difficult to integrate. The main idea consists in subdividing the (0,1] in m sections of which each one is subdivided in l subintervals. This method is done recursively. At each step the variance decreases, i.e. The variance obtained at the kth step is smaller than that is found at the (k-1)th step. This allows us to reduce the error in the estimation because the estimator of integrales of f(x) on interval [0,1] is unbiased. The objective is to optimize m.
9

Méthode de simulation avec les variables antithétiques

Gatarayiha, Jean Philippe 06 1900 (has links)
Dans ce mémoire, nous travaillons sur une méthode de simulation de Monte-Carlo qui utilise des variables antithétiques pour estimer un intégrale de la fonction f(x) sur un intervalle (0,1] où f peut être une fonction monotone, non-monotone ou une autre fonction difficile à simuler. L'idée principale de la méthode qu'on propose est de subdiviser l'intervalle (0,1] en m sections dont chacune est subdivisée en l sous intervalles. Cette technique se fait en plusieurs étapes et à chaque fois qu'on passe à l'étape supérieure la variance diminue. C'est à dire que la variance obtenue à la kième étape est plus petite que celle trouvée à la (k-1)ième étape ce qui nous permet également de rendre plus petite l'erreur d’estimation car l'estimateur de l'intégrale de f(x) sur [0,1] est sans biais. L'objectif est de trouver m, le nombre optimal de sections, qui permet de trouver cette diminution de la variance. / In this master thesis, we consider simulation methods based on antithetic variates for estimate integrales of f(x) on interval (0,1] where f is monotonic function, not a monotonic function or a function difficult to integrate. The main idea consists in subdividing the (0,1] in m sections of which each one is subdivided in l subintervals. This method is done recursively. At each step the variance decreases, i.e. The variance obtained at the kth step is smaller than that is found at the (k-1)th step. This allows us to reduce the error in the estimation because the estimator of integrales of f(x) on interval [0,1] is unbiased. The objective is to optimize m. / Les fichiers qui accompagnent mon document ont été réalisés avec le logiciel Latex et les simulations ont été réalisés par Splus(R).
10

Simulation de centres de contacts

Buist, Éric January 2009 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

Page generated in 0.5313 seconds