Spelling suggestions: "subject:"simulationlation dde fonte carlo"" "subject:"simulationlation dde fonte sarlo""
11 |
Improving the simulation of IaaS Clouds / Amélioration de simulation de cloud IaaS via l’emploi de méthodes stochastiquesBertot, Luke 17 June 2019 (has links)
Les clouds sont devenus ces dernières années des plate-formes incontournables dans le monde informatique, car ils permettent de provisionner des ressources à la demande et de ne payer qu’à l’usage. Ceci ouvre la possibilité de concevoir de nouvelles stratégies pour la planification et l’exécution des applications parallèles de type tâches indépendantes ou workflow. Cependant, trouver une stratégie bien adaptée aux contraintes des utilisateurs, que ce soit en termes de coûts et de temps d’exécution, est un problème difficile, pour lequel des outils de prédictions sont nécessaires. Néanmoins, la variabilité inhérente de ces plate-formes complexifient le développement d’un tel outil de prédiction. Notre thèse est que la simulation stochastique est une approche pertinente pour obtenir une prédiction s’accommodant de la variabilité, en produisant une distribution probabiliste des prédictions englobant les résultats réels observables. Pour le démontrer, nous utilisons une méthode de Monte-Carlo permettant de créer des simulations stochastiques par la répétitions de simulations déterministes. Nous montrons que cette méthode associée à certaines distributions d’entrée permettent de modéliser la variabilité d’une plate-forme à travers un unique paramètre. Pour évaluer la méthode proposée, nous comparons les résultats de notre méthode probabiliste à des exécutions réelles d’applications scientifiques. Nos expériences montrent que notre méthode permet de produire des prédictions représentatives des exécutions réelles observées. / The ability to provision resources on the fly and their pay-as-you-go nature has made cloud computing platforms a staple of modern computer infrastructure. Such platforms allow for new scheduling strategies for the execution of computing workloads. Finding a strategy that satisfies a user’s cost and time constraints is a difficult problem that requires a prediction tool. However the inherent variability of these platforms makes building such a tool a complex endeavor. Our thesis is that, by producing probability distributions of possible outcomes, stochastic simulation can be used to produce predictions that account for the variability. To demonstrate this we used Monte Carlo methods to produce a stochastic simulation by repeatedly running deterministic simulations. We show that this method used in conjunction with specific input models can model the variability of a platform using a single parameter. To validate our method we compare our results to real executions of scientific workloads. Our experiments show that our method produces predictions capable of representing theobserved real executions.
|
12 |
Analyse quantitative des particules atmosphériques par microscopie électronique à balayage couplée à la spectrométrie d'émission XChoël, Marie 12 September 2005 (has links) (PDF)
Les aérosols atmosphériques consistent en un mélange hétérogène de particules de différentes natures. La technique MEB-EDS permet de caractériser à la fois morphologiquement et chimiquement la fraction particulaire de l'aérosol à l'échelle de la particule individuelle. Pour rendre l'analyse représentative, un système de pilotage de la platine combiné avec un logiciel d'analyse d'image permet d'examiner en mode automatisé des milliers de particules par échantillon. Le développement de détecteurs X dotés de fenêtres minces, qui limitent l'absorption des éléments de faibles numéros atomiques, permet la détection du carbone, de l'azote et de l'oxygène, éléments très abondants dans les échantillons environnementaux. Pour bénéficier de ce progrès technologique rendant faisable l'analyse qualitative étendue à C, N, O, il convient en premier lieu d'optimiser le choix du substrat de collection des particules, afin que sa contribution spectrale soit différenciable de celle de la particule. A cette fin, une procédure de fabrication de plaquettes de bore a été mise au point. Par ailleurs, la technique MEB-EDS n'est pas standardisée pour l'analyse élémentaire quantitative de particules micrométriques dont le volume est plus petit que le volume d'interaction. Les performances d'un programme de quantification inverse par simulation des trajectoires électroniques au sein des particules par la méthode de Monte Carlo ont été évaluées pour des particules modèles de tailles comprises entre 0,25 et 10 µm. L'ensemble de la procédure analytique a permis d'atteindre des justesses estimées à +/-8,8% d'erreur relative moyenne, C, N et O compris.
|
13 |
Simulation de la diffusion de la lumière et des gaz par techniques de Monte CarloBlasi, Philippe 19 December 1996 (has links) (PDF)
La synthèse d'images réalistes nécessite la modélisation précise des interactions de la lumière avec la matière (réflexion, réfraction, diffusion) et des échanges d'énergie lumineuse entre les objets de la scène. Cette modélisation, très complexe si l'on ne fait pas d'hypothèses restrictives, peut être efficacement réalisée par simulation de Monte Carlo. Dans le présent travail, nous définissons tout d'abord une méthode complète d'illumination de scène, fondée sur une simulation de Monte Carlo d'un modèle "particulaire" de la lumière. Dans un premier temps, nous développons cette simulation pour les milieux participants. Nous diminuons la variance de la simulation par un calcul exact de l'absorption. Nous étendons ensuite ce travail aux objets surfaciques et proposons une technique de regroupement de photons pour obtenir une efficacité constante à chaque pas de calcul. Dans la deuxième partie de ce travail, nous étudions l'application de cette méthode à la visualisation des champs scalaires tri-dimensionnels, puis l'application de certaines techniques issues de la synthèse d'images (facettisation, de données volumiques, partitionnement spatial, images de distance, ...) à la simulation de la diffusion des gaz, présentant de nombreuses similitudes avec la simulation de la diffusion de la lumière.
|
14 |
Etude du speckle de milieux diffusants liquides. Application à la détermination de paramètres biophysiquesPiederriere, Yann 15 December 2003 (has links) (PDF)
Le travail présenté dans ce mémoire se place dans le cadre du développement actuel de l'optique laser pour l'établissement de diagnostics médicaux. Dans ce but, l'étude du champ de speckle peut se révéler être une voie pertinente d'analyse. Le speckle, ou granularité lumineuse, formé par des milieux diffusants éclairés par une source de lumière cohérente, peut potentiellement apporter une quantité importante d'informations sur ces milieux. En effet, lorsque aucun système imageant n'est employé, les caractéristiques du speckle comme la taille des grains, le contraste, la polarisation ou encore la dynamique du speckle, sont fonctions des propriétés de diffusion et de la dynamique du milieu. Après une présentation des aspects statistiques associés au speckle et une description des conditions expérimentales employées, nous avons donc étudié l'effet de la diffusion de milieux liquides sur la taille des grains de speckle ainsi que sur le contraste de speckle. En transmission, cette étude nous a permis de caractériser des échantillons selon la dimension des particules diffusantes. Une étude théorique a permis de voir que l'évolution de la taille des grains en fonction de la diffusion et de la dimension des particules du milieu diffusant peut être prévue par la simulation de profils de diffusion par la méthode de Monte Carlo. Actuellement, beaucoup de recherches sont menées pour déterminer des méthodes de mesures non invasive et in vivo de la glycémie pour les diabétiques. Dans ce contexte, nous avons mesuré l'effet de l'addition de glucose dans un milieu diffusant sur la taille des grains de speckle observés dans une configuration de réflexion diffuse. L'analyse de la dynamique des grains de speckle permet d'accéder au contrôle de l'agitation des particules dans le milieu diffusant. Cet aspect a été appliqué, dans le domaine de l'hématologie, au suivi de réactions de coagulation plasmatique. C'est ainsi que plusieurs échantillons de plasma ont pu être caractérisés selon leur temps et dynamiques de coagulations.
|
15 |
Contribution à l'évaluation de la sécurité des systèmes complexes de transport guidéBeugin, Julie 20 December 2006 (has links) (PDF)
Un système de transport guidé est un système complexe qui intègre de nombreux sous-systèmes en interaction pour garantir un déplacement en toute sécurité. Répartis sur l'ensemble du système en tant que sous-systèmes bord et sol, de tels moyens de sécurité consistent à éviter toute situation à risque pouvant mener à des conséquences graves. La sécurité nécessite d'être évaluée afin de justifier que l'ensemble des moyens mis en œuvre pour maîtriser les risques est suffisant. Cependant en raison de la complexité de ces systèmes, l'évaluation globale de la sécurité apparaît problématique.<br /><br />Ces travaux de recherche se sont consacrés à l'élaboration d'une approche d'évaluation de la sécurité focalisant sur l'ensemble du système et tenant compte des SILs (Safety Integrity Levels). Les niveaux d'intégrité de sécurité sont des exigences introduites par les normes de sécurité fonctionnelle pour fixer des objectifs à atteindre par les fonctions de sécurité selon un référentiel commun. Une quantification des profils de risque tenant compte des dépendances et des SILs de ces fonctions a d'abord été proposée, notamment par l'emploi de techniques de simulation de Monte Carlo biaisée surmontant la faible occurrence des événements de sécurité. Ensuite un exemple de système de transport guidé a été modélisé selon le concept original de situation d'exploitation développé pour considérer les différentes conditions de sécurité dont le contexte opérationnel du système, et permettre de formaliser différents profils de risque. Grâce à une maquette logicielle s'appuyant sur la modélisation précédente, plusieurs simulations du système ont été réalisées et ont mené une évaluation de la sécurité.
|
16 |
Testy nezávislosti pro mnohorozměrná data / Tests of independence for multivariate dataKudlík, Michal January 2016 (has links)
Title: Tests of independence for multivariate data Author: Bc. Michal Kudlík Department: Department of Probability and Mathematical Statistics Supervisor: Ing. Marek Omelka, PhD., Department of Probability and Mathema- tical Statistics Abstract: This thesis is an overview of tests of independence for multidimensi- onal data. The report includes tests on independence of categorical and conti- nuous random variables, tests assuming normal distribution of data, asymptotic nonparametric tests and permutation tests with application of the Monte Carlo method. This thesis shows the suitability of tests with properly chosen real data and checks significance level and compares the strength of the selected tests by simulation study while using appropriate statistical software. Based on the simu- lation study the thesis discusses an appropriateness of the use of different tests for different situations. Keywords: independence, permutation and asymptotic tests of independence, Monte Carlo method, simulation study 1
|
17 |
Statistique Bayésienne et Monte-Carlo de Second Ordre pour l'évaluation des risques microbiologiques. Le cas de Listeria monocytogenes dans les produits de IVème gammeCrépet, Amélie 12 December 2007 (has links) (PDF)
Listeria monocytogenes par sa présence dans les végétaux et sa capacité à se développer à de faibles températures représente un danger pour les consommateurs de salades de IVème gamme. L'objectif de ces travaux est de construire un modèle d'évaluation des risques de listériose par consommation de ce produit. Nous opérons en deux temps : estimation des paramètres d'entrée du modèle par inférence bayésienne puis, à partir des distributions obtenues, simulation de l'exposition et du risque par méthodes de Monte-Carlo de second ordre. Ces techniques permettent de propager séparément la variabilité et l'incertitude le long de la chaîne alimentaire. En particulier, un modèle d'estimation de la distribution de la contamination microbiologique d'un aliment, tenant compte des faibles concentrations est développé. L'effet sur le risque de différents scénarios comme le plafonnement de la croissance de L. monocytogenes ou l'élimination du chlore du procédé industriel est évalué.
|
18 |
Évaluation de performance d’architecture de contrôle-commande en réseau dans un contexte incertain d’avant-vente / Performance assessment of Networked Control System (NCS) during uncertain pre-sales contextNdiaye, Moulaye A.A. 16 March 2017 (has links)
Ce mémoire, réalisé dans le cadre d’une thèse sous convention CIFRE avec la société Schneider-Electric et l’Université de Lorraine à travers le laboratoire du CRAN, porte sur l’évaluation des performances temporelles des architectures de contrôle-commande distribuées sur un réseau de communication. Le besoin industriel s’exprime sous la forme d’un outil d’aide au dimensionnement des architectures en phase d’avant-vente caractérisée par une connaissance partielle de ces dernières. Le problème scientifique sous-jacent est relatif à la génération automatique des modèles servant de support à l’évaluation. En effet, l’évaluation des performances doit être réalisée pour un ensemble important d’architectures, dans un temps court, difficilement compatible avec une construction manuelle des modèles. Notre contribution porte sur la définition formelle, à l’aide de réseaux de Petri colorés et temporisés, d’un modèle « constructeur » d’architectures embarquant des mécanismes de configuration, d’instanciation et de paramétrage. Plusieurs algorithmes sont proposés pour, d’une part, construire automatiquement le modèle d’une architecture donnée, à partir d’une description formelle de sa topologie et d’une librairie de modèles d’équipements de contrôle-commande, et, d’autre part, pour générer les observateurs requis à partir d’une description formelle des performances à évaluer. Ces différents algorithmes ont été implantés dans un outil interfacé, d’une part avec l’outil Schneider de description des architectures, et, d’autre part avec le simulateur de l’outil CPN Tools qui fournit une estimation des performances via des simulations de Monte-Carlo. L’intérêt de cette approche a été illustrée sur la base de quelques architectures types fournies par la société Schneider-Electric / This PhD dissertation, supported by CIFRE convention between the company Schneider-Electric and the University of Lorraine through the CRAN laboratory, deals with the assessment of temporal performances for a networked distributed control system. The industrial need was the development of a quotation and sizing tool of industrial control architecture during pre-sales stage. This stage is characterized by limited information about the process and the customers’ needs. The underlying scientific problematic was the ability to generate automatically models serving as support for the evaluation. In fact, performance assessment is realized for a wide range of architecture during a small amount of time, which is not compliant with a manual definition of the models. Our contribution is mainly based on a formal definition of a “builder” model with Colored and Timed Petri Nets which embeds mechanisms for configuration, instantiation and parameters setting of the architecture models. Several algorithms have been proposed for firstly build automatically the architecture Petri Nets model from a formal description of the topology and from a component model library and, secondly, for generating performance observers. Theses algorithms have been implemented on a tool gathering a user interface developed by Schneider –Electric and the Petri Nets simulator called CPN Tools which provides the performance assessment through Monte-Carlo simulation. The added value of this approach has been illustrated through case studies provided by Schneider-Electric
|
19 |
Signal decompositions using trans-dimensional Bayesian methods. / Décomposition de signaux dans un cadre bayésien trans-dimensionnelRoodaki, Alireza 14 May 2012 (has links)
Cette thèse porte sur le problème de la décomposition de signaux contenant un nombre inconnu de composantes, envisagé dans un cadre bayésien. En particulier, nous nous concentrons sur la question de la description des lois a posteriori qui ont la spécificité, pour les problèmes de ce genre, d’être définies sur une union de sous-espaces de dimensions différentes. Ces lois peuvent être échantillonnées à l’aide de techniques de Monte Carlo récentes, telles que l’échantillonneur MCMC à sauts réversibles (RJ-MCMC), mais aucune approche générique n’existe à l’heure actuelle pour décrire les échantillons produits par un tel échantillonneur et en extraire les paramètres spécifiques des composantes. L’un des principaux obstacles est le problème de la commutation des étiquettes (label-switching), causé par l’invariance de la loi a posteriori vis-à-vis de permutations de ses composantes. Nous proposons une nouvelle approche pour résoudre ce problème, qui consiste à approcher la loi a posteriori d’intérêt par une loi paramétrique plus “simple”, mais toujours définie sur un espace de dimension variable. Nous développons des algorithmes de type SEM (Stochastic Expectation-Maximization), s’appuyant sur la sortie d’un échantillonneur RJ-MCMC, afin d’estimer les paramètres du modèle par minimisation d’une divergence entre les deux lois. Deux problèmes de décomposition de signaux illustrent la capacité de la méthode proposée à résoudre le problème de commutation des étiquettes et à produire des résumés de lois a posteriori définies sur des espaces de dimension variable : le problème classique de détection et d’estimation de composantes sinusoïdales dans un bruit blanc d’une part, et un problème de comptage de particules motivé par le projet Pierre Auger en astrophysique d’autre part. / This thesis addresses the challenges encountered when dealing with signal decomposition problems with an unknown number of components in a Bayesian framework. Particularly, we focus on the issue of summarizing the variable-dimensional posterior distributions that typically arise in such problems. Such posterior distributions are defined over union of subspaces of differing dimensionality, and can be sampled from using modern Monte Carlo techniques, for instance the increasingly popular Reversible-Jump MCMC (RJ-MCMC) sampler. No generic approach is available, however, to summarize the resulting variable-dimensional samples and extract from them component-specific parameters. One of the main challenges that needs to be addressed to this end is the label-switching issue, which is caused by the invariance of the posterior distribution to the permutation of the components. We propose a novel approach to this problem, which consists in approximating the complex posterior of interest by a “simple”—but still variable-dimensional parametric distribution. We develop stochastic EM-type algorithms, driven by the RJ-MCMC sampler, to estimate the parameters of the model through the minimization of a divergence measure between the two distributions. Two signal decomposition problems are considered, to show the capability of the proposed approach both for relabeling and for summarizing variable dimensional posterior distributions: the classical problem of detecting and estimating sinusoids in white Gaussian noise on the one hand, and a particle counting problem motivated by the Pierre Auger project in astrophysics on the other hand.
|
20 |
Analyse multi-échelles du transport d'hydrocarbures au sein d'un schiste non-saturé / Molecular Simulation of Shales Organic MatterCollell, Julien 16 July 2015 (has links)
La production d'hydrocarbures de schistes (shales) connait un regain d'intérêt à la fois scientifique et industriel depuis une quinzaine d’années. Cela représente de par le monde d’énormes ressources et risque de modifier durablement le marché énergétique, comme c'est le cas actuellement aux États Unis. Cependant, la récupération des hydrocarbures reste un enjeu majeur impactant au premier ordre la rentabilité de ces ressources. La majorité des hydrocarbures de shales est contenue dans des nodules micrométriques de matière organique : le kérogène, qui est à la fois la roche mère et le réservoir des fluides pétroliers. L’objectif de cette thèse est d’étudier le comportement du kérogène et de ses hydrocarbures grâce à la simulation moléculaire. Pour cela, nous avons effectué des simulations de Dynamique Moléculaire et de Monte Carlo à l’aide de logiciels existants et de développements internes. La première partie de ce travail a consisté à construire des modèles moléculaires visant à reproduire la matière organique contenue dans les shales (le kérogène et ses fluides). À partir de ces modèles, des structures 3D ont été générées en conditions de réservoirs. La représentativité de ces structures a été validée par des mesures expérimentales sur les propriétés volumiques, mécaniques, de stockage et de transport. Puis, nous avons mené une étude approfondie sur l’adsorption et la diffusion d’hydrocarbures dans la matrice kérogène. Les simulations moléculaires ont été effectuées en vue de fournir des données pseudo-expérimentales ainsi que des données de références pour la modélisation. Concernant les propriétés de stockage, un modèle théorique pour l’adsorption de mélanges de fluides sous-critiques (type gaz à condensats ou huiles légères) et super-critique (type gaz sec) a été proposé et validé sur les données de simulation moléculaires. Concernant les propriétés de transport, les mécanismes régissant les transferts de masses ont été identifiés et un modèle a été proposé pour prédire l’évolution des coefficients de diffusion des hydrocarbures avec la température, la pression et la composition des hydrocarbures. / Hydrocarbons production from shales has been of growing industrial and scientific interest for the last fifteen years. The different kinds of shale resources represent huge quantities around the world and may durably change the energy market, as for example in the US. However, the recovery process remains critical and may drastically impact the profitability of these resources. In shales, the majority of the fluids are contained in micrometered nodules of organic matter : the kerogen, which acts as source rock and as reservoir for the oil and gas. The aim of the PhD thesis is to study the kerogen and the petroleum fluids contained in shales, by molecular simulations. For this purpose, Monte Carlo and Molecular Dynamics simulations with existing molecular simulation softwares and in-house codes have been used. The first part of the work has been dedicated to the construction of molecular models mimicking shales organic matter (kerogen and embedded fluids), based on analytical data. From these models, 3D structures have been generated under typical reservoir conditions. Agreements with available experimental results have been found on volumetric, storage, transport and mechanical properties. Then, we have focused our efforts on the adsorption and diffusion of hydrocarbon mixtures in such materials. Molecular simulations have been performed to provide both pseudo-experimental and reference data. On storage properties, a theoretical model which accounts for multicomponent adsorption of super-critical (dry gas) and sub-critical (condensate gas, light oil) mixtures has been developed and validated. On transport properties, the mechanisms governing hydrocarbon mass transfer have been identified and a model has been proposed which describes the dependence of mixture diffusion coefficients with thermodynamic conditions (composition, pressure and temperature).
|
Page generated in 0.0894 seconds