• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 81
  • 30
  • 3
  • Tagged with
  • 115
  • 115
  • 115
  • 31
  • 23
  • 22
  • 22
  • 16
  • 14
  • 13
  • 13
  • 12
  • 12
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Conception d'un formalisme de pouvoir d'arrêt équivalent et accélération graphique : des simulations Monte Carlo plus efficaces en protonthérapie

Maneval, Daniel 27 April 2019 (has links)
En radiothérapie, la planification de traitement correspond à l’optimisation de la balistique pour administrer la dose prescrite aux lésions à traiter, tout en minimisant les doses collatérales reçues par les tissus sains. L’algorithme de calcul de dose qui est au cœur de cette simulation numérique se doit d’être précis et efficace. L’antagonisme de ces deux compétences a abouti au développement d’algorithmes analytique rapides dont l’amélioration de la précision dosimétrique a, de nos jours, atteint sa limite. L’exactitude de l’algorithme de calcul de dose est particulièrement importante en protonthérapie pour exploiter pleinement le potentiel balistique des protons. La méthode Monte Carlo de transport de proton est la plus précise mais également la moins efficace. Cette thèse a pour sujet le développement d’une plateforme Monte Carlo de calcul de dose suffisamment efficace pour envisager son utilisation en routine clinique. L’objectif principal du projet est d’accélérer le transport Monte Carlo de protons sans compromettre la précision des dépôts de dose. Pour ce faire, deux voies de recherche ont été exploitées. La première a consisté à établir une nouvelle méthode de réduction de variance nommée formalisme du pouvoir d’arrêt restreint équivalent (formalisme Leq). Cette technique améliore significativement la complexité algorithmique temporelle rendue constante (O(1)) au lieu de linéaire (O(n)) des algorithmes Monte Carlo actuels. La seconde voie de recherche s’est attardée à l’utilisation des processeurs graphiques pour améliorer la vitesse d’exécution du transport Monte Carlo de protons. La plateforme développée, nommée pGPUMCD, réalise le transport des protons sur des processeurs graphiques au sein de géométries voxelisées. Dans pGPUMCD, les techniques d’interactions condensées et ponctuelles sont considérées. Les interactions inélastiques de faibles portées sont modélisées par la décélération continue du proton à l’aide du formalisme Leq, et les interactions élastiques par la diffusion coulombienne multiple. Les interactions ponctuelles modélisées sont les interactions inélastiques, les intéractions nucléaires élastiques et non-élastiques proton-noyaux. pGPUMCD est comparé à Geant4, et les procédés physiques implémentés sont validés les uns après les autres. Pour les cas cliniques de calcul de dose, 27 matériaux sont définis pour la segmentation des tissus du scanner tomodensitométrique. L’exactitude dosimétrique du formalisme Leq est meilleure que 0.31% pour divers milieux allant de l’eau à l’or. Les gains d’efficacité intrinsèque au formalisme Leq sont supérieurs à 30 : entre 100 et 630 à précisions dosimétriques similaires. Combiné à l’accélération du GPU, le gain d’efficacité est d’un ordre de grandeur supérieur à 10⁵. pGPUMCD concorde à Geant4 à moins de 1% jusqu’au pic de Bragg et à moins de 3% dans sa pénombre distale, pour différentes configurations de simulations allant des milieux homogènes jusqu’aux cas cliniques. De plus, 99.5% des points de dose passent le critère 1% et les portées de prescription concordent avec celles de Geant4 à moins 0.1%. Les temps de calcul de pGPUMCD sont inférieurs à 0.5 seconde par million de protons transportés contre plusieurs heures avec Geant4. Les performances dosimétriques et d’efficacité de pGPUMCD lui confèrent les bonnes caractéristiques pour être employé dans un environnement de planification dosimétrique clinique. L’apport médical attendu est un meilleur contrôle sur les doses administrées, ce qui permet une réduction significative des marges et des toxicités des traitements. / In radiotherapy, treatment planning is the optimization of the ballistics to administer the prescribed dose to the treated lesions while minimizing collateral doses received by the healthy tissue. The algorithm of the dose calculation is at the heart of this numerical simulation. It must be precise and computationally efficient. The antagonism of these two features has led to the development of rapid analytical algorithms whose improvement in dosimetric accuracy has nowadays reached its limit. The accuracy of the dose calculation algorithm is particularly important in proton therapy to fully exploit the ballistic potential of protons. The Monte Carlo proton transport method is the most accurate but also the least efficient. This thesis deals with the development of a Monte Carlo dose calculation platform that is sufficiently effective to consider its use in clinical routine. The main objective of the project is to accelerate the Monte Carlo proton transport without compromising the precision of the dose deposition. To do this, two lines of research have been exploited. The first was to establish a new variance reduction technique called the equivalent restricted stopping power formalism (formalism Leq). This technique significantly improves the algorithmic time complexity made constant (O(1)) instead of linear (O(n)) for the current Monte Carlo algorithms. The second line of research focused on the use of graphics processing units to improve the execution speed of the proton Monte Carlo transport. The developed platform, named pGPUMCD, transports protons on graphic processors in a voxelized geometry. In pGPUMCD, condensed and discrete interaction techniques are considered. The inelastic low-range interactions are modeled with a continuous proton slowing down using the Leq formalism and the energy straggling is considered. The elastic interactions are based on the multiple Coulomb scattering. The discrete interactions are the inelastic interactions, the nuclear elastic and the non-elastic proton-nuclei interactions. pGPUMCD is compared to Geant4 and the implemented physical processes are validated one after the other. For the dose calculation in a clinical context, 27 materials are defined for the tissue segmentation from the CT scan. The dosimetric accuracy of the Leq formalism is better than 0.31% for various materials ranging from water to gold. The intrinsic efficiency gain factors of the Leq formalism are greater than 30, between 100 to 630 for a similar dosimetric accuracy. Combined with the GPU acceleration, the efficiency gain is an order of magnitude greater than 10⁵. Dose differences between pGPUMCD and Geant4 are smaller than 1% in the Bragg peak region and below 3% in its distal fall-off for the different simulation configurations with homogeneous phantoms and clinical cases. In addition, 99.5% of the dose points pass the criterion 1% and the prescribing ranges match with those of Geant4 at less than 0.1%. The computing times of pGPUMCD are below 0.5 seconds per million of transported protons compared to several hours with Geant4. The dosimetric and efficiency performances of pGPUMCD make it a good candidate to be used in a clinical dosimetric planning environment. The expected medical benefit is a better control of the delivered doses allowing a significant margin and toxicity reductions of the treatments.
32

Application of stochastic differential equations and Monte Carlo approaches to the modeling of the neurotransmitters diffusion in the synaptic cleft

Li, Xiaoting 26 March 2024 (has links)
Titre de l'écran-titre (visionné le 10 octobre 2023) / Cette thèse porte sur l'utilisation de différents outils mathématiques pour décrire la transmission synaptique. Le but de mon travail est double. Sur le plan biologique, j'ai effectué des simulations pour aider à mieux comprendre la transmission synaptique, en particulier le rôle des nanocolonnes dans la formation du courant synaptique. Les nanocolonnes sont des structures sous-microscopiques qui alignent les récepteurs postsynaptique et les vésicules présynaptiques. Étant donné qu'il est très difficile d'étudier expérimentalement les nanocolonnes, la modélisation mathématique devient un outil important pour mieux comprendre leur rôle et leur fonction. Cette partie de mon travail m'a amenée à publier un article de recherche dans la revue Frontiers in Comuptational Neuroscience intitulé "Computational modeling of trans-synaptic nanocolumns, a modulator of synaptic transmission". Dans cet article, nous montrons à travers des simulations mathématiques que les nanocolonnes pourraient jouer un rôle dans le renforcement des courants synaptiques dans les synapses de petites tailles. Le deuxième objectif de cette thèse est d'étudier différents outils mathématiques qui pourraient a priori être utilisés pour décrire la transmission synaptique. Une étape importante de la transmission synaptique est la diffusion des neurotransmetteurs dans la fente synaptique. D'un point de vue mathématique, une approche courante consiste à considérer la concentration des neurotransmetteurs comme une quantité continue et à décrire son évolution en résolvant l'équation de la chaleur. Dans le chapitre 1 de cette thèse, je discute des solutions et de l'approximation des solutions des équations de la chaleur sur des domaines cylindriques avec différentes conditions limites. Une approche plus précise est de décrire le mouvement des neurotransmetteurs individuels par une marche aléatoire. C'est cette méthode que j'ai utilisée dans mon article de recherche. Bien que plus précise, la description du mouvement des neurotransmetteurs individuels par des marches aléatoires est également plus coûteuse en calcul. De plus, étant donné la nature stochastique des simulations, une seule réalisation ne donnera qu'un résultat possible alors que de multiples simulations sont essentielles pour avoir une idée de la distribution des solutions. Cela peut être réalisé grâce à une approche Monte Carlo. Les marches aléatoires seront abordées dans le chapitre 3 de la thèse. Une troisième approche mathématique possible consiste à utiliser des équations différentielles stochastiques pour décrire le mouvement brownien des neurotransmetteurs. Les équations différentielles stochastiques ont l'avantage que leur solution fournit une distribution à partir de laquelle on peut déduire la probabilité d'une réalisation donnée. Cependant, les équations différentielles stochastiques sont généralement plus difficiles à résoudre et constituent un objet mathématique délicat à manipuler. Les équations différentielles stochastiques et la façon dont elles peuvent être appliquées à la description de la diffusion des neurotransmetteurs dans la synapse sont discutées au chapitre 2. / This thesis focuses on using different mathematical tools to describe synaptic transmission. The goal of my work is twofold. On the biological side, I performed simulations to help to better understand synaptic transmission, in particular the role of nanocolumns in shaping synaptic current. Nanocolumns are submicroscopic structures which align the postsynaptic receptors with the presynaptic vesicles. Given that it is very difficult to investigate experimentally nanocolumns, mathematical modeling becomes an important tool to better understand their role and function. This part of my work led me to publish a research paper in the journal Frontiers in Computational Neuroscience entitled "Computational modeling of trans-synaptic nanocolumns, a modulator of synaptic transmission" . In this research paper, we show through mathematical simulations that nanocolumns could play a role in reinforcing synaptic currents in weak synapses. The second goal of this thesis is to investigate different mathematical tools that could a priori be used to describe synaptic transmission. An important step in synaptic transmission is the diffusion of neurotransmitters in the synpatic cleft. From a mathematical standpoint, a common approach is to consider the concentration of neurotransmitters as a continuous quantity and to describe its evolution by solving the heat equation. In Chapter 1 of this thesis, I discuss solutions and approximation of solutions of heat equations on cylindrical domains with different boundaries conditions. A more accurate way to describe the movement of the neurotransmitters in the synaptic cleft is to describe the movement of individual neurotransmitters by a random walk. This second approach is the one I used in my research paper. While more accurate, the description of the movement of individual neurotransmitters by random walks is also more computationally expensive. Furthermore, given the stochastic nature of the simulations in this approach, a single realization will only give a possible outcome while performing multiple simulations is essential to get an idea of the distribution of solutions. This can be achieved through a Monte Carlo approach. Random walks will be discussed in chapter 3 of the thesis. A third possible mathematical approach is to use stochastic differential equations to describe the Brownian motion of neurotransmitters. Stochastic differential equations have the advantage that their solution provides a distribution from which one can deduce the probability of any given realization. However, stochastic differential are usually more difficult to solve and are a delicate mathematical object to handle. Stochastic differential equations and how they can be applied to the description of neurotransmitter diffusion in the synapse is discussion in chapter 2.
33

Cycle économique et modélisation de la structure à terme du spread CDS : implémentation de la simulation de Monte Carlo au modèle dynamique de Nelson-Siegel

Baron, Standley-Réginald 24 April 2018 (has links)
Au cours de ces dernières années, le spread du Credit Default Swap (CDS) est devenu l'un des instruments très utilisé pour mesurer le risque de crédit. La modélisation de la courbe de la structure à terme du spread CDS s'avère nécessaire, et elle est d'importance capitale pour la gestion quantitative du risque de crédit. Nous proposons une extension du modèle dynamique de Nelson Siegel, en modélisant les changements des facteurs bêtas par un processus autorégressif avec erreurs hétéroscédastiques tenant compte du cycle économique. Par la technique de Monte Carlo nous simulons, à l'aide d'une copule de Student, les prévisions sur un et quatre trimestres du spread CDS à différentes maturités. Notre modèle suggère que le niveau d'influence du cycle économique sur le spread CDS dépend de la maturité. Son impact sur les spreads à longue échéance est plus significatif que sur les spreads à courte maturité. Notre modèle AR-GARCH performe mieux, quel que soit l'horizon de prévision analysé dans le cadre de ce travail, que le modèle vecteur autorégressif (VAR) et le modèle de marche aléatoire.
34

Le Bootstrap comme méthode d'estimation du r de Pearson : une étude Monte Carlo

Chabot, Martin 15 November 2021 (has links)
La méthode Bootstrap est proposée comme alternative aux tests statistiques traditionnels. Le Bootstrap est une nouvelle technique permettant d'approximer la distribution d'échantillonage d'un estimateur. Sa validité est ici étudiée afin de démontrer l'intérêt de son utilisation dans des situations fréquemment rencontrées en psychologie. La recherche comprend trois parties, soit: une analyse graphique, une étude de robustesse et une étude de puissance. Des simulations Monte Carlo sur ordinateur sont utilisées afin de mener ces trois analyses. Les résultats démontrent l’utilité du Bootstrap dans de nombreuses situations où certaines certaines caractéristiques des distributions d’échantillonnages s’éloignent du cas gaussien.
35

La régression logistique : comparaison avec l'analyse probit à l'aide de la méthode Monte Carlo

Morel, Sylvie 25 April 2018 (has links)
Québec Université Laval, Bibliothèque 2015
36

Tests non paramétriques de spécification pour densité conditionnelle : application à des modèles de choix discret

Amegble, Koami Dzigbodi 23 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdorales, 2014-2015 / Dans ce travail, nous étudions la performance statistique (taille et puissance) en échantillon fini de deux tests non paramétriques de spécification pour densité conditionnelle proposés par Fan et al. (2006) et Li et Racine (2013). Ces tests permettent de vérifier si les probabilités conditionnelles postulées dans les modèles de choix discret (logit/probit multinomial à effets fixes ou aléatoires, estimateur de Klein et Spady (1993), etc) représentent correctement les choix observés. Par rapport aux tests existants, cette approche a l’avantage d’offrir une forme fonctionnelle flexible alternative au modèle paramétrique lorsque ce dernier se révèle mal spécifié. Ce modèle alternatif est directement issu de la procédure de test et il correspond au modèle non contraint obtenu par des produits de noyaux continus et discrets. Les deux tests explorés ont une puissance en échantillon fini supérieure aux tests existants. Cette performance accrue s’obtient en combinant une procédure bootstrap et l’utilisation de paramètres de lissage des fonctions noyaux par validation croisée par les moindres carrés. Dans notre application, nous parallélisons les calculs de taille et de puissance, ainsi que l’estimation des fenêtres de lissage, sur un serveur multi-processeurs (Colosse, de Calcul Québec). Nous utilisons des routines "Open MPI" pré-implémentées dans R. Par rapport aux simulations effectuées dans les articles originaux, nous postulons des modèles plus proches de ceux habituellement utilisés dans la recherche appliquée (logit et probit à variance unitaire notamment). Les résultats des simulations confirment les bonnes taille et puissance des tests en échantillon fini. Par contre, les gains additionnels de puissance de la statistique lissée proposée par Li et Racine (2013) se révèlent négligeables dans nos simulations. Mots clés : Bootstrap, choix discret, densité conditionnelle, Monte Carlo, produit de noyaux, puissance, taille.
37

Probabilistic design of wastewater treatment plants

Talebizadehsardari, Mansour 23 April 2018 (has links)
Dans cette étude, une méthode de conception probabiliste pour la conception d'usines de traitement des eaux usées (STEP) qui permet la quantification du degré de conformité aux normes de rejet en termes de probabilité a été proposée. La méthode de conception développée est une approche basée sur un modèle dans lequel les sources pertinentes d'incertitude sont exprimées en termes de fonctions de distribution de probabilité et leur effet combiné sur la distribution de la qualité de l'effluent sont quantifiés par simulation Monte Carlo. Pour ce faire, une série de conceptions en régime permanent avec différents niveaux de sécurité ont été générés en utilisant des règles de conception et la probabilité correspondante de non-conformité aux normes de rejet ont été calculés en utilisant des simulations dynamiques avec différentes réalisations de séries temporelles d'affluent et différentes valeurs pour les paramètres du modèle de station d'épuration. Pour générer différentes réalisations de séries temporelles d'affluent, un logiciel a été développé pour la génération de séries temporelles d'affluent tenant compte des conditions climatiques locales ainsi que les caractéristiques de base des réseaux d'égout connectés. En outre, différentes réalisations des paramètres du modèle de STEP ont été générés par l'échantillonnage des fonctions de distribution de probabilité et l'effet combiné de la variabilité de l'affluent et l'incertitude du modèle sur la distribution de la qualité des effluents a été calculé en exécutant un certain nombre de simulations Monte Carlo jusqu'à ce que la convergence de la distribution de la qualité des effluents a été atteinte. Une fois la convergence atteinte, la probabilité de non-respect d'une alternative de conception peut être calculée pour un certain niveau de qualité de l'effluent. La méthode de conception probabiliste peut aider les concepteurs à éviter l'application de facteurs de sécurité conservateurs qui pourraient entraîner un dimensionnement trop petit ou trop grand de stations d'épuration. En outre, le calcul de la probabilité de non-conformité comme un critère quantitatif peut aider les concepteurs et les décideurs à prendre une décision informée des risques en vue de la meilleure configuration de traitement, son dimensionnement, ainsi que le fonctionnement de l'usine pour la conception ou la mise à niveau des stations d'épuration. Mots-clés: usine de traitement des eaux usées, de conception dans l'incertitude, de la conception en fonction du risque, analyse de l'incertitude, probabilité de non-conformité. / In this study, a probabilistic design method for the design of wastewater treatment plants (WWTP) that enables the quantification of the degree of compliance to the effluent standards in terms of probability has been proposed. The developed design method is a model-based approach in which relevant sources of uncertainty are expressed in terms of probability distribution functions and their combined effect on the distribution of the effluent quality is quantified by Monte Carlo simulation. To do so, a set of steady-state designs with different levels of safety is first generated using a design guideline and then the corresponding probability of non-compliance (PONC) to the effluent standards is calculated using dynamic simulations under different realizations of influent time series and different values for the WWTP model parameters. To generate different realizations of the influent time series, a software tool was developed for synthetic generation of influent time series data considering the local climate conditions as well as basic characteristics of the connected sewershed. Moreover, different realizations of WWTP model parameters are generated by sampling from the probability distribution functions that are assigned to uncertain model parameters. The combined effect of influent variability and model uncertainty on the effluent distributions is calculated by running a certain number of Monte Carlo simulation runs until convergence of the effluent distribution is achieved. Once convergence is reached for the effluent distribution, the PONC for a design alternative can be calculated for a certain effluent standard. The probabilistic design method can help designers avoid the application of conservative safety factors that could result in over-or under-sizing of WWTPs. Moreover, calculating the probability of non-compliance as a quantitative criterion can help designers and decision makers make risk-informed decisions on the best treatment configuration, sizing, and plant operation during the design or upgrading of WWTPs. Keywords: Wastewater treatment plant, design under uncertainty, risk-informed design, uncertainty analysis, probability of non-compliance.
38

Analyse numérique d'équations aux dérivées aléatoires, applications à l'hydrogéologie

Charrier, Julia 12 July 2011 (has links) (PDF)
Ce travail présente quelques résultats concernant des méthodes numériques déterministes et probabilistes pour des équations aux dérivées partielles à coefficients aléatoires, avec des applications à l'hydrogéologie. On s'intéresse tout d'abord à l'équation d'écoulement dans un milieu poreux en régime stationnaire avec un coefficient de perméabilité lognormal homogène, incluant le cas d'une fonction de covariance peu régulière. On établit des estimations aux sens fort et faible de l'erreur commise sur la solution en tronquant le développement de Karhunen-Loève du coefficient. Puis on établit des estimations d'erreurs éléments finis dont on déduit une extension de l'estimation d'erreur existante pour la méthode de collocation stochastique, ainsi qu'une estimation d'erreur pour une méthode de Monte-Carlo multi-niveaux. On s'intéresse enfin au couplage de l'équation d'écoulement considérée précédemment avec une équation d'advection-diffusion, dans le cas d'incertitudes importantes et d'une faible longueur de corrélation. On propose l'analyse numérique d'une méthode numérique pour calculer la vitesse moyenne à laquelle la zone contaminée par un polluant s'étend. Il s'agit d'une méthode de Monte-Carlo combinant une méthode d'élements finis pour l'équation d'écoulement et un schéma d'Euler pour l'équation différentielle stochastique associée à l'équation d'advection-diffusion, vue comme une équation de Fokker-Planck.
39

Interaction lit fluidisé de particules solides-rayonnement solaire concentré pour la mise au point d'un procédé de chauffage de gaz à plus de 1000 K

Bounaceur, Arezki 09 December 2008 (has links) (PDF)
A l'heure actuelle les énergies fossiles traditionnelles (pétrole, charbon...) commencent à s'épuiser, ce qui pousse l'humanité à chercher d'autres sources d'énergie pour subvenir à ses besoins. La nature recèle beaucoup de sources d'énergie inépuisables et non polluantes comme l'énergie solaire, la biomasse et l'énergie éolienne. La disponibilité de l'énergie solaire, sa gratuité et son renouvellement encouragent sa collecte et son exploitation. L'énergie solaire peut être collectée pour diverses utilisations comme la réalisation d'une réaction chimique endothermique ou la production de l'électricité. La production de l'électricité solaire est opérée soit par des procédés photovoltaïques, soit par des procédés thermodynamiques. Ceux ci ont un rendement déjà intéressants, mais sont actuellement limités par la température des cycles à vapeur. Pour améliorer l'efficacité énergétique de ces procédés, une des solutions est de chauffer un gaz à très hautes températures en entrée d'une turbine à gaz. Le travail présenté dans ce mémoire décrit un procédé de collecte d'énergie solaire concentrée basé sur un lit fluidisé à changement de section. La collecte de l'énergie solaire se fait directement au travers d'une fenêtre transparente en quartz. La conception de notre récepteur solaire est basée sur deux études. La première consiste à tester plusieurs colonnes transparentes à froid de géométries et de dimensions différentes pour optimiser la distribution des particules lors de la fluidisation. Elle nous a permis de choisir les dimensions et la géométrie du récepteur solaire. En parallèle, nous avons réalisé un premier récepteur avec éclairement artificiel par des lampes infrarouges, au laboratoire RAPSODEE de l'Ecole des Mines d'Albi. Il nous a permis de vérifier la faisabilité du procédé et d'avoir les premiers résultats de la fluidisation à chaud. Le récepteur solaire a été ensuite testé au four solaire de 4,6 m du PROMES-CNRS à Odeillo. Durant notre travail nous avons étudié expérimentalement et numériquement les transferts thermiques dans le lit fluidisé et l'influence des divers paramètres physiques sur l'efficacité du récepteur. Un modèle mathématique des transferts radiatifs basé sur la méthode de Monte Carlo en 1 D a été réalisé. Ce modèle permet de déterminer la distribution des densités de flux thermiques dans les différentes couches du lit fluidisé ainsi que les pertes radiatives. Nous concluons sur la pertinence de nos choix dans ce travail et sur les perspectives.
40

Simulation d'évènements rares par Monte Carlo dans les réseaux hautement fiables / Rare event simulation using Monte Carlo in highly reliable networks

Saggadi, Samira 08 July 2013 (has links)
Le calcul de la fiabilité des réseaux est en général un problème NP-difficile. On peut par exemple s’intéresser à la fiabilité des systèmes de télécommunications où l'on veut évaluer la probabilité qu’un groupe sélectionné de nœuds peuvent communiquer. Dans ce cas, un ensemble de nœuds déconnectés peut avoir des conséquences critiques, que ce soit financières ou au niveau de la sécurité. Une estimation précise de la fiabilité est ainsi nécessaire. Dans le cadre de ce travail, on s'intéresse à l’étude et au calcul de la fiabilité des réseaux hautement fiables. Dans ce cas la défiabilité est très petite, ce qui rend l’approche standard de Monte Carlo inutile, car elle nécessite un grand nombre d’itérations. Pour une bonne estimation de la fiabilité des réseaux au moindre coût, nous avons développé de nouvelles techniques de simulation basées sur la réduction de variance par échantillonnage préférentiel. / Network reliability determination, is an NP-hard problem. For instance, in telecommunications, it is desired to evaluate the probability that a selected group of nodes communicate or not. In this case, a set of disconnected nodes can lead to critical financials security consequences. A precise estimation of the reliability is, therefore, needed. In this work, we are interested in the study and the calculation of the reliability of highly reliable networks. In this case the unreliability is very small, which makes the standard Monte Carlo approach useless, because it requires a large number of iterations. For a good estimation of system reliability with minimum cost, we have developed new simulation techniques based on variance reduction using importance sampling.

Page generated in 0.0711 seconds