• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 82
  • 30
  • 3
  • Tagged with
  • 116
  • 116
  • 116
  • 31
  • 23
  • 22
  • 22
  • 16
  • 14
  • 14
  • 13
  • 12
  • 12
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Simulation d'évènements rares par Monte Carlo dans les réseaux hautement fiables / Rare event simulation using Monte Carlo in highly reliable networks

Saggadi, Samira 08 July 2013 (has links)
Le calcul de la fiabilité des réseaux est en général un problème NP-difficile. On peut par exemple s’intéresser à la fiabilité des systèmes de télécommunications où l'on veut évaluer la probabilité qu’un groupe sélectionné de nœuds peuvent communiquer. Dans ce cas, un ensemble de nœuds déconnectés peut avoir des conséquences critiques, que ce soit financières ou au niveau de la sécurité. Une estimation précise de la fiabilité est ainsi nécessaire. Dans le cadre de ce travail, on s'intéresse à l’étude et au calcul de la fiabilité des réseaux hautement fiables. Dans ce cas la défiabilité est très petite, ce qui rend l’approche standard de Monte Carlo inutile, car elle nécessite un grand nombre d’itérations. Pour une bonne estimation de la fiabilité des réseaux au moindre coût, nous avons développé de nouvelles techniques de simulation basées sur la réduction de variance par échantillonnage préférentiel. / Network reliability determination, is an NP-hard problem. For instance, in telecommunications, it is desired to evaluate the probability that a selected group of nodes communicate or not. In this case, a set of disconnected nodes can lead to critical financials security consequences. A precise estimation of the reliability is, therefore, needed. In this work, we are interested in the study and the calculation of the reliability of highly reliable networks. In this case the unreliability is very small, which makes the standard Monte Carlo approach useless, because it requires a large number of iterations. For a good estimation of system reliability with minimum cost, we have developed new simulation techniques based on variance reduction using importance sampling.
42

Méthodes numériques pour l'étude de la dynamique des phénomènes critiques : application aux verres de spins

Angles D'Auriac, Jean Christian 17 February 1981 (has links) (PDF)
.
43

Algotithmes stochastiques et méthodes de Monte Carlo

Arouna, Bouhari 12 1900 (has links) (PDF)
Dans cette thèse,nous proposons de nouvelles techniques de réduction de variance, pourles simultions Monté Carlo. Par un simple changement de variable, nous modifions la loi de simulation de façon paramétrique. L'idée consiste ensuite à utiliser une version convenablement projetée des algorithmes de Robbins-Monro pour déterminer le paramètre optimal qui "minimise" la variance de l'estimation. Nous avons d'abord développé une implémentation séquentielle dans laquelle la variance est réduite dynamiquement au cours des itératons Monte Carlo. Enfin, dans la dernière partie de notre travail, l'idée principale a été d'interpréter la réduction de variance en termes de minimisation d'entropie relative entre une mesure de probabilité optimale donnée, et une famille paramétrique de mesures de probabilité. Nous avons prouvé des résultats théoriques généraux qui définissent un cadre rigoureux d'utilisation de ces méthodes, puis nous avons effectué plusieurs expérimentations en finance et en fiabilité qui justifient de leur efficacité réelle.
44

Mesure du paramètre de corrélation angulaire bêta-neutrino dans la désintégration de l'6He

Velten, Ph. 24 June 2011 (has links) (PDF)
Le sujet de cette thèse est l'analyse des données de l'expérience LPCTrap d'octobre 2008. L'objectif était de mesurer le coefficient de corrélation angulaire b-v, abv, de la désintégration de l'6He avec une précision de 0.5%. La mise en évidence d'une déviation de la valeur de abv par rapport à la prédiction du Modèle Standard (MS) serait la signature indirecte d'un couplage de type tenseur dans la désintégration faible du noyau 6He qui mettrait en cause la structure V−A adoptée pour décrire l'interaction faible au sein du MS. Un piège de Paul est employé pour confiner les ions 6He+ dans un volume très restreint et pratiquement au repos afin de disposer d'une source de décroissances la mieux définie. La particule et l'ion de recul 6Li++ émis lors de la désintégration sont détectés en coïncidence par des détecteurs placés autour du piège. a bv est déterminé en comparant la distribution expérimentale du temps de vol de l'ion de recul à celle générée par une simulation Monte-Carlo. Durant cette thèse, une simulation basée sur GEANT4 a été développée, qui prend en compte la totalité des effets expérimentaux susceptibles de contribuer à l'erreur systématique de l'estimation de a bv, notamment la diffusion des électrons de basse énergie. Malgré une statistique expérimentale suffisante et une simulation aboutie, une estimation fiable de a bv s'est finalement révélée impossible à obtenir en raison d'un dysfonctionnement du détecteur d'ions. Une étude statistique exploratoire a été entreprise pour préciser le niveau de sensibilité de la technique de mesure aux tests des hypothèses du MS. Les outils développés dans cette thèse seront utilisés pour analyser les expériences futures.
45

Contribution à la surveillance d'un processus de forage pétrolier

Ba, Amadou 31 March 2010 (has links) (PDF)
La contribution de cette thèse résulte de la nécessité d'optimiser les processus de forage pétrolier à partir du diagnostic de l'encrassement d'un trépan. Pour diagnostiquer ce type de défaut, trois méthodes d'identification ont été proposées. La première méthode nommée MCR-FOVG (Moindres Carrés Récursifs à Facteur d'Oubli Variable suivant la direction du Gradient) réduit la durée des régimes transitoires en fournissant une convergence rapide des MCR-FO et donc une détection précoce des défauts. La seconde méthode désignée par MCR-FOVG-PAA où PAA représente (Pas d'Apprentissage Adaptatif) est une extension des MCR-FOVG. Ici, l'accélération de la convergence provient du pas d'apprentissage adaptatif. Pour assurer la stabilité des MCR-FOVG-PAA nous avons proposé de déterminer la valeur maximum du pas. Cette démarche a entrainé l'obtention d'un algorithme fournissant de meilleures performances. Cet algorithme est nommé MCR-FOVG-PAA-TSL où TSL désigne (Théorie de Stabilité de Lyapunov). Afin de mieux tenir compte du caractère stochastique du procédé de forage, nous avons utilisé les algorithmes de Monte Carlo et nous avons retenu une de leurs variantes représentée par le RBPF. Puis, nous avons montré sa possibilité d'exploitation dans le cadre du diagnostic. Ces approches ont été testées sur des bases de données issues des campagnes de mesures et ont montré des performances satisfaisantes en termes de détection rapide et fiable de l'encrassement.
46

De la rupture des materiaux à comportement fragile

Hild, François 16 December 1992 (has links) (PDF)
La rupture des matériaux à comportement fragile est causée par la présence de défauts initiaux. Ces derniers conduisent à une rupture brutale dans le cas de composés monolithiques. Dans le cas de céramiques renforcées par des fibres, la rupture finale est le résultat d'un processus de fragmentation progressive des fibres. Des essais ont été effectués sur deux céramiques monolithiques et sur des bétons. Ils ont pour but d'étudier l'influence du type de sollicitation et de la distribution initiale de défauts sur la contrainte de rupture. Une première approche de prévision de la probabilité cumulée de rupture est présentée. Elle tient compte explicitement de la présence des défauts, modélisés par une valeur initiale d'une variable scalaire d'endommagement, dans le calcul du champ de contrainte. Une seconde approche, qui néglige les interactions entre défauts ainsi que leur influence sur le champ de contrainte macroscopique, est ensuite introduite. Elle permet un traitement analytique de l'expression de la probabilité cumulée de rupture en fonction de la distribution initiale de défauts. Une implémentation en tant que postprocesseur de code E.F. est ainsi possible. Elle peut également être étendue à des sollicitations cycliques. Enfin, toutes ces notions peuvent conduire in fine à l'élaboration d'une loi d'endommagement anisotrope de céramiques renforcées par des fibres. La condition de rupture fondée sur un critère de localisation conduit à une estimation de l'endommagement critique en fonction du module de Weibull.
47

Application d'un modèle de simulation et d'analyse de sensibilité à l'évaluation d'un projet de création d'un centre de logistique dans un centre hospitalier

Edzango Okap, Arlette Michelle January 2008 (has links) (PDF)
Le présent mémoire traite de l'évaluation financière d'un projet d'investissement public mutuellement exclusif dans le domaine de la santé. Il s'agit du projet d'implantation d'un centre de logistique au centre hospitalier de l'université de Sherbrooke (CHUS). La remise en cause de certains modèles et méthodes traditionnels d'évaluation de projets d'investissements tels que l'analyse coûts-bénéfices et la VAN, nous a amené à proposer une démarche d'évaluation financière multifactorielle à l'intérieur d'une même analyse de projet. Cette démarche est basée sur le modèle traditionnel de la VAN en complémentarité avec l'application des modèles des options réelles et une analyse de sensibilité du projet par la simulation Monte Carlo. La combinaison de ces différentes méthodes permet de prendre en compte d'une part, les fluctuations possibles des différentes variables qui peuvent avoir une influence considérable sur le projet et d'autre part, évaluer les possibilités d'options offertes par les projets. La démarche proposée vise à déterminer un résultat probabiliste, ce qui offre aux gestionnaires la possibilité de prendre des décisions stratégiques optimales en matière d'investissement. Notre mémoire est divisé en trois grandes parties dont, la première partie porte sur la recension des écrits dans la littérature financière. La seconde élabore la méthodologie utilisée et enfin la dernière partie aborde l'analyse du projet, laquelle est effectuée en deux temps. Premièrement, une évaluation du projet sur une durée de 15 ans et deuxièmement une évaluation sur 20 ans. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Évaluation des projets, Valeur actuelle nette, Options réelles, Simulation Monte-Carlo.
48

Application d'un modèle de simulation et d'analyse de sensibilité à l'évaluation d'un projet de numérisation des dossiers patients

El Ayadi, Mohammed Alaeddine January 2008 (has links) (PDF)
Le présent mémoire traite de l'évaluation financière de projets d'investissement publics mutuellement exclusifs dans le domaine de la santé. Il s'agit d'un projet de numérisation des dossiers patients du centre hospitalier de l'université de Sherbrooke (CHUS). La remise en cause de certains modèles et méthodes traditionnels d'évaluation de projets d'investissements tels que l'analyse coûts-bénéfices et la VAN, nous a amené à proposer une démarche d'évaluation financière multifactorielle à l'intérieur d'une même analyse de projet. Cette démarche vise à déterminer un résultat probabiliste, ce qui offre aux gestionnaires la possibilité de prendre des décisions stratégiques optimales en matière d'investissement. Cette démarche est basée sur le modèle traditionnel de la VAN en complémentarité avec l'application des modèles des options réelles et une analyse de sensibilité du projet par la simulation Monte Carlo. La combinaison de ces différentes méthodes permet de prendre en compte d'une part, les fluctuations possibles des différentes variables qui peuvent avoir une influence considérable sur le projet et d'autre part, évaluer les possibilités d'options offertes par les projets. Le présent mémoire est divisé en trois grandes parties dont, la première partie porte sur la recension des écrits dans la littérature financière. La seconde élabore sur la méthodologie utilisée et enfin la dernière partie aborde l'analyse du projet. Concernant le projet de numérisation des dossiers patients, il s'agit d'une extension des travaux débutés par Bahadi (2006), lesquels avaient abouti à cinq scénarios dont deux étaient jugés rentables (le scénario 1 avec une VAN de 3.005.473 $ et le scénario 4 avec une VAN de 88.369$ et un investissement initial de 1.080.000 $). En dépit de ces résultats, les gestionnaires avaient préféré choisir le scénario 4 en procédant à une réévaluation des flux financiers lesquels nous ont été soumis pour une analyse « post-mortem ». ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Évaluation des projets, Valeur actuelle nette, Options réelles, Simulation Monte-Carlo.
49

Analyse numérique de méthodes performantes pour les EDP stochastiques modélisant l'écoulement et le transport en milieux poreux

Oumouni, Mestapha 05 June 2013 (has links) (PDF)
Ce travail présente un développement et une analyse des approches numériques déterministes et probabilistes efficaces pour les équations aux dérivées partielles avec des coefficients et données aléatoires. On s'intéresse au problème d'écoulement stationnaire avec des données aléatoires. Une méthode de projection dans le cas unidimensionnel est présentée, permettant de calculer efficacement la moyenne de la solution. Nous utilisons la méthode de collocation anisotrope des grilles clairsemées. D'abord, un indicateur de l'erreur satisfaisant une borne supérieure de l'erreur est introduit, il permet de calculer les poids d'anisotropie de la méthode. Ensuite, nous démontrons une amélioration de l'erreur a priori de la méthode. Elle confirme l'efficacité de la méthode en comparaison avec celle de Monte Carlo et elle sera utilisée pour accélérer la méthode par l'extrapolation de Richardson. Nous présentons aussi une analyse numérique d'une méthode probabiliste pour quantifier la migration d'un contaminant dans un milieu aléatoire. Nous considérons le problème d'écoulement couplé avec l'équation d'advection-diffusion, où on s'intéresse à la moyenne de l'extension et de la dispersion du soluté. Le modèle d'écoulement est discrétisé par une méthode des éléments finis mixtes, la concentration du soluté est une densité d'une solution d'une équation différentielle stochastique, qui sera discrétisée par un schéma d'Euler. Enfin, nous présentons une formule explicite de la dispersion et des estimations de l'erreur a priori optimales.
50

Approximation particulaire et méthode de Laplace pour le filtrage bayésien

Bui Quang, Paul 01 July 2013 (has links) (PDF)
La thèse porte sur l'apport de la méthode de Laplace pour l'approximation du filtre bayésien dans des modèles de Markov cachés généraux, c'est-à-dire dans un cadre séquentiel, avec comme domaine d'application privilégié la poursuite de cibles mobiles. A la base, la méthode de Laplace est une méthode asymptotique pour le calcul d'intégrales, c'est-à-dire dans un cadre statique, valide en théorie dès que la fonction à intégrer présente un maximum de plus en plus significatif, lequel apporte la contribution essentielle au résultat. En pratique, cette méthode donne des résultats souvent très précis même en dehors de ce cadre de validité théorique. Les deux contributions principales de la thèse sont les suivantes. Premièrement, nous avons utilisé la méthode de Laplace en complément du filtrage particulaire : on sait en effet que les méthodes de Monte Carlo séquentielles basées sur l'échantillonnage pondéré sont mises en difficulté quand la fonction de pondération (ici la fonction de vraisemblance) est trop localisée, par exemple quand la variance du bruit d'observation est trop faible, or c'est précisément là le domaine où la méthode de Laplace est efficace et justifiée théoriquement, d'où l'idée naturelle de combiner les deux points de vue. Nous proposons ainsi un algorithme associant la méthode de Laplace et le filtrage particulaire, appelé le Laplace particle filter. Deuxièmement, nous avons analysé l'approximation du filtre bayésien grâce à la méthode de Laplace seulement (c'est-à-dire sans génération d'échantillons aléatoires) : il s'agit ici de contrôler la propagation de l'erreur d'approximation d'un pas de temps au pas de temps suivant, dans un cadre asymptotique approprié, par exemple quand le bruit d'observation tend vers zéro, ou quand le bruit d'état et le bruit d'observation tendent conjointement (et à la même vitesse) vers zéro, ou plus généralement quand l'information contenue dans le système tend vers l'infini, avec une interprétation en terme d'identifiabilité.

Page generated in 0.1136 seconds