• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 161
  • 89
  • 12
  • 2
  • Tagged with
  • 259
  • 119
  • 50
  • 39
  • 36
  • 36
  • 30
  • 29
  • 29
  • 29
  • 27
  • 25
  • 24
  • 24
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Design and flow control of stochastic health care networks without waiting rooms : A perinatal application / Conception et pilotage de flux d’un réseau de soins stochastique sans attente : Application à la périnatalité

Pehlivan, Canan 23 January 2014 (has links)
Cette thèse porte sur l’étude d’un réseau de soins hiérarchique stochastique avec rejet où les patients sont transférés lorsque la capacité de l’hôpital d’accueil n’est pas suffisante. Les patients sont alors redirigés vers un autre hôpital, ou hors du réseau. Une application concrète sur les réseaux de périnatalité est proposée, et nous avons identifié plusieurs verrous scientifiques fondamentaux d’un point de vue stratégique et opérationnel. Dans la partie stratégique, nous nous sommes intéressés à un problème de planification de capacité dans le réseau. Nous avons développé un modèle de localisation et de dimensionnement non-linéaire qui tient compte de la nature stochastique du système. La linéarisation du modèle permet de résoudre des problèmes de taille réelle en temps raisonnable. Nous avons développé dans un second temps de nouvelles méthodologies d’approximation permettant d’évaluer la performance du réseau en termes de probabilité de rejet et de transfert entre hôpitaux. Dans la partie opérationnelle, nous avons étudié des politiques de pilotage d’admission optimales pour différentes tailles de réseaux de manière utiliser au mieux les ressources hospitalières. Finalement, nous avons construit un modèle de simulation couplant multi-agents et événements discrets permettant la validation des résultats précédents et l’évaluation de performance du système de manière réaliste. / In this thesis, by being motivated from the challenges in perinatal networks, we address design, evaluation and flow control of a stochastic healthcare network where there exist multiple levels of hospitals and different types of patients. Patients are supposed urgent; thus they can be rejected and overflow to another facility in the same network if no service capacity is available at their arrival. Rejection of patients due to the lack of service capacity is the common phenomenon in overflow networks. We approach the problem from both strategic and operational perspectives. In strategic part, we address a location & capacity planning problem for adjusting the network to better meet demographic changes. In operational part, we study the optimal patient admission control policies to increase flexibility in allocation of resources and improve the control of patient flow in the network. Finally, in order to evaluate the performance of the network, we develop new approximation methodologies that estimate the rejection probabilities in each hospital for each arriving patient group, thus the overflow probabilities among hospitals. Furthermore, an agent-based discrete-event simulation model is constructed to adequately represent our main applicationarea: Nord Hauts-de-Seine Perinatal Network. The simulation model is used to evaluate the performance of the complex network and more importantly evaluate the strength of the optimal results of our analytical models. The developed methodologies in this thesis are combined in a decision support tool, foreseen under the project “COVER”, which aims to assist health system managers to effectively plan strategic and operational decisions of a healthcare network and evaluate the performance of their decisions.
62

Méthodes de construction des courbes de fragilité sismique par simulations numériques / Development of seismic fragility curves based on numerical simulations

Dang, Cong-Thuat 28 May 2014 (has links)
Une courbe de fragilité sismique qui présente la probabilité de défaillance d’une structure en fonction d’une intensité sismique, est un outil performant pour l’évaluation de la vulnérabilité sismique des structures en génie nucléaire et génie civil. On se concentre dans cette thèse sur l’approche par simulations numériques pour la construction des courbes de fragilité sismique. Une étude comparative des méthodes paramétriques existantes avec l’hypothèse log-normale est d’abord réalisée. Elle permet ensuite de proposer des améliorations de la méthode du maximum de vraisemblance dans le but d’atténuer l’influence de l’excitation sismique lors de son processus de construction. Une autre amélioration est l’application de la méthode de simulations par subsets pour l’évaluation de la probabilité de défaillance faible. Enfin, en utilisant la méthode de calcul de l’évolution des fonctions de densité de probabilité qui permet d’évaluer la probabilité conjointe entre la réponse structurale et les variables aléatoires du système et de l’excitation, nous proposons également une nouvelle technique non-paramétrique de construction des courbes de fragilité sismique sans utiliser l’hypothèse de la loi log-normale. La validation des améliorations et de la nouvelle technique est réalisée sur des exemples numériques. / A seismic fragility curve that shows the failure probability of a structure in function of a seismic intensity is a powerful tool for the evaluation of the seismic vulnerability of structures in nuclear engineering and civil engineering.We focus in this thesis on the numerical simulations-based approach for the construction of seismic fragility curves. A comparative work between existent parametric methods with the lognormal assumption of the fragility curves is first performed. It then allows proposing improvements to the maximum likelihood method in order to mitigate the influence of seismic excitation during its construction process. Another improvement is the application of the subsets simulation method for the evaluation of the low probability of failure. Finally, using the Probability Density Evolution Method (PDEM) for evaluating the joint probability between a structural response and random variables of a system and/or excitations, a new technique for construction of seismic fragility curves was proposed. The seismic fragility curve can be derived without the assumption of lognormal law. The improvements and the new technique are all validated by numerical examples.
63

Etude de la méthode de substitution à partir de la mesure simultanée des probabilités de fission et d'émission gamma des actinides 236U, 238U, 237Np et 238Np / Study of the surrogate method through the simultaneous measurement of the gamma-decay and fission-decay probabilities for the actinides 236U, 238U, 237Np and 238Np

Ducasse, Quentin 26 October 2015 (has links)
Les sections efficaces induites par neutrons des noyaux de courte durée de vie jouent un rôle important dans des domaines variés parmi la physique fondamentale, l'astrophysique ou l'énergie nucléaire. Malheureusement de nombreuses contraintes liées à la radiotoxicité des cibles rendent la mesure de ces sections efficaces souvent très difficiles. La méthode de substitution est une technique de mesure indirecte de sections efficaces neutroniques de noyaux radioactifs qui à l'avantage de s'affranchir de ces contraintes. Pour la première fois dans ce type d'expérience,les probabilités de fission et d'émission gamma sont mesurées simultanément, pour les actinides236U, 238U, 237Np et 238Np dans le but d'étudier la validité de la méthode. Une des difficultés provient de la soustraction des gammas des fragments de fission et cette mesure constitue en cela un véritable défi. Cette expérience de mesure simultanée a été effectuée au cyclotron d'Oslo.A une énergie d'excitation fixée du noyau formé, les résultats montrent que les probabilités de fission de substitution sont en bon accord avec celles induites par neutron alors que les probabilités d'émission gamma mesurées sont plusieurs fois plus élevées. Ces écarts sont liés à la différence distribution spin peuplée par le noyau entre les deux méthodes. Des calculs de modèles statistiques avec des paramètres standards n'ont pas permis de reproduire cette insensibilité de la probabilité de fission vis à vis du spin du noyau. La reproduction des observations expérimentales devient possible en considérant un moment d'inertie du noyau fissionnant qui augmente plus rapidement avec la déformation du noyau que ne le préconisent les paramètres standards. De nouveaux efforts théoriques sont à fournir pour améliorer la compréhension de nos résultats. / Neutron-induced cross sections of short-lived nuclei are important in various fields such as fundamental physics, astrophysics or nuclear energy. However, these cross sections are often extremely difficult to measure due to high radioactivity of the targets involved. The surrogate-reaction method is an indirect way to determine neutron-induced cross sections of short-lived nuclei. In order to study the validity of the method, we have measured for the very first time in a surrogate-reaction experiment simultaneously fission and gamma-decay probabilities for the actinides 236U, 238U, 237Np and 238Np. This is challenging because one has to remove the gamma rays emitted by the fission fragments. The measurement was performed at the Oslocyclotron.Our results show that for a given excitation energy, our gamma-decay probabilities are several times higher than neutron-induced probabilities, which can be attributed to differences in spin distribution between the two types of reactions. On the other hand, our fission probabilities are in good agreement with neutron-induced data. Statistical-model calculations applied with standardparameters cannot reproduce the weak spin sensibility to variations of the angular momentum observed for the fission probabilities. However, it is possible to reproduce the experimental observations by considering a stronger increase of the moment of inertia of the fissionning nucleus with deformation. Further theoretical efforts are needed to improve the understanding of our results
64

Réseaux coopératifs avec incertitude du canal

Behboodi, Arash 13 June 2012 (has links) (PDF)
Dans cette thèse, les réseaux coopératifs sont étudiés sous cette hypothèse que la source est incertain par rapport le canal en opération. Dans le premier chapitre, des stratégies coopératives sont développées pour les canaux à relais simultanés (SRC) lesquelles se composent d'un ensemble de deux canaux à relais parmi lesquels le canal en opération est choisi. Cela est équivalent au canal de diffusion à relais (BRC). Les bornes sur la région de capacité de BRC général sont dérivées. Les résultats de capacité sont obtenus pour les cas particuliers du canal à relais simultané semi-dégradé et dégradé Gaussien. Dans le deuxième chapitre, le canal à relais composite est considéré où le canal est tiré aléatoirement d'un ensemble de la distribution conditionnelle. Le débit est fixé en dépit du canal actuel et la probabilité d'erreur (EP) asymptotique est caractérisée. Une nouvelle stratégie de codage sélectif (SCS) est introduit permettant aux relais de choisir -selon leur mesurage du canal - la meilleur schéma de codage entre Décoder-et-Transmettre (DF) et Comprimer-et-Transmettre (CF). Les théorèmes de codage de réseau bruit généralisées sont démontrés pour le cas de réseau unicast général où les relais utilisent soit DF soit CF. Dans le troisième chapitre, le spectre asymptotique de EP est introduit en tant que nouvelle mesure de performance pour réseaux composites. Il est démontré que chaque code avec le débit hors de la borne cut-set, abouti à EP égal à un et le spectre asymptotique de EP coïncide avec la probabilité d'outage pour les réseaux satisfaisant la converse forte.
65

Définition et analyse des performances de nouveaux protocoles coopératifs

Hucher, Charlotte 10 July 2009 (has links) (PDF)
Dans un réseau coopératif, différents noeuds coopèrent afin de créer un réseau d'antennes virtuel et exploiter la diversité spatio-temporelle. On s'intéresse d'abord au canal à relai. Afin d'améliorer les performances à bas SNR, on propose une stratégie adaptative pour les protocoles "amplify-and-forward" (AF) et "decode-and-forward" (DF) qui détermine la meilleure technique de transmission en fonction du canal. Afin de définir un protocole DF à la fois performant et facile à implémenter, on propose ensuite d'utiliser un décodage incomplet aux relais. Cette technique permet d'atteindre les gains de multiplexage et de diversité maximaux, son DMT est le même que celui du protocol AF non-orthogonal (NAF). Pour réduire la complexité aux relais, deux nouvelles méthodes de décodage sont proposées, basées pour l'une sur la structure des codes TAST, et pour l'autre sur une approximation diophantienne. Dans le cas où plusieurs sources transmettent simultanément, on parle de canal coopératif à accès multiple (CMA). Une implémentation pratique et deux améliorations du protocole CMA-NAF sont proposées, ainsi qu'une variante utilisant une stratégie DF. Ces protocoles permettent d'atteindre de meilleures performances asymptotiques et leur DMT est plus proche de la borne MISO. Enfin, si le lien direct entre source et destination est inutilisable, on utilise une stratégie multi-saut. Dans cette thèse, on propose un protocole pour le canal "K-parallel-path" (KPP), basé sur la sélection de chemin combinée avec un code spatio-temporel de faible dimension. Ce protocole permet d'atteindre les limites théoriques du canal tout en ayant une complexité limitée.
66

Méthodes de construction des courbes de fragilité sismique par simulations numériques

Dang, Cong-Thuat 28 May 2014 (has links) (PDF)
Une courbe de fragilité sismique qui présente la probabilité de défaillance d'une structure en fonction d'une intensité sismique, est un outil performant pour l'évaluation de la vulnérabilité sismique des structures en génie nucléaire et génie civil. On se concentre dans cette thèse sur l'approche par simulations numériques pour la construction des courbes de fragilité sismique. Une étude comparative des méthodes paramétriques existantes avec l'hypothèse log-normale est d'abord réalisée. Elle permet ensuite de proposer des améliorations de la méthode du maximum de vraisemblance dans le but d'atténuer l'influence de l'excitation sismique lors de son processus de construction. Une autre amélioration est l'application de la méthode de simulations par subsets pour l'évaluation de la probabilité de défaillance faible. Enfin, en utilisant la méthode de calcul de l'évolution des fonctions de densité de probabilité qui permet d'évaluer la probabilité conjointe entre la réponse structurale et les variables aléatoires du système et de l'excitation, nous proposons également une nouvelle technique non-paramétrique de construction des courbes de fragilité sismique sans utiliser l'hypothèse de la loi log-normale. La validation des améliorations et de la nouvelle technique est réalisée sur des exemples numériques.
67

Modèles mathématiques de l'imprécis et de l'incertain en vue d'applications aux techniques d'aide à la décision

Dubois, Didier 19 November 1983 (has links) (PDF)
Cette thèse est d'abord motivée par le souci d'élucider certains liens existant entre la théorie des ensembles flous et celle des probabilités, en les replaçant toutes deux dans un contexte plus général de mesures dites « d'incertitude ». Sur cette base, on développe des outils mathématiques susceptibles d'exprimer rigoureusement, de façon quantitative, les concepts duaux de possibilité et de nécessité. On montre notamment qu'on peut par là généraliser les opérations logiques ainsi que d'autres notions, telles que la cardinalité, à des ensembles dont les frontières sont mal définies, représentés par le biais d'une fonction d'appartenance, qu'on peut voir comme une distribution de possibilité. On développe, dans le cadre de la théorie des possibilités, un calcul analogue à celui des fonctions de variables aléatoires, appelé calcule des intervalles flous, qui généralise le calcule d'erreurs. Des éléments d'analyse de fonctions floues, étendant l'analyse des correspondances, sont fournis, notamment l'intégration de Riemann.<br /><br />Ces outils mathématiques sont appliqués à la formulation et à la résolution de problèmes d'analyse de la décision et de recherche opérationnelle. On étudie plus particulièrement l'agrégation de critère, l'évaluation des décisions et le choix en environnement incertain et imprécisément décrit, les algorithmes de plus courts chemins dans les graphes imprécisément valués, la programmation linéaire avec contraintes floues. On tente dans chaque cas de discuter les mérites et les limites de la théorie des possibilités par rapport à celle des probabilités, tant sur le plan de leur pouvoir descriptif que sur celui des calculs qu'elles entraînent, et des résultats qu'elles permettent d'obtenir.
68

Fiabilité des installations industrielles sous impact de fragments de structures - Effet domino

Nguyen, Quoc Bao 20 May 2009 (has links) (PDF)
La plupart des sites industriels abritent des équipements et des réservoirs sous pression. Pour des raisons diverses (suppression, impact mécanique, surchauffe ou autre), ils peuvent être endommagés et même éclater. Cette explosion peut engendrer de nombreux projectiles. Au cours de leur vol, ces derniers peuvent impacter d'autres équipements, tels que des réservoirs sous pression ou d'autres installations sensibles (poste de commande, par exemple). Si une des cibles impactées subit une ruine mécanique, elle peut exploser et générer une nouvelle série de projectiles. Ces projectiles menacent, à leur tour, d'autres installations et ainsi de suite. Ce type d'enchaînement accidentel catastrophique est connu sous le nom d'effet domino ou de suraccident. Dans ce document, l'effet domino pouvant se produire sur des sites industriels est analysé au travers des projections produites par l'accident initial. Une approche probabiliste globale est ainsi développée dans laquelle le calcul de la probabilité d'occurrence du phénomène requiert le passage par quatre étapes : - Analyse des termes sources : les projectiles générés par l'explosion d'un réservoir ont différentes caractéristiques, à savoir le nombre de projectiles, la forme, la masse, la vitesse de départ et les angles de départ. Toutes ces grandeurs sont modélisées par des variables aléatoires. A l'aide du principe du maximum d'entropie et des données existantes, des distributions probabilistes sont développées pour toutes ces variables. On se limite, cependant, au cas de l'explosion d'un réservoir cylindrique ou sphérique. - Analyse de l'impact ou analyse du mouvement : la trajectoire d'un projectile (ou fragment de structure), en fonction de ses caractéristiques de départ, est décrite par une combinaison des effets d'inertie, de gravitation et d'aérodynamique. Une approche simplifiée faisant l'hypothèse de constance des coefficients aérodynamiques permet d'identifier analytiquement la trajectoire du projectile tandis qu'une solution numérique est obtenue par une approche complète où toutes les valeurs de ces coefficients sont prises en compte.Les mouvements de translation et de rotation sont également étudiés. A l'aide de l'analyse complète et des conditions d'impact, la probabilité d'impact est déterminée. L'étude est restreinte à des projectiles en forme de fond de réservoir, fond oblong de réservoir et plaque. Les formes des cibles de l'étude sont restreintes au cas ellipsoïdal, cylindrique et cubique. - Analyse de l'état des cibles impactées : dans un premier temps, des modèles simplifiés d'impact sont utilisés afin d'étudier l'interaction mécanique entre les projectiles et les réservoirs impactés. Un modèle mécanique complet comprenant une loi de comportement élasto-plastique et un modèle de rupture est également proposé. Ce modèle est ensuite implémenté dans un code de calcul sans maillage de type SPH, i.e. Smoothed Particle Hydrodynamics. Afin d'estimer la probabilité de rupture des réservoirs impactés, les modèles simplifiés sont mis en œuvre, ce qui permet de réduire le coût de calcul. - Occurrence du sur-accident : selon l'état mécanique résiduel de la cible et son état physique (conditions thermodynamiques, niveau de remplissage, etc.), l'impact de projectiles peut conduire à la poursuite du pnénomène. Ce dernier point n'est pas traité dans le document présenté
69

Contributions à la statistique bayésienne non-paramétrique

Arbel, Julyan 24 September 2013 (has links) (PDF)
La thèse est divisée en deux parties portant sur deux aspects relativement différents des approches bayésiennes non-paramétriques. Dans la première partie, nous nous intéressons aux propriétés fréquentistes (asymptotiques) de lois a posteriori pour des paramètres appartenant à l'ensemble des suites réelles de carré sommable. Dans la deuxième partie, nous nous intéressons à des approches non-paramétriques modélisant des données d'espèces et leur diversité en fonction de certaines variables explicatives, à partir de modèles qui utilisent des mesures de probabilité aléatoires.
70

Modèles et méthodes actuarielles pour l'évaluation quantitative des risques en environnement solvabilité II / Actuarial models and methods for quantitative risk analysis

Ben Dbabis, Makram 14 December 2012 (has links)
Les nouvelles normes prudentielles Solvabilité II se penchent sur question du contrôle de la solvabilité des acteurs de marché d’assurance et de réassurance. Nous nous sommes proposé dans cette thèse de présenter les moyens techniques permettant la recherche des besoins de couverture de la solvabilité des assureurs se traduisant par la mise en œuvre d’une probabilité de ruine à moins de 0,5%, dans le cadre des modèles internes. La première partie, en mettant l’accent sur le problème de valorisation économique des passifs d’assurance vie lié aux options incluses dans les contrats d’assurance et donc d’obtention de la distribution de la situation nette à un 1 an et donc de son quantile d’ordre 0.5%, présentera les différentes approches de modélisation permettant de contourner ces problèmes :– Approche des simulations dans les simulations purement simulatoire et trop coûteuse en temps de calcul,– Algorithme d’accélération des simulations dans les simulations pour contourner les limites de la première approche,– Approche par portefeuille répliquant– Approche par fonction de perteDans une deuxième partie, l’accent sera mis sur la modélisation des risques techniques mal appréhendés par les assureurs en développant deux approches stochastiques pour modéliser, dans le cadre d’un modèle interne, les risques de longévité, de mortalité et aussi le risque dépendance. La troisième partie intéressera à l’optimisation du capital économique en mettant en œuvre la réassurance comme outil de gain en capital économique en proposant des approches de choix optimal en réassurance / The new prudential standards, Solvency II, consider the question of controling of insurer and reinsurer’s solvency. In this thesis, we’ve proposed technical solution for solvency capital assessment to keep ruin’s probability under the target of 0.5% aimed by the Solvency II project in internal model prospect. The First part will discuss the problem of economic valorization of life insurance liabilities and will present di_erent modeling approaches to determine the net assets value distribution and assess the 0.5% percentile that can solve it :– Nested simulation approach which is too much time consumer,– Nested simulation accelerator,– Replication portfolio approach,– Loss function approach.In the second part, we will focus on biometric risks modeling. Two stochastic modeling approaches was developped in order to model mortality & longevity and morbidity risks. The third part will focuss on capital optimization using reinsurance as a tool of capital reduction

Page generated in 0.0712 seconds