• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 81
  • 20
  • 7
  • Tagged with
  • 108
  • 108
  • 53
  • 41
  • 33
  • 31
  • 29
  • 28
  • 21
  • 20
  • 17
  • 17
  • 16
  • 14
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Data fusion and collaborative state estimation in wireless sensor networks / Fusion de données et estimation collaborative d'état dans les réseaux de capteurs sans fil

Haj Chhadé, Hiba 01 June 2015 (has links)
L'objectif de la thèse est de développer des algorithmes de fusion de données recueillies à l’aide d'un réseau de capteurs sans fil afin de localiser plusieurs sources émettant un agent chimique ou biologique dans l'air. Ces capteurs détectent la concentration de la substance émise, transportée par advection et diffusion, au niveau de leurs positions et de communiquer cette information à un centre de traitement. L’information recueillie de façon collaborative est d'abord utilisée pour localiser les capteurs déployés au hasard et ensuite pour localiser les sources. Les applications comprennent, entre autres, la surveillance environnementale et la surveillance de sites sensibles ainsi que des applications de sécurité dans le cas d'une libération accidentelle ou intentionnelle d'un agent toxique. Toutefois, l'application considérée dans la thèse est celle de la détection et la localisation de mines terrestres. Dans cette approche, les mines sont considérées comme des sources émettrices de produits chimiques explosifs.La thèse comprend une contribution théorique où nous étendons l'algorithme de propagation de la croyance, un algorithme de fusion de données bien connu et largement utilisé pour l'estimation collaborative d'état dans les réseaux de capteurs, au cadre des méthodes à erreurs bornées. Le nouvel algorithme est testé sur le problème de l'auto-localisation dans les réseaux de capteurs statiques ainsi que l'application de suivi d'un objet mobile en utilisant un réseau de capteurs de distance. Autres contributions comprennent l'utilisation d'une approche probabiliste bayésienne avec des techniques d'analyse de données pour localiser un nombre inconnu de sources émettrices de vapeur. / The aim of the thesis is to develop fusion algorithms for data collected from a wireless sensor network in order to locate multiple sources emitting some chemical or biological agent in the air. These sensors detect the concentration of the emitted substance, transported by advection and diffusion, at their positions and communicate this information to a treatment center. The information collected in a collaborative manner is used first to locate the randomly deployed sensors and second to locate the sources. Applications include, amongst others, environmental monitoring and surveillance of sensitive sites as well as security applications in the case of an accidental or intentional release of a toxic agent. However, the application we consider in the thesis is that of landmine detection and localization. In this approach, the land mines are considered as sources emitting explosive chemicals. The thesis includes a theoretical contribution where we extend the Belief Propagation algorithm, a well-known data fusion algorithm that is widely used for collaborative state estimation in sensor networks, to the bounded error framework. The novel algorithm is tested on the self-localization problem in static sensor networks as well as the application of tracking a mobile object using a network of range sensors. Other contributions include the use of a Bayesian probabilistic approach along with data analysis techniques to locate an unknown number of vapor emitting sources.
82

Statistical and intelligent methods for default diagnosis and loacalization in a continuous tubular reactor / Méthodes statistiques et intelligentes pour la détection et la localisation de dysfonctionnements dans un réacteur chimique tubulaire continu

Liu, Haoran 26 November 2009 (has links)
Ce travail concerne l’étude d’un réacteur chimique continu afin de construire un modèle pour la phase d’apprentissage de méthode et localisation et détection de pannes. Un dispositif expérimental a été conçu pour disposer de données expérimentales significatives. Pour le diagnostique et la localisation des méthodes orientées données ont été retenues, principalement les réseaux Bayésiens et les réseaux de neurones à Fonctions Radiales de Base (RBF) couplés à un algorithme génétique auto adaptatif à ajustement local (GAAPA). Les données collectées à partir du dispositif expérimental ont servi à l’apprentissage et à la validation du modèle. / The aim is to study a continuous chemical process, and then analyze the hold process of the reactor and build the models which could be trained to realize the fault diagnosis and localization in the process. An experimental system has been built to be the research base. That includes experiment part and record system. To the diagnosis and localization methods, the work presented the methods with the data-based approach, mainly the Bayesian network and RBF network based on GAAPA (Genetic Algorithm with Auto-adapted of Partial Adjustment). The data collected from the experimental system are used to train and test the models.
83

Auto-diagnostic actif dans les réseaux de télécommunications / Active self-diagnosis in telecommunication networks

Hounkonnou, Carole 12 July 2013 (has links)
Les réseaux de télécommunications deviennent de plus en plus complexes, notamment de par la multiplicité des technologies mises en œuvre, leur couverture géographique grandissante, la croissance du trafic en quantité et en variété, mais aussi de par l’évolution des services fournis par les opérateurs. Tout ceci contribue à rendre la gestion de ces réseaux de plus en plus lourde, complexe, génératrice d’erreurs et donc coûteuse pour les opérateurs. On place derrière le terme « réseaux autonome » l’ensemble des solutions visant à rendre la gestion de ce réseau plus autonome. L’objectif de cette thèse est de contribuer à la réalisation de certaines fonctions autonomiques dans les réseaux de télécommunications. Nous proposons une stratégie pour automatiser la gestion des pannes tout en couvrant les différents segments du réseau et les services de bout en bout déployés au-dessus. Il s’agit d’une approche basée modèle qui adresse les deux difficultés du diagnostic basé modèle à savoir : a) la façon d'obtenir un tel modèle, adapté à un réseau donné à un moment donné, en particulier si l'on souhaite capturer plusieurs couches réseau et segments et b) comment raisonner sur un modèle potentiellement énorme, si l'on veut gérer un réseau national par exemple. Pour répondre à la première difficulté, nous proposons un nouveau concept : l’auto-modélisation qui consiste d’abord à construire les différentes familles de modèles génériques, puis à identifier à la volée les instances de ces modèles qui sont déployées dans le réseau géré. La seconde difficulté est adressée grâce à un moteur d’auto-diagnostic actif, basé sur le formalisme des réseaux Bayésiens et qui consiste à raisonner sur un fragment du modèle du réseau qui est augmenté progressivement en utilisant la capacité d’auto-modélisation: des observations sont collectées et des tests réalisés jusqu’à ce que les fautes soient localisées avec une certitude suffisante. Cette approche de diagnostic actif a été expérimentée pour réaliser une gestion multi-couches et multi-segments des alarmes dans un réseau IMS. / While modern networks and services are continuously growing in scale, complexity and heterogeneity, the management of such systems is reaching the limits of human capabilities. Technically and economically, more automation of the classical management tasks is needed. This has triggered a significant research effort, gathered under the terms self-management and autonomic networking. The aim of this thesis is to contribute to the realization of some self-management properties in telecommunication networks. We propose an approach to automatize the management of faults, covering the different segments of a network, and the end-to-end services deployed over them. This is a model-based approach addressing the two weaknesses of model-based diagnosis namely: a) how to derive such a model, suited to a given network at a given time, in particular if one wishes to capture several network layers and segments and b) how to reason a potentially huge model, if one wishes to manage a nation-wide network for example. To address the first point, we propose a new concept called self-modeling that formulates off-line generic patterns of the model, and identifies on-line the instances of these patterns that are deployed in the managed network. The second point is addressed by an active self-diagnosis engine, based on a Bayesian network formalism, that consists in reasoning on a progressively growing fragment of the network model, relying on the self-modeling ability: more observations are collected and new tests are performed until the faults are localized with sufficient confidence. This active diagnosis approach has been experimented to perform cross-layer and cross-segment alarm management on an IMS network.
84

Fully bayesian structure learning of bayesian networks and their hypergraph extensions / Estimation bayésienne de la structure des réseaux bayésiens puis d'hypergraphes

Datta, Sagnik 07 July 2016 (has links)
Dans cette thèse, j’aborde le problème important de l’estimation de la structure des réseaux complexes, à l’aide de la classe des modèles stochastiques dits réseaux Bayésiens. Les réseaux Bayésiens permettent de représenter l’ensemble des relations d’indépendance conditionnelle. L’apprentissage statistique de la structure de ces réseaux complexes par les réseaux Bayésiens peut révéler la structure causale sous-jacente. Il peut également servir pour la prédiction de quantités qui sont difficiles, coûteuses, ou non éthiques comme par exemple le calcul de la probabilité de survenance d’un cancer à partir de l’observation de quantités annexes, plus faciles à obtenir. Les contributions de ma thèse consistent en : (A) un logiciel développé en langage C pour l’apprentissage de la structure des réseaux bayésiens; (B) l’introduction d’un nouveau "jumping kernel" dans l’algorithme de "Metropolis-Hasting" pour un échantillonnage rapide de réseaux; (C) l’extension de la notion de réseaux Bayésiens aux structures incluant des boucles et (D) un logiciel spécifique pour l’apprentissage des structures cycliques. Notre principal objectif est l’apprentissage statistique de la structure de réseaux complexes représentée par un graphe et par conséquent notre objet d’intérêt est cette structure graphique. Un graphe est constitué de nœuds et d’arcs. Tous les paramètres apparaissant dans le modèle mathématique et différents de ceux qui caractérisent la structure graphique sont considérés comme des paramètres de nuisance. / In this thesis, I address the important problem of the determination of the structure of complex networks, with the widely used class of Bayesian network models as a concrete vehicle of my ideas. The structure of a Bayesian network represents a set of conditional independence relations that hold in the domain. Learning the structure of the Bayesian network model that represents a domain can reveal insights into its underlying causal structure. Moreover, it can also be used for prediction of quantities that are difficult, expensive, or unethical to measure such as the probability of cancer based on other quantities that are easier to obtain. The contributions of this thesis include (A) a software developed in C language for structure learning of Bayesian networks; (B) introduction a new jumping kernel in the Metropolis-Hasting algorithm for faster sampling of networks (C) extending the notion of Bayesian networks to structures involving loops and (D) a software developed specifically to learn cyclic structures. Our primary objective is structure learning and thus the graph structure is our parameter of interest. We intend not to perform estimation of the parameters involved in the mathematical models.
85

Analyse des leviers : effets de colinéarité et hiérarchisation des impacts dans les études de marché et sociales / Driver Analysis : consequenses of multicollinearity quantification of relative impact of drivers in market research applications.

Wallard, Henri 18 December 2015 (has links)
La colinéarité rend difficile l’utilisation de la régression linéaire pour estimer l’importance des variables dans les études de marché. D’autres approches ont donc été utilisées.Concernant la décomposition de la variance expliquée, une démonstration de l’égalité entre les méthodes lmg-Shapley et celle de Johnson avec deux prédicteurs est proposée. Il a aussi été montré que la méthode de Fabbris est différente des méthodes de Genizi et Johnson et que les CAR scores de deux prédicteurs ne s’égalisent pas lorsque leur corrélation tend vers 1.Une méthode nouvelle, weifila (weighted first last) a été définie et publiée en 2015.L’estimation de l’importance des variables avec les forêts aléatoires a également été analysée et les résultats montrent une bonne prise en compte des non-linéarités.Avec les réseaux bayésiens, la multiplicité des solutions et le recours à des restrictions et choix d’expert militent pour utilisation prudente même si les outils disponibles permettent une aide dans le choix des modèles.Le recours à weifila ou aux forêts aléatoires est recommandé plutôt que lmg-Shapley sans négliger les approches structurelles et les modèles conceptuels.Mots clés :régression, décomposition de la variance, importance, valeur de Shapley, forêts aléatoires, réseaux bayésiens. / AbstractLinear regression is used in Market Research but faces difficulties due to multicollinearity. Other methods have been considered.A demonstration of the equality between lmg-Shapley and and Johnson methods for Variance Decomposition has been proposed. Also this research has shown that the decomposition proposed by Fabbris is not identical to those proposed by Genizi and Johnson, and that the CAR scores of two predictors do not equalize when their correlation tends towards 1. A new method, weifila (weighted first last) has been proposed and published in 2015.Also we have shown that permutation importance using Random Forest enables to take into account non linear relationships and deserves broader usage in Marketing Research.Regarding Bayesian Networks, there are multiple solutions available and expert driven restrictions and decisions support the recommendation to be careful in their usage and presentation, even if they allow to explore possible structures and make simulations.In the end, weifila or random forests are recommended instead of lmg-Shapley knowing that the benefit of structural and conceptual models should not be underestimated.Keywords :Linear regression, Variable Importance, Shapley Value, Random Forests, Bayesian Networks
86

Définition d'une fonction de pronostic des systèmes techniques multi composants prenant en compte les incertitudes à partir des pronostics de leurs composants / Definition of a generic prognostic function of technical multi-component systems taking into account the uncertainties of the predictions of their components

Le Maitre Gonzalez, Esteban Adolfo 24 January 2019 (has links)
Face au défi des entreprises pour le maintien de leurs équipements au maximum de leur fiabilité, de leur disponibilité, de leur rentabilité et de leur sécurité au coût de maintenance minimum, des stratégies de maintenance telles que le CBM et le PHM ont été développées. Pour mettre en œuvre ces stratégies, comme pour la planification des activités de production il est nécessaire de connaître l’aptitude des systèmes à réaliser les futures tâches afin de réaliser le séquencement des opérations de production et de maintenance. Cette thèse présente les éléments d'une fonction générique qui évalue la capacité des systèmes techniques multi-composants à exécuter les tâches de production de biens ou de services assignées. Ce manuscrit présente une proposition de modélisation de systèmes techniques multi-composants représentant les différentes entités qui les composent, leurs états et leurs relations. Plusieurs types d’entités ont été identifiés. Pour chacun d’eux, des inférences sont proposées pour définir à l’intérieur du système l’aptitude de l’entité à accomplir les futures tâches de production à partir des évaluations de son état présent et futur et des évaluations des états présents et futurs des autres entités avec lesquelles elle est en relation. Ces évaluations des états présents et futurs sont basées sur l’exploitation de pronostics locaux des composants. Ces pronostics sont des prévisions qui intrinsèquement comportent des incertitudes pouvant être aléatoires ou épistémiques. La fonction proposée et les inférences prennent en compte ces deux formes d’incertitudes. Pour cela, les traitements et la fonction proposée exploite des éléments de la théorie de Dempster-Shafer. La modélisation des systèmes multi-composants pouvant être représentée sous la forme de graphes dont les états des nœuds dépendent de données comportant des incertitudes, des éléments des réseaux bayésiens sont également utilisés. Cette fonction fournit des indicateurs, sur l’aptitude de chaque entité du système à accomplir les futures tâches de production mais aussi indique les composants nécessitant une intervention afin d’améliorer cette aptitude. Ainsi, ces indicateurs constituent les éléments d'aide à la décision pour la planification des opérations de maintenance de façon conditionnelle et préventive, mais aussi pour la planification des opérations de production. / One major challenge of companies consists in maintaining their technical production resources at the maximum level of reliability, availability, profitability and safety for a minimum maintenance cost, maintenance strategies such as CBM and PHM have been developed. To implement these strategies, as with production activity planning, it is necessary to know the ability of systems to perform future tasks to order production and maintenance operations. This thesis presents the generic function that evaluates the ability of multi-component technical systems to perform the production tasks of goods or services. This manuscript presents a proposal for the modelling of multi-component technical systems representing the different entities that compose them, their states and their relationships. Several types of entities have been identified. For each of them, inferences are proposed to define within the system the entity's ability to perform future production tasks based on its own assessment of its present and future state and the assessments of the present and future states of the other entities with which it is involved. These assessments of present and future states are based on the use of local prognoses of components. These prognoses are predictions that inherently involve uncertainties that may be aleatory or epistemic. The proposed function and inferences take into account these two kinds of uncertainty. To do this, the inferences and the proposed function uses elements of the Dempster-Shafer theory. Since the modelling of multi-component systems can be represented in the form of graphs whose node states depend on data with uncertainties, elements of Bayesian networks are also used. This function provides indicators on the ability of each system entity to perform future production tasks but also indicates the components that require maintenance to improve this ability. Thus, these indicators constitute the elements of decision support for the planning of maintenance operations in a conditional and preventive way, but also for the planning of production tasks.
87

AVISE, une démarche d'Anticipation du Vieillissement par Interrogation et Stimulation d'Experts, application à un matériel passif d'une centrale nucléaire : le pressuriseur

Bouzaiene-Marle, Leïla 04 April 2005 (has links) (PDF)
Ce travail de thèse s'intéresse à l'anticipation du vieillissement des matériels (systèmes, structures ou composants) d'une installation dans le cadre de la gestion de son cycle de vie. La démarche proposée, intitulée AVISE pour Anticipation du Vieillissement par Interrogation et Stimulation d'Experts, permet l'identification des problèmes potentiels liés au vieillissement d'un matériel, de mesurer les risques pris en termes de probabilité d'apparition d'une dégradation ou de ses conséquences et de proposer des solutions adéquates pour freiner ou éviter ce vieillissement. La problématique de recherche a été formulée dans un contexte industriel particulier, le contexte du nucléaire. Ce dernier est caractérisé par des matériels spécifiques, particulièrement fiables et ayant donc un faible retour d'expérience. Pour compenser ce retour d'expérience faible, voire inexistant, deux solutions sont proposées dans la démarche. La première solution, qu'on peut considérer classique, consiste à avoir recours aux opinions d'experts. La seconde, plus originale, consiste à enrichir le retour d'expérience du matériel étudié par le retour d'expérience relevé sur des matériels dits « analogues ». Afin de mettre en œuvre ces solutions et de réaliser les objectifs de l'anticipation, un ensemble de supports méthodologiques a été conçu puis testé dans le cadre de l'application sur un matériel passif d'une centrale nucléaire : le pressuriseur. Le premier support est un processus générique d'interrogation d'experts identifié suite à une comparaison entre onze méthodes existantes utilisant le jugement d'experts. Deux méthodes de stimulation d'experts, intitulées STIMEX-IMDP, STIMulation d'EXperts pour l'Identification de Mécanismes de Dégradation Potentiels, et STIMEX-IPP, STIMulation d'EXperts pour l'Identification de Parades Potentielles, ont été élaborées en se fondant sur les concepts de l'aide à la créativité. Des listes de référence de mécanismes de dégradation et de modes ou effets du vieillissement ont été construites et utilisées dans le cadre de la méthode STIMEX-IMDP afin d'aider à la stimulation des experts et de favoriser l'exhaustivité des résultats. Ensuite, la démarche développée préconise et illustre l'utilisation des réseaux bayésiens pour la modélisation et la quantification des risques liés aux dégradations potentilles. Finalement, la construction d'un modèle conceptuel de données et l'identification des spécifications sont donnés pour la création d'une base de données de vieillissement. Les données à capitaliser ont été identifiées sur la base des travaux réalisés dans la thèse
88

Modelling software quality : a multidimensional approach

Vaucher, Stéphane 11 1900 (has links)
Les sociétés modernes dépendent de plus en plus sur les systèmes informatiques et ainsi, il y a de plus en plus de pression sur les équipes de développement pour produire des logiciels de bonne qualité. Plusieurs compagnies utilisent des modèles de qualité, des suites de programmes qui analysent et évaluent la qualité d'autres programmes, mais la construction de modèles de qualité est difficile parce qu'il existe plusieurs questions qui n'ont pas été répondues dans la littérature. Nous avons étudié les pratiques de modélisation de la qualité auprès d'une grande entreprise et avons identifié les trois dimensions où une recherche additionnelle est désirable : Le support de la subjectivité de la qualité, les techniques pour faire le suivi de la qualité lors de l'évolution des logiciels, et la composition de la qualité entre différents niveaux d'abstraction. Concernant la subjectivité, nous avons proposé l'utilisation de modèles bayésiens parce qu'ils sont capables de traiter des données ambiguës. Nous avons appliqué nos modèles au problème de la détection des défauts de conception. Dans une étude de deux logiciels libres, nous avons trouvé que notre approche est supérieure aux techniques décrites dans l'état de l'art, qui sont basées sur des règles. Pour supporter l'évolution des logiciels, nous avons considéré que les scores produits par un modèle de qualité sont des signaux qui peuvent être analysés en utilisant des techniques d'exploration de données pour identifier des patrons d'évolution de la qualité. Nous avons étudié comment les défauts de conception apparaissent et disparaissent des logiciels. Un logiciel est typiquement conçu comme une hiérarchie de composants, mais les modèles de qualité ne tiennent pas compte de cette organisation. Dans la dernière partie de la dissertation, nous présentons un modèle de qualité à deux niveaux. Ces modèles ont trois parties: un modèle au niveau du composant, un modèle qui évalue l'importance de chacun des composants, et un autre qui évalue la qualité d'un composé en combinant la qualité de ses composants. L'approche a été testée sur la prédiction de classes à fort changement à partir de la qualité des méthodes. Nous avons trouvé que nos modèles à deux niveaux permettent une meilleure identification des classes à fort changement. Pour terminer, nous avons appliqué nos modèles à deux niveaux pour l'évaluation de la navigabilité des sites web à partir de la qualité des pages. Nos modèles étaient capables de distinguer entre des sites de très bonne qualité et des sites choisis aléatoirement. Au cours de la dissertation, nous présentons non seulement des problèmes théoriques et leurs solutions, mais nous avons également mené des expériences pour démontrer les avantages et les limitations de nos solutions. Nos résultats indiquent qu'on peut espérer améliorer l'état de l'art dans les trois dimensions présentées. En particulier, notre travail sur la composition de la qualité et la modélisation de l'importance est le premier à cibler ce problème. Nous croyons que nos modèles à deux niveaux sont un point de départ intéressant pour des travaux de recherche plus approfondis. / As society becomes ever more dependent on computer systems, there is more and more pressure on development teams to produce high-quality software. Many companies therefore rely on quality models, program suites that analyse and evaluate the quality of other programs, but building good quality models is hard as there are many questions concerning quality modelling that have yet to be adequately addressed in the literature. We analysed quality modelling practices in a large organisation and identified three dimensions where research is needed: proper support of the subjective notion of quality, techniques to track the quality of evolving software, and the composition of quality judgments from different abstraction levels. To tackle subjectivity, we propose using Bayesian models as these can deal with uncertain data. We applied our models to the problem of anti-pattern detection. In a study of two open-source systems, we found that our approach was superior to state of the art rule-based techniques. To support software evolution, we consider scores produced by quality models as signals and the use of signal data-mining techniques to identify patterns in the evolution of quality. We studied how anti-patterns are introduced and removed from systems. Software is typically written using a hierarchy of components, yet quality models do not explicitly consider this hierarchy. As the last part of our dissertation, we present two level quality models. These are composed of three parts: a component-level model, a second model to evaluate the importance of each component, and a container-level model to combine the contribution of components with container attributes. This approach was tested on the prediction of class-level changes based on the quality and importance of its components: methods. It was shown to be more useful than single-level, traditional approaches. To finish, we reapplied this two-level methodology to the problem of assessing web site navigability. Our models could successfully distinguish award-winning sites from average sites picked at random. Throughout the dissertation, we present not only theoretical problems and solutions, but we performed experiments to illustrate the pros and cons of our solutions. Our results show that there are considerable improvements to be had in all three proposed dimensions. In particular, our work on quality composition and importance modelling is the first that focuses on this particular problem. We believe that our general two-level models are only a starting point for more in-depth research.
89

Incertitude, causalité et décision : Le cas des risques sociaux et du risque nucléaire en particulier / Uncertainty, causality and decision : The case of social risks and nuclear risk in particular

Lahidji, Reza 29 February 2012 (has links)
La probabilité et la causalité sont deux outils indispensables à la prise en compte des situations de risque social. Lesrelations causales sont le fondement des représentations à partir desquelles on peut évaluer le risque et concevoirdes actions de prévention, de mitigation ou d’indemnisation. La probabilité permet de quantifier cette évaluation et de calibrer ces actions. Dès lors, il semble non seulement naturel, mais nécessaire d’expliciter la place de la causalité et de la probabilité dans la définition d’un problème de décision en situation de risque social. C’est l’objet de cette thèse.Un tour d’horizon de la terminologie du risque et des logiques d’intervention publique dans différentes catégories de risque social nous permettent de mieux comprendre la notion et les problèmes soulevés par sa représentation. Nous approfondissons notre analyse dans le cas de la sûreté nucléaire, en examinant en détail les méthodes et doctrinesdéveloppées dans ce domaine et leur évolution au cours du temps, ce qui nous conduit à formuler différentesobservations au sujet des évaluations de risque et de sûreté.En généralisant la notion d’intervention dans les réseaux bayésiens, nous développons une forme de réseau bayésien causal qui répond à nos besoins. Nous parvenons, par son biais, à une définition du risque qui semble pertinente pour un grand nombre de situations. Nous proposons ensuite des applications simples de ce modèle à certains aspects de l’accident de Fukushima et d’autres problèmes de sûreté nucléaire. Outre certains enseignements spécifiques, ceci nous amène à souligner la nécessité d’une démarche systématique d’identification des incertitudes dans ce domaine.Étendu en direction de la théorie de la décision, notre outil débouche naturellement sur un modèle de décision dynamique dans lequel les actes causent les conséquences et sont causalement liés entre eux. Il apporte en outre une interprétation causale au cadre conceptuel de Savage et permet d’en résoudre certains paradoxes et clarifier certains aspects. Il conduit enfin à envisager la question de l’ambigüité comme incertitude concernant la structure causale d’un problème de décision, ce qui correspond à une vision courante du principe de précaution. / Probability and causality are two indispensable tools for addressing situations of social risk. Causal relations are the foundation for building risk assessment models and identifying risk prevention, mitigation and compensation measures. Probability enables us to quantify risk assessments and to calibrate intervention measures. It therefore seems not only natural, but also necessary to make the role of causality and probability explicit in the definition of decision problems in situations of social risk. Such is the aim of this thesis.By reviewing the terminology of risk and the logic of public interventions in various fields of social risk, we gain a better understanding of the notion and of the issues that one faces when trying to model it. We further elaborate our analysis in the case of nuclear safety, examining in detail how methods and policies have been developed in this field and how they have evolved through time. This leads to a number of observations concerning risk and safety assessments.Generalising the concept of intervention in a Bayesian network allows us to develop a variety of causal Bayesian networks adapted to our needs. In this framework, we propose a definition of risk which seems to be relevant for a broad range of issues. We then offer simple applications of our model to specific aspects of the Fukushima accident and other nuclear safety problems. In addition to specific lessons, the analysis leads to the conclusion that a systematic approach for identifying uncertainties is needed in this area.When applied to decision theory, our tool evolves into a dynamic decision model in which acts cause consequencesand are causally interconnected. The model provides a causal interpretation of Savage’s conceptual framework, solves some of its paradoxes and clarifies certain aspects. It leads us to considering uncertainty with regard to a problem’s causal structure as the source of ambiguity in decision-making, an interpretation which corresponds to a common understanding of the precautionary principle.
90

Développement d'une méthodologie d'assistance au commissionnement des bâtiments à faible consommation d'énergie / Development of a methodology to assist the commissioning of low energy buildings

Hannachi-Belkadi, Nazila Kahina 08 July 2008 (has links)
Les bâtiments à faible consommation d’énergie connaissent, ces dernières années, un grand intérêt étant donné le rôle important qu’ils jouent dans la diminution des émissions de gaz à effet de serre d’une part, et la flambée des prix des combustibles, d’autre part. Néanmoins, dans de nombreux cas la réalisation de ce type de bâtiments n’atteint pas les performances escomptées. Ce problème est dû en grande partie à : 1) la perte d’informations tout au long du cycle de vie du bâtiment, 2) la non évaluation régulière des décisions prises par les acteurs intervenants. Le commissionnement en tant que processus de contrôle qualité joue un rôle important dans le bon déroulement du processus de réalisation de bâtiments à faible consommation d’énergie. Cette recherche vise à développer une méthodologie dont l’objectif est d’assister les personnes responsables de cette mission dans la définition de plans de commissionnement adaptés à leurs projets. Nous avons réalisé en premier, un état de l’art de la réalisation des bâtiments à faible consommation d’énergie, que nous avons par la suite confronté à la réalité à travers une enquête auprès des acteurs du bâtiment et d’étude de cas réels. Cette étape nous a permis de formuler une hypothèse concernant la nécessité d’un commissionnement «évolutif» -adapté aux particularités de chaque projet - et de décrire une méthodologie globale d’assistance à la conception des bâtiments à faible consommation d’énergie, qui intègre une aide à la décision, une gestion de l’information et un commissionnement «évolutif» qui vient vérifier le bon déroulement des deux premiers. Pour mettre en application cette méthodologie, une boîte à outils a été développée. Elle est constituée de : 1) un outil dit «statique» qui permet de définir un premier plan de commissionnent générique qui répond aux caractéristiques d’un projet, à partir d’une base de données exhaustives de tâches de commissionnement, 2) un outil dit «dynamique» basé sur les probabilités, qui permet de mettre à jour le plan de commissionnement initial (générique), en l’adaptant au projet en cours. Cette mise à jour permet de prendre en compte les particularités et imprévus rencontrés lors de la réalisation d’un projet, rendant ainsi le plan de commissionnement plus précis. Une expérimentation, dans un cas réel, du premier outil et des applications du second ont été faites pour montrer leurs possibilités et leurs limites. Les résultats font apparaître deux points importants : 1) l’intérêt d’avoir un plan de commissionnement structuré et évolutif pour vérifier la qualité de la réalisation des bâtiments à faible consommation d’énergie et assurer ainsi l’atteinte des performances souhaitées, 2) l’intérêt d’utiliser un outil probabiliste tel que les réseaux Bayésiens pour anticiper les dérives et prendre en charge les imprévus rencontrés lors de ce processus vivant. Cette méthodologie représente une base pour le développement d’outils d’assistance à la définition de plans de commissionnement «évolutifs» pour le neuf et l’existant, et tous les secteurs du bâtiment / The low energy buildings know, these latest years, a great interest because of the important role that they play in reducing the greenhouse gas emissions on one hand, and the rise of the combustibles prices, on the other hand. Nevertheless, in many cases, low energy consumption buildings do not achieve the expected performances. This problem is largely due to: 1) the loss of information throughout the building life cycle, 2) the non-regular evaluation of the decisions made by the actors intervening in their conception. The commissioning, as a quality control process, plays an important role in the good progress of the realization process of low energy buildings case. This research aims to develop a methodology to assist the persons responsible of the commissioning in the definition of commissioning plans adapted to their projects. Firstly, we performed a state of art of the low energy consumption buildings realisation that we then confronted, to the reality through an investigation with building actors and a study of real cases. This step allowed us to formulate a hypothesis concerning the necessity of a "progressive" commissioning -adapted to project particularities - and to describe a global methodology of assistance to the low energy consumption buildings realisation that integrates a decision making aid, an information management and a "progressive" commissioning that verify the good realisation of the two first functions. To put this methodology into application, a toolbox was developed. It comprises: 1) a tool named "static" that allows defining a first generic commission plan that satisfies the project characteristics, based on an exhaustive data of commissioning tasks, 2) a tool named "dynamic" based on the probabilities, that allows updating the initial (generic) commissioning plan. This update manages the unexpected events met during the project realization; witch permits the commissioning plan to be more precise. An experimentation of the first tool was done in a real case and applications of the second were done to show their possibilities and their limits. The results show two important points: 1) the interest of having a structured and progressive commissioning plan to verify the quality of low energy consumption buildings realisation and guarantee the achievement of the expected performances, 2) the interest of using a probabilistic tool such as the Bayésien networks to anticipate the drifts and to deal with the unexpected events met throughout the building life cycle. This methodology represents a basis for the development of assistance tools for the definition of commissioning "progressive" plans for the new and the existing, and all the building sectors

Page generated in 0.0433 seconds