Spelling suggestions: "subject:"bayésien"" "subject:"bayésienne""
61 |
Méthodes statistiques pour la prédiction de température dans les composants hyperfréquences / Statistical methods for temperature prediction in hyperfrequency componentsMallet, Grégory 25 October 2010 (has links)
Cette thèse s’intéresse à l’application des méthodes d’apprentissage statistique pour la prédiction de température d’un composant électronique présent dans un radar. On étudie un cas simplifié des systèmes réels, le système étudié se limitant à un seul composant monté sur un système de refroidissement réduit. Le premier chapitre est consacré à la modélisation thermique. Après avoir présenté les principaux modes de transmission de l’agitation thermique, les modèles analytiques et numériques qui en découlent sont étudiés. En utilisant cette connaissance,le deuxième chapitre propose de choisir dans les méthodes de mesures les plus adaptées aux spécifications et aux contraintes de l’application choisie. Une fois que les bases de données ont été établies, nous pouvons utiliser dans le troisième chapitre les techniques de l’apprentissage statistique pour construire un modèle dynamique. Après un bref rappel sur les tenants et les aboutissants de la modélisation statistique, quatre familles de méthodes seront présentées : les modèles linéaires, les réseaux de neurones, les réseaux bayésiens dynamiques et les machines à vecteur support (SVM). Enfin, le quatrième chapitre est l’occasion de présenter une méthode de modélisation originale.En effet, après avoir détaillé la mise en oeuvre des méthodes d’identification de représentation d’état, nous verrons comment prendre en compte des a priori théoriques au cours de l’apprentissage de ce type de modèle, à savoir une contrainte de stabilité. / This thesis is focused on the application of statistical learning methods for the temperature prediction of an electronic component embedded in a radar. We study a simplified case of real systems, the system under study is limited to a single component mounted on a reduced cooling system. The first chapter is devoted to heat transfer modelisation. After presenting the major mechanisms of thermal agitation transmission, analytical and numerical models are studied. Using this knowledge, the second chapter offers a survey on the methods of temperature measurement, choosing the fittest according to the specifications and the constraints of the chosen application.Once databases have been established, we can use in the third chapter statistical learning techniques to build a dynamic model. After a brief reminder about the ins and outs of statistical modeling, four families of methods willbe presented : linear models, neural networks, dynamic bayesian networks and support vector machines (SVM).The fourth chapter is an opportunity to present a novel method of modeling. Indeed, after a presentation of themethods for the identification of state representation, we see how to take into account theoretical apriorism during learning of this model type, ie a stability constraint.
|
62 |
Reconstruction de réseaux fonctionnels et analyse causale en biologie des systèmes / Network reconstruction and causal analysis in systems biologyAffeldt, Séverine 02 July 2015 (has links)
L'inférence de la causalité est une problématique récurrente pour un large éventail de domaines où les méthodes d'interventions ou d'acquisition de données temporelles sont inapplicables. Toutefois, établir des relations de causalité uniquement à partir de données d'observation peut se révéler être une tâche complexe. Je présente ici une méthode d'apprentissage de réseaux qui combine les avantages des méthodes d'inférence par identification de contraintes structurales et par optimisation de scores bayésiens pour reconstruire de manière robuste des réseaux causaux malgré le bruit d'échantillonnage inhérent aux données d'observation. Cette méthode repose sur l'identification de v-structures à l'aide de l'information (conditionnelle) à trois variables, une mesure issue de la théorie de l'information, qui est négative quand elle est associée à un collider et positive sinon. Cette approche soustrait itérativement l'information conditionnelle à trois variables la plus forte à l'information conditionnelle à deux variables entre chaque paire de noeuds. Les indépendences conditionnelles sont progressivement calculées en collectant les contributions les plus fortes. Le squelette est ensuite partiellement orienté et ces orientations sont propagées aux liens non orientés selon le signe et la force de l'interaction dans les triplets ouverts. Cette approche obtient de meilleurs résultats que les méthodes par contraintes ou optimisation de score sur un ensemble de réseaux benchmark et fournit des prédictions prometteuses pour des systèmes biologiques complexes, tels que les réseaux neuronaux du poisson zèbre ou l'inférence des cascades de mutations dans les tumeurs. / The inference of causality is an everyday life question that spans a broad range of domains for which interventions or time-series acquisition may be impracticable if not unethical. Yet, elucidating causal relationships in real-life complex systems can be convoluted when relying solely on observational data. I report here a novel network reconstruction method, which combines constraint-based and Bayesian frameworks to reliably reconstruct networks despite inherent sampling noise in finite observational datasets. The approach is based on an information theory result tracing back the existence of colliders in graphical models to negative conditional 3-point information between observed variables. This enables to confidently ascertain structural independencies in causal graphs, based on the ranking of their most likely contributing nodes with (significantly) positive conditional 3-point information. Dispensible edges from a complete undirected graph are progressively pruned by iteratively taking off the most likely positive conditional 3-point information from the 2-point (mutual) information between each pair of nodes. The resulting skeleton is then partially directed by orienting and propagating edge directions based on the sign and magnitude of the conditional 3-point information of unshielded triples. This new approach outperforms constraint-based and Bayesian inference methods on a range of benchmark networks and provides promising predictions when applied to the reconstruction of complex biological systems, such as hematopoietic regulatory subnetworks, zebrafish neural networks, mutational pathways or the interplay of genomic properties on the evolution of vertebrates.
|
63 |
Évaluation dynamique de risque et calcul de réponses basés sur des modèles d’attaques bayésiens / Dynamic risk assessment and response computation using Bayesian attack modelsAguessy, François-Xavier 22 September 2016 (has links)
Les systèmes d'information sont une cible de plus en plus attractive pour les attaquants. Dans cette thèse de doctorat, nous construisons une méthodologie complète d'analyse statique et dynamique de risque prenant en compte la connaissance à priori d'un système avec les événements dynamiques, afin de proposer des réponses permettant d'empêcher les attaques futures. Tout d'abord, nous étudions comment corriger les attaques potentielles qui peuvent arriver dans un système, en s'appuyant sur les graphes d'attaque logiques. Nous proposons une méthodologie de remédiation corrigeant les chemins d'attaque les plus significatifs. Les remédiations candidates sont classées en fonction de leur coût opérationnel et leur impact sur le système. Les graphes d'attaques ne peuvent pas être directement utilisés pour l'évaluation dynamique de risque. Nous étendons donc ce modèle pour construire des modèles d'analyse dynamique de risque basés sur des réseaux bayésiens. Le modèle hybride d'évaluation de risque se divise en deux modèles complémentaires: (1) Les modèles de corrélation de risque, permettant d'analyser les attaques en cours et fournir les probabilités de compromission des états du système, (2) les modèles d'évaluation du risque futur, permettant évaluer les attaques futures les plus probables. Nous analysons la sensibilité des paramètres probabilistes du modèle et en validons les résultats à partir de graphes d'attaque topologiques / Information systems constitute an increasingly attractive target for attackers. Given the number and complexity of attacks, security teams need to focus their actions, in order to select the most appropriate security controls. Because of the threat posed by advanced multi-step attacks, it is difficult for security operators to fully cover all vulnerabilities when deploying countermeasures. In this PhD thesis, we build a complete framework for static and dynamic risk assessment including prior knowledge on the information system and dynamic events, proposing responses to prevent future attacks. First, we study how to remediate the potential attacks that can happen in a system, using logical attack graphs. We build a remediation methodology to prevent the most relevant attack paths extracted from a logical attack graph. In order to help an operator to choose between several remediation candidates, we rank them according to a cost of remediation combining operational and impact costs. Then, we study the dynamic attacks that can occur in a system. Attack graphs are not directly suited for dynamic risk assessment. Thus, we extend this mode to build dynamic risk assessment models to evaluate the attacks that are the most likely. The hybrid model is subdivided in two complementary models: (1) the first ones analysing ongoing attacks and provide the hosts' compromise probabilities, and (2) the second ones assessing the most likely future attacks. We study the sensitivity of their probabilistic parameters. Finally, we validate the accuracy and usage of both models in the domain of cybersecurity, by building them from a topological attack graph
|
64 |
Adaptation de modèles statistiques pour la séparation de sources mono-capteur Texte imprimé : application à la séparation voix / musique dans les chansonsOzerov, Alexey 15 December 2006 (has links) (PDF)
La séparation de sources avec un seul capteur est un problème très récent, qui attire de plus en plus d'attention dans le monde scientifique. Cependant, il est loin d'être résolu et, même plus, il ne peut pas être résolu en toute généralité. La difficulté principale est que, ce problème étant extrêmement sous déterminé, il faut disposer de fortes connaissances sur les sources pour pouvoir les séparer. Pour une grande partie des méthodes de séparation, ces connaissances sont représentées par des modèles statistiques des sources, notamment par des Modèles de Mélange de Gaussiennes (MMG), qui sont appris auparavant à partir d'exemples. L'objet de cette thèse est d'étudier les méthodes de séparation basées sur des modèles statistiques en général, puis de les appliquer à un problème concret, tel que la séparation de la voix par rapport à la musique dans des enregistrements monophoniques de chansons. Apporter des solutions à ce problème, qui est assez difficile et peu étudié pour l'instant, peut être très utile pour faciliter l'analyse du contenu des chansons, par exemple dans le contexte de l'indexation audio. Les méthodes de séparation existantes donnent de bonnes performances à condition que les caractéristiques des modèles statistiques utilisés soient proches de celles des sources à séparer. Malheureusement, il n'est pas toujours possible de construire et d'utiliser en pratique de tels modèles, à cause de l'insuffisance des exemples d'apprentissage représentatifs et des ressources calculatoires. Pour remédier à ce problème, il est proposé dans cette thèse d'adapter a posteriori les modèles aux sources à séparer. Ainsi, un formalisme général d'adaptation est développé. En s'inspirant de techniques similaires utilisées en reconnaissance de la parole, ce formalisme est introduit sous la forme d'un critère d'adaptation Maximum A Posteriori (MAP). De plus, il est montré comment optimiser ce critère à l'aide de l'algorithme EM à différents niveaux de généralité. Ce formalisme d'adaptation est ensuite appliqué dans certaines formes particulières pour la séparation voix / musique. Les résultats obtenus montrent que pour cette tâche, l'utilisation des modèles adaptés permet d'augmenter significativement (au moins de 5 dB) les performances de séparation par rapport aux modèles non adaptés. Par ailleurs, il est observé que la séparation de la voix chantée facilite l'estimation de sa fréquence fondamentale (pitch), et que l'adaptation des modèles ne fait qu'améliorer ce résultat.
|
65 |
Incertitude, causalité et décision : Le cas des risques sociaux et du risque nucléaire en particulierLahidji, Reza 29 February 2012 (has links) (PDF)
La probabilité et la causalité sont deux outils indispensables à la prise en compte des situations de risque social. Lesrelations causales sont le fondement des représentations à partir desquelles on peut évaluer le risque et concevoirdes actions de prévention, de mitigation ou d'indemnisation. La probabilité permet de quantifier cette évaluation et de calibrer ces actions. Dès lors, il semble non seulement naturel, mais nécessaire d'expliciter la place de la causalité et de la probabilité dans la définition d'un problème de décision en situation de risque social. C'est l'objet de cette thèse.Un tour d'horizon de la terminologie du risque et des logiques d'intervention publique dans différentes catégories de risque social nous permettent de mieux comprendre la notion et les problèmes soulevés par sa représentation. Nous approfondissons notre analyse dans le cas de la sûreté nucléaire, en examinant en détail les méthodes et doctrinesdéveloppées dans ce domaine et leur évolution au cours du temps, ce qui nous conduit à formuler différentesobservations au sujet des évaluations de risque et de sûreté.En généralisant la notion d'intervention dans les réseaux bayésiens, nous développons une forme de réseau bayésien causal qui répond à nos besoins. Nous parvenons, par son biais, à une définition du risque qui semble pertinente pour un grand nombre de situations. Nous proposons ensuite des applications simples de ce modèle à certains aspects de l'accident de Fukushima et d'autres problèmes de sûreté nucléaire. Outre certains enseignements spécifiques, ceci nous amène à souligner la nécessité d'une démarche systématique d'identification des incertitudes dans ce domaine.Étendu en direction de la théorie de la décision, notre outil débouche naturellement sur un modèle de décision dynamique dans lequel les actes causent les conséquences et sont causalement liés entre eux. Il apporte en outre une interprétation causale au cadre conceptuel de Savage et permet d'en résoudre certains paradoxes et clarifier certains aspects. Il conduit enfin à envisager la question de l'ambigüité comme incertitude concernant la structure causale d'un problème de décision, ce qui correspond à une vision courante du principe de précaution.
|
66 |
Causalité et probabilités : réseaux bayésiens, propensionnismeDrouet, Isabelle 15 December 2007 (has links) (PDF)
Les théories probabilistes de la causalité apparaissent dans les années 1960 corrélativement de la critique de l'idée selon laquelle la causalité serait une relation de nécessitation. Le présent travail traite de questions soulevées par l'état actuel du développement de ces théories. En ce qui concerne la causalité générique, on peut considérer que l'analyse conceptuelle de ses rapports avec les probabilités est achevée. Les questions qui se posent aujourd'hui sont donc épistémologiques. Plus exactement, les questions traitées dans ce travail portent sur l'inférence aux causes génériques en tant qu'elle est fondée sur les réseaux bayésiens causaux. De façon sensiblement différente, la question du rapport entre la causalité singulière et les probabilités n'est pas complètement réglée du point de vue conceptuel. Nous abordons cette question à partir d'une analyse de la relation entre la causalité et la théorie propensionniste des probabilités.
|
67 |
Développement d'une méthodologie d'assistance au commissionnement des bâtiments à faible consommation d'énergieHannachi-Belkadi, Nazila Kahina 08 July 2008 (has links) (PDF)
Les bâtiments à faible consommation d'énergie connaissent, ces dernières années, un grand intérêt étant donné le rôle important qu'ils jouent dans la diminution des émissions de gaz à effet de serre d'une part, et la flambée des prix des combustibles, d'autre part. Néanmoins, dans de nombreux cas la réalisation de ce type de bâtiments n'atteint pas les performances escomptées. Ce problème est dû en grande partie à : 1) la perte d'informations tout au long du cycle de vie du bâtiment, 2) la non évaluation régulière des décisions prises par les acteurs intervenants. Le commissionnement en tant que processus de contrôle qualité joue un rôle important dans le bon déroulement du processus de réalisation de bâtiments à faible consommation d'énergie. Cette recherche vise à développer une méthodologie dont l'objectif est d'assister les personnes responsables de cette mission dans la définition de plans de commissionnement adaptés à leurs projets. Nous avons réalisé en premier, un état de l'art de la réalisation des bâtiments à faible consommation d'énergie, que nous avons par la suite confronté à la réalité à travers une enquête auprès des acteurs du bâtiment et d'étude de cas réels. Cette étape nous a permis de formuler une hypothèse concernant la nécessité d'un commissionnement "évolutif" -adapté aux particularités de chaque projet - et de décrire une méthodologie globale d'assistance à la conception des bâtiments à faible consommation d'énergie, qui intègre une aide à la décision, une gestion de l'information et un commissionnement "évolutif" qui vient vérifier le bon déroulement des deux premiers. Pour mettre en application cette méthodologie, une boîte à outils a été développée. Elle est constituée de : 1) un outil dit "statique" qui permet de définir un premier plan de commissionnent générique qui répond aux caractéristiques d'un projet, à partir d'une base de données exhaustives de tâches de commissionnement, 2) un outil dit "dynamique" basé sur les probabilités, qui permet de mettre à jour le plan de commissionnement initial (générique), en l'adaptant au projet en cours. Cette mise à jour permet de prendre en compte les particularités et imprévus rencontrés lors de la réalisation d'un projet, rendant ainsi le plan de commissionnement plus précis. Une expérimentation, dans un cas réel, du premier outil et des applications du second ont été faites pour montrer leurs possibilités et leurs limites. Les résultats font apparaître deux points importants : 1) l'intérêt d'avoir un plan de commissionnement structuré et évolutif pour vérifier la qualité de la réalisation des bâtiments à faible consommation d'énergie et assurer ainsi l'atteinte des performances souhaitées, 2) l'intérêt d'utiliser un outil probabiliste tel que les réseaux Bayésiens pour anticiper les dérives et prendre en charge les imprévus rencontrés lors de ce processus vivant. Cette méthodologie représente une base pour le développement d'outils d'assistance à la définition de plans de commissionnement "évolutifs" pour le neuf et l'existant, et tous les secteurs du bâtiment
|
68 |
Approche probabiliste pour l’analyse de l’impact des changements dans les programmes orientés objetZoghlami, Aymen 06 1900 (has links)
Nous proposons une approche probabiliste afin de déterminer l’impact des changements dans les programmes à objets. Cette approche sert à prédire, pour un changement donné dans une classe du système, l’ensemble des autres classes potentiellement affectées par ce changement. Cette prédiction est donnée sous la forme d’une probabilité qui dépend d’une part, des interactions entre les classes exprimées en termes de nombre d’invocations et d’autre part, des relations extraites à partir du code source. Ces relations sont extraites automatiquement par rétro-ingénierie. Pour la mise en oeuvre de notre approche, nous proposons une approche basée sur les réseaux bayésiens. Après une phase d’apprentissage, ces réseaux prédisent l’ensemble des classes affectées par un changement. L’approche probabiliste proposée est évaluée avec deux scénarios distincts mettant en oeuvre plusieurs types de changements effectués sur différents systèmes. Pour les systèmes qui possèdent des données historiques, l’apprentissage a été réalisé à partir des anciennes versions. Pour les systèmes dont on ne possède pas assez de données relatives aux changements de ses versions antécédentes, l’apprentissage a été réalisé à l’aide des données extraites d’autres systèmes. / We study the possibility of predicting the impact of changes in object-oriented code
using bayesian networks. For each change type, we produce a bayesian network that determines the probability that a class is impacted given that another class is changed.
Each network takes as input a set of possible relationships between classes. We train our networks using historical data. The proposed impact-prediction approach is evaluated with two different scenarios, various types of changes, and five systems. In the first scenario, we use as training data, the changes performed in the previous versions of the same system. In the second scenario training data is borrowed from systems that are different from the changed one. Our evaluation showed that, in both cases, we obtain very good predictions, even though they are better in the first scenario.
|
69 |
Hybridation des retours d'expérience statistique et cognitif pour l'évaluation des risques : application à la déconstruction des aéronefs / Hybridization of statistical and cognitive experience feedback to assess risk : application to aircraft deconstructionVilleneuve, Eric 31 May 2012 (has links)
Les travaux de recherche présentés dans ce document s'inscrivent dans le cadre de la gestion des connaissances appliquée à la déconstruction des avions en fin de vie avec pour objectif l'aide à la décision par l'évaluation des risques. Pour répondre à cet objectif, nous avons développé des mécanismes d'aide à la décision hybridant les retours d'expérience statistique et cognitif pour évaluer les risques sur les zones critiques d'un système. L'approche proposée permet la combinaison des avis d'experts du domaine avec des statistiques issues d'une base de données en utilisant les fonctions de croyance. L'évaluation des risques est réalisée par le traitement des connaissances combinées au moyen d'un modèle utilisant les réseaux évidentiels dirigés. Ce document s'articule en quatre chapitres.Le premier chapitre constitue un état de l'art abordant les notions liées au risque et au retour d'expérience. Il permet de définir les concepts clés concernant l'évaluation du risque, la gestion des connaissances (et en particulier le processus de retour d'expérience) ainsi que les passerelles entre ces deux concepts. Le second chapitre permet d'introduire un modèle d'évaluation des risques basé sur les méthodes bayésiennes. Cependant, les méthodes bayésiennes ont des limites, en particulier pour ce qui concerne la modélisation de l'incertitude épistémique inhérente aux avis d'experts, qui nous ont incité à proposer des alternatives, telles les fonctions de croyance et les réseaux évidentiels dirigés que nous avons finalement choisi d'utiliser. Le troisième chapitre propose une démarche permettant d'évaluer les risques en utilisant les réseaux évidentiels dirigés. L'approche proposée décrit les mécanismes utilisés pour formaliser et fusionner les connaissances expertes et statistiques, puis pour traiter ces connaissances au moyen des réseaux évidentiels dirigés. Pour finir, des indicateurs permettant la restitution des résultats au décideur sont introduits. Le dernier chapitre présente le projet DIAGNOSTAT qui a servi de cadre à ces travaux de recherche et expose un cas d'étude permettant d'appliquer la démarche introduite précédemment à la déconstruction des avions en fin de vie au moyen de deux scénarios / The research work presented in this document relates to knowledge management applied to aircraft deconstruction. The aim of this work is to provide a decision support system for risk assessment. To meet this objective, mechanisms for decision support hybridizing cognitive and statistical experience feedback to perform risk assessment on system critical areas have been developed. The proposed approach allows to combine expert opinion with statistics extracted from a database by using belief functions. The risk assessment is performed by the combined knowledge processing using a model based on directed evidential networks. This document is divided into four chapters. The first chapter is a state of the art addressing concepts related to risk and experience feedback. It defines key concepts for risk assessment, knowledge management (in particular the experience feedback process) and the links between these two concepts. The second chapter allows to introduce a risk assessment model based on Bayesian methods. However, Bayesian methods have some limitations, particularly with respect to epistemic uncertainty modelling. That is why, some alternatives have been proposed, such as belief functions and directed evidential networks that we finally chose to use. The third chapter proposes an approach for assessing the risk using directed evidential networks. The proposed approach describes the mechanisms used to formalize and combine expert and statistical knowledge, and then to process this knowledge with directed evidential networks. Finally, indicators to inform the decision maker about results are introduced. The last chapter presents the DIAGNOSTAT project which provided the framework for this research and a study case to apply the approach introduced earlier for aircraft deconstruction by using two scenarios
|
70 |
VoIP Networks Monitoring and Intrusion Detection / Monitorage et Détection d'Intrusion dans les Réseaux Voix sur IPNassar, Mohamed 31 March 2009 (has links)
La Voix sur IP (VoIP) est devenue un paradigme majeur pour fournir des services de télécommunications flexibles tout en réduisant les coûts opérationnels. Le déploiement à large échelle de la VoIP est soutenu par l'accès haut débit à l'Internet et par la standardisation des protocoles dédiés. Cependant, la VoIP doit également faire face à plusieurs risques comprenant des vulnérabilités héritées de la couche IP auxquelles s'ajoutent des vulnérabilités spécifiques. Notre objectif est de concevoir, implanter et valider de nouveaux modèles et architectures pour assurer une défense préventive, permettre le monitorage et la détection d'intrusion dans les réseaux VoIP. Notre travail combine deux domaines: celui de la sécurité des réseaux et celui de l'intelligence artificielle. Nous renforçons les mécanismes de sécurité existants en apportant des contributions sur trois axes : Une approche basée sur des mécanismes d'apprentissage pour le monitorage de trafic de signalisation VoIP, un pot de miel spécifique, et un modèle de corrélation des événements pour la détection d'intrusion. Pour l'évaluation de nos solutions, nous avons développés des agents VoIP distribués et gérés par une entité centrale. Nous avons développé un outil d'analyse des traces réseaux de la signalisation que nous avons utilisé pour expérimenter avec des traces de monde réel. Enfin, nous avons implanté un prototype de détection d'intrusion basé sur des règles de corrélation des événements. / Voice over IP (VoIP) has become a major paradigm for providing flexible telecommunication services and reducing operational costs. The large-scale deployment of VoIP has been leveraged by the high-speed broadband access to the Internet and the standardization of dedicated protocols. However, VoIP faces multiple security issues including vulnerabilities inherited from the IP layer as well as specific ones. Our objective is to design, implement and validate new models and architectures for performing proactive defense, monitoring and intrusion detection in VoIP networks. Our work combines two domains: network security and artificial intelligence. We reinforce existent security mechanisms by working on three axes: a machine learning approach for VoIP signaling traffic monitoring, a VoIP specific honeypot and a security event correlation model for intrusion detection. In order to experiment our solutions, we have developed VoIP agents which are distributed and managed by a central entity. We have developed an analyzer of signaling network traces and we used it to analyze real-world traces. Finally, we have implemented a prototype of a rule-based event-driven intrusion detection system.
|
Page generated in 0.064 seconds