• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 81
  • 20
  • 7
  • Tagged with
  • 108
  • 108
  • 53
  • 41
  • 33
  • 31
  • 29
  • 28
  • 21
  • 20
  • 17
  • 17
  • 16
  • 14
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Reconstruction de réseaux fonctionnels et analyse causale en biologie des systèmes / Network reconstruction and causal analysis in systems biology

Affeldt, Séverine 02 July 2015 (has links)
L'inférence de la causalité est une problématique récurrente pour un large éventail de domaines où les méthodes d'interventions ou d'acquisition de données temporelles sont inapplicables. Toutefois, établir des relations de causalité uniquement à partir de données d'observation peut se révéler être une tâche complexe. Je présente ici une méthode d'apprentissage de réseaux qui combine les avantages des méthodes d'inférence par identification de contraintes structurales et par optimisation de scores bayésiens pour reconstruire de manière robuste des réseaux causaux malgré le bruit d'échantillonnage inhérent aux données d'observation. Cette méthode repose sur l'identification de v-structures à l'aide de l'information (conditionnelle) à trois variables, une mesure issue de la théorie de l'information, qui est négative quand elle est associée à un collider et positive sinon. Cette approche soustrait itérativement l'information conditionnelle à trois variables la plus forte à l'information conditionnelle à deux variables entre chaque paire de noeuds. Les indépendences conditionnelles sont progressivement calculées en collectant les contributions les plus fortes. Le squelette est ensuite partiellement orienté et ces orientations sont propagées aux liens non orientés selon le signe et la force de l'interaction dans les triplets ouverts. Cette approche obtient de meilleurs résultats que les méthodes par contraintes ou optimisation de score sur un ensemble de réseaux benchmark et fournit des prédictions prometteuses pour des systèmes biologiques complexes, tels que les réseaux neuronaux du poisson zèbre ou l'inférence des cascades de mutations dans les tumeurs. / The inference of causality is an everyday life question that spans a broad range of domains for which interventions or time-series acquisition may be impracticable if not unethical. Yet, elucidating causal relationships in real-life complex systems can be convoluted when relying solely on observational data. I report here a novel network reconstruction method, which combines constraint-based and Bayesian frameworks to reliably reconstruct networks despite inherent sampling noise in finite observational datasets. The approach is based on an information theory result tracing back the existence of colliders in graphical models to negative conditional 3-point information between observed variables. This enables to confidently ascertain structural independencies in causal graphs, based on the ranking of their most likely contributing nodes with (significantly) positive conditional 3-point information. Dispensible edges from a complete undirected graph are progressively pruned by iteratively taking off the most likely positive conditional 3-point information from the 2-point (mutual) information between each pair of nodes. The resulting skeleton is then partially directed by orienting and propagating edge directions based on the sign and magnitude of the conditional 3-point information of unshielded triples. This new approach outperforms constraint-based and Bayesian inference methods on a range of benchmark networks and provides promising predictions when applied to the reconstruction of complex biological systems, such as hematopoietic regulatory subnetworks, zebrafish neural networks, mutational pathways or the interplay of genomic properties on the evolution of vertebrates.
52

Adaptation de modèles statistiques pour la séparation de sources mono-capteur Texte imprimé : application à la séparation voix / musique dans les chansons

Ozerov, Alexey 15 December 2006 (has links) (PDF)
La séparation de sources avec un seul capteur est un problème très récent, qui attire de plus en plus d'attention dans le monde scientifique. Cependant, il est loin d'être résolu et, même plus, il ne peut pas être résolu en toute généralité. La difficulté principale est que, ce problème étant extrêmement sous déterminé, il faut disposer de fortes connaissances sur les sources pour pouvoir les séparer. Pour une grande partie des méthodes de séparation, ces connaissances sont représentées par des modèles statistiques des sources, notamment par des Modèles de Mélange de Gaussiennes (MMG), qui sont appris auparavant à partir d'exemples. L'objet de cette thèse est d'étudier les méthodes de séparation basées sur des modèles statistiques en général, puis de les appliquer à un problème concret, tel que la séparation de la voix par rapport à la musique dans des enregistrements monophoniques de chansons. Apporter des solutions à ce problème, qui est assez difficile et peu étudié pour l'instant, peut être très utile pour faciliter l'analyse du contenu des chansons, par exemple dans le contexte de l'indexation audio. Les méthodes de séparation existantes donnent de bonnes performances à condition que les caractéristiques des modèles statistiques utilisés soient proches de celles des sources à séparer. Malheureusement, il n'est pas toujours possible de construire et d'utiliser en pratique de tels modèles, à cause de l'insuffisance des exemples d'apprentissage représentatifs et des ressources calculatoires. Pour remédier à ce problème, il est proposé dans cette thèse d'adapter a posteriori les modèles aux sources à séparer. Ainsi, un formalisme général d'adaptation est développé. En s'inspirant de techniques similaires utilisées en reconnaissance de la parole, ce formalisme est introduit sous la forme d'un critère d'adaptation Maximum A Posteriori (MAP). De plus, il est montré comment optimiser ce critère à l'aide de l'algorithme EM à différents niveaux de généralité. Ce formalisme d'adaptation est ensuite appliqué dans certaines formes particulières pour la séparation voix / musique. Les résultats obtenus montrent que pour cette tâche, l'utilisation des modèles adaptés permet d'augmenter significativement (au moins de 5 dB) les performances de séparation par rapport aux modèles non adaptés. Par ailleurs, il est observé que la séparation de la voix chantée facilite l'estimation de sa fréquence fondamentale (pitch), et que l'adaptation des modèles ne fait qu'améliorer ce résultat.
53

Incertitude, causalité et décision : Le cas des risques sociaux et du risque nucléaire en particulier

Lahidji, Reza 29 February 2012 (has links) (PDF)
La probabilité et la causalité sont deux outils indispensables à la prise en compte des situations de risque social. Lesrelations causales sont le fondement des représentations à partir desquelles on peut évaluer le risque et concevoirdes actions de prévention, de mitigation ou d'indemnisation. La probabilité permet de quantifier cette évaluation et de calibrer ces actions. Dès lors, il semble non seulement naturel, mais nécessaire d'expliciter la place de la causalité et de la probabilité dans la définition d'un problème de décision en situation de risque social. C'est l'objet de cette thèse.Un tour d'horizon de la terminologie du risque et des logiques d'intervention publique dans différentes catégories de risque social nous permettent de mieux comprendre la notion et les problèmes soulevés par sa représentation. Nous approfondissons notre analyse dans le cas de la sûreté nucléaire, en examinant en détail les méthodes et doctrinesdéveloppées dans ce domaine et leur évolution au cours du temps, ce qui nous conduit à formuler différentesobservations au sujet des évaluations de risque et de sûreté.En généralisant la notion d'intervention dans les réseaux bayésiens, nous développons une forme de réseau bayésien causal qui répond à nos besoins. Nous parvenons, par son biais, à une définition du risque qui semble pertinente pour un grand nombre de situations. Nous proposons ensuite des applications simples de ce modèle à certains aspects de l'accident de Fukushima et d'autres problèmes de sûreté nucléaire. Outre certains enseignements spécifiques, ceci nous amène à souligner la nécessité d'une démarche systématique d'identification des incertitudes dans ce domaine.Étendu en direction de la théorie de la décision, notre outil débouche naturellement sur un modèle de décision dynamique dans lequel les actes causent les conséquences et sont causalement liés entre eux. Il apporte en outre une interprétation causale au cadre conceptuel de Savage et permet d'en résoudre certains paradoxes et clarifier certains aspects. Il conduit enfin à envisager la question de l'ambigüité comme incertitude concernant la structure causale d'un problème de décision, ce qui correspond à une vision courante du principe de précaution.
54

Causalité et probabilités : réseaux bayésiens, propensionnisme

Drouet, Isabelle 15 December 2007 (has links) (PDF)
Les théories probabilistes de la causalité apparaissent dans les années 1960 corrélativement de la critique de l'idée selon laquelle la causalité serait une relation de nécessitation. Le présent travail traite de questions soulevées par l'état actuel du développement de ces théories. En ce qui concerne la causalité générique, on peut considérer que l'analyse conceptuelle de ses rapports avec les probabilités est achevée. Les questions qui se posent aujourd'hui sont donc épistémologiques. Plus exactement, les questions traitées dans ce travail portent sur l'inférence aux causes génériques en tant qu'elle est fondée sur les réseaux bayésiens causaux. De façon sensiblement différente, la question du rapport entre la causalité singulière et les probabilités n'est pas complètement réglée du point de vue conceptuel. Nous abordons cette question à partir d'une analyse de la relation entre la causalité et la théorie propensionniste des probabilités.
55

Développement d'une méthodologie d'assistance au commissionnement des bâtiments à faible consommation d'énergie

Hannachi-Belkadi, Nazila Kahina 08 July 2008 (has links) (PDF)
Les bâtiments à faible consommation d'énergie connaissent, ces dernières années, un grand intérêt étant donné le rôle important qu'ils jouent dans la diminution des émissions de gaz à effet de serre d'une part, et la flambée des prix des combustibles, d'autre part. Néanmoins, dans de nombreux cas la réalisation de ce type de bâtiments n'atteint pas les performances escomptées. Ce problème est dû en grande partie à : 1) la perte d'informations tout au long du cycle de vie du bâtiment, 2) la non évaluation régulière des décisions prises par les acteurs intervenants. Le commissionnement en tant que processus de contrôle qualité joue un rôle important dans le bon déroulement du processus de réalisation de bâtiments à faible consommation d'énergie. Cette recherche vise à développer une méthodologie dont l'objectif est d'assister les personnes responsables de cette mission dans la définition de plans de commissionnement adaptés à leurs projets. Nous avons réalisé en premier, un état de l'art de la réalisation des bâtiments à faible consommation d'énergie, que nous avons par la suite confronté à la réalité à travers une enquête auprès des acteurs du bâtiment et d'étude de cas réels. Cette étape nous a permis de formuler une hypothèse concernant la nécessité d'un commissionnement "évolutif" -adapté aux particularités de chaque projet - et de décrire une méthodologie globale d'assistance à la conception des bâtiments à faible consommation d'énergie, qui intègre une aide à la décision, une gestion de l'information et un commissionnement "évolutif" qui vient vérifier le bon déroulement des deux premiers. Pour mettre en application cette méthodologie, une boîte à outils a été développée. Elle est constituée de : 1) un outil dit "statique" qui permet de définir un premier plan de commissionnent générique qui répond aux caractéristiques d'un projet, à partir d'une base de données exhaustives de tâches de commissionnement, 2) un outil dit "dynamique" basé sur les probabilités, qui permet de mettre à jour le plan de commissionnement initial (générique), en l'adaptant au projet en cours. Cette mise à jour permet de prendre en compte les particularités et imprévus rencontrés lors de la réalisation d'un projet, rendant ainsi le plan de commissionnement plus précis. Une expérimentation, dans un cas réel, du premier outil et des applications du second ont été faites pour montrer leurs possibilités et leurs limites. Les résultats font apparaître deux points importants : 1) l'intérêt d'avoir un plan de commissionnement structuré et évolutif pour vérifier la qualité de la réalisation des bâtiments à faible consommation d'énergie et assurer ainsi l'atteinte des performances souhaitées, 2) l'intérêt d'utiliser un outil probabiliste tel que les réseaux Bayésiens pour anticiper les dérives et prendre en charge les imprévus rencontrés lors de ce processus vivant. Cette méthodologie représente une base pour le développement d'outils d'assistance à la définition de plans de commissionnement "évolutifs" pour le neuf et l'existant, et tous les secteurs du bâtiment
56

Approche probabiliste pour l’analyse de l’impact des changements dans les programmes orientés objet

Zoghlami, Aymen 06 1900 (has links)
Nous proposons une approche probabiliste afin de déterminer l’impact des changements dans les programmes à objets. Cette approche sert à prédire, pour un changement donné dans une classe du système, l’ensemble des autres classes potentiellement affectées par ce changement. Cette prédiction est donnée sous la forme d’une probabilité qui dépend d’une part, des interactions entre les classes exprimées en termes de nombre d’invocations et d’autre part, des relations extraites à partir du code source. Ces relations sont extraites automatiquement par rétro-ingénierie. Pour la mise en oeuvre de notre approche, nous proposons une approche basée sur les réseaux bayésiens. Après une phase d’apprentissage, ces réseaux prédisent l’ensemble des classes affectées par un changement. L’approche probabiliste proposée est évaluée avec deux scénarios distincts mettant en oeuvre plusieurs types de changements effectués sur différents systèmes. Pour les systèmes qui possèdent des données historiques, l’apprentissage a été réalisé à partir des anciennes versions. Pour les systèmes dont on ne possède pas assez de données relatives aux changements de ses versions antécédentes, l’apprentissage a été réalisé à l’aide des données extraites d’autres systèmes. / We study the possibility of predicting the impact of changes in object-oriented code using bayesian networks. For each change type, we produce a bayesian network that determines the probability that a class is impacted given that another class is changed. Each network takes as input a set of possible relationships between classes. We train our networks using historical data. The proposed impact-prediction approach is evaluated with two different scenarios, various types of changes, and five systems. In the first scenario, we use as training data, the changes performed in the previous versions of the same system. In the second scenario training data is borrowed from systems that are different from the changed one. Our evaluation showed that, in both cases, we obtain very good predictions, even though they are better in the first scenario.
57

Hybridation des retours d'expérience statistique et cognitif pour l'évaluation des risques : application à la déconstruction des aéronefs / Hybridization of statistical and cognitive experience feedback to assess risk : application to aircraft deconstruction

Villeneuve, Eric 31 May 2012 (has links)
Les travaux de recherche présentés dans ce document s'inscrivent dans le cadre de la gestion des connaissances appliquée à la déconstruction des avions en fin de vie avec pour objectif l'aide à la décision par l'évaluation des risques. Pour répondre à cet objectif, nous avons développé des mécanismes d'aide à la décision hybridant les retours d'expérience statistique et cognitif pour évaluer les risques sur les zones critiques d'un système. L'approche proposée permet la combinaison des avis d'experts du domaine avec des statistiques issues d'une base de données en utilisant les fonctions de croyance. L'évaluation des risques est réalisée par le traitement des connaissances combinées au moyen d'un modèle utilisant les réseaux évidentiels dirigés. Ce document s'articule en quatre chapitres.Le premier chapitre constitue un état de l'art abordant les notions liées au risque et au retour d'expérience. Il permet de définir les concepts clés concernant l'évaluation du risque, la gestion des connaissances (et en particulier le processus de retour d'expérience) ainsi que les passerelles entre ces deux concepts. Le second chapitre permet d'introduire un modèle d'évaluation des risques basé sur les méthodes bayésiennes. Cependant, les méthodes bayésiennes ont des limites, en particulier pour ce qui concerne la modélisation de l'incertitude épistémique inhérente aux avis d'experts, qui nous ont incité à proposer des alternatives, telles les fonctions de croyance et les réseaux évidentiels dirigés que nous avons finalement choisi d'utiliser. Le troisième chapitre propose une démarche permettant d'évaluer les risques en utilisant les réseaux évidentiels dirigés. L'approche proposée décrit les mécanismes utilisés pour formaliser et fusionner les connaissances expertes et statistiques, puis pour traiter ces connaissances au moyen des réseaux évidentiels dirigés. Pour finir, des indicateurs permettant la restitution des résultats au décideur sont introduits. Le dernier chapitre présente le projet DIAGNOSTAT qui a servi de cadre à ces travaux de recherche et expose un cas d'étude permettant d'appliquer la démarche introduite précédemment à la déconstruction des avions en fin de vie au moyen de deux scénarios / The research work presented in this document relates to knowledge management applied to aircraft deconstruction. The aim of this work is to provide a decision support system for risk assessment. To meet this objective, mechanisms for decision support hybridizing cognitive and statistical experience feedback to perform risk assessment on system critical areas have been developed. The proposed approach allows to combine expert opinion with statistics extracted from a database by using belief functions. The risk assessment is performed by the combined knowledge processing using a model based on directed evidential networks. This document is divided into four chapters. The first chapter is a state of the art addressing concepts related to risk and experience feedback. It defines key concepts for risk assessment, knowledge management (in particular the experience feedback process) and the links between these two concepts. The second chapter allows to introduce a risk assessment model based on Bayesian methods. However, Bayesian methods have some limitations, particularly with respect to epistemic uncertainty modelling. That is why, some alternatives have been proposed, such as belief functions and directed evidential networks that we finally chose to use. The third chapter proposes an approach for assessing the risk using directed evidential networks. The proposed approach describes the mechanisms used to formalize and combine expert and statistical knowledge, and then to process this knowledge with directed evidential networks. Finally, indicators to inform the decision maker about results are introduced. The last chapter presents the DIAGNOSTAT project which provided the framework for this research and a study case to apply the approach introduced earlier for aircraft deconstruction by using two scenarios
58

VoIP Networks Monitoring and Intrusion Detection / Monitorage et Détection d'Intrusion dans les Réseaux Voix sur IP

Nassar, Mohamed 31 March 2009 (has links)
La Voix sur IP (VoIP) est devenue un paradigme majeur pour fournir des services de télécommunications flexibles tout en réduisant les coûts opérationnels. Le déploiement à large échelle de la VoIP est soutenu par l'accès haut débit à l'Internet et par la standardisation des protocoles dédiés. Cependant, la VoIP doit également faire face à plusieurs risques comprenant des vulnérabilités héritées de la couche IP auxquelles s'ajoutent des vulnérabilités spécifiques. Notre objectif est de concevoir, implanter et valider de nouveaux modèles et architectures pour assurer une défense préventive, permettre le monitorage et la détection d'intrusion dans les réseaux VoIP. Notre travail combine deux domaines: celui de la sécurité des réseaux et celui de l'intelligence artificielle. Nous renforçons les mécanismes de sécurité existants en apportant des contributions sur trois axes : Une approche basée sur des mécanismes d'apprentissage pour le monitorage de trafic de signalisation VoIP, un pot de miel spécifique, et un modèle de corrélation des événements pour la détection d'intrusion. Pour l'évaluation de nos solutions, nous avons développés des agents VoIP distribués et gérés par une entité centrale. Nous avons développé un outil d'analyse des traces réseaux de la signalisation que nous avons utilisé pour expérimenter avec des traces de monde réel. Enfin, nous avons implanté un prototype de détection d'intrusion basé sur des règles de corrélation des événements. / Voice over IP (VoIP) has become a major paradigm for providing flexible telecommunication services and reducing operational costs. The large-scale deployment of VoIP has been leveraged by the high-speed broadband access to the Internet and the standardization of dedicated protocols. However, VoIP faces multiple security issues including vulnerabilities inherited from the IP layer as well as specific ones. Our objective is to design, implement and validate new models and architectures for performing proactive defense, monitoring and intrusion detection in VoIP networks. Our work combines two domains: network security and artificial intelligence. We reinforce existent security mechanisms by working on three axes: a machine learning approach for VoIP signaling traffic monitoring, a VoIP specific honeypot and a security event correlation model for intrusion detection. In order to experiment our solutions, we have developed VoIP agents which are distributed and managed by a central entity. We have developed an analyzer of signaling network traces and we used it to analyze real-world traces. Finally, we have implemented a prototype of a rule-based event-driven intrusion detection system.
59

Intégration du retour d'expérience pour une stratégie de maintenance dynamique / Integrate experience feedback for dynamic maintenance strategy

Rozas, Rony 19 December 2014 (has links)
L'optimisation de stratégies de maintenance est un sujet primordial pour un grand nombre d'industriels. Il s'agit d'établir un plan de maintenance qui garantisse des niveaux de sécurité, de sûreté et de fiabilité élevé avec un coût minimum et respectant d'éventuelles contraintes. Le nombre de travaux grandissant sur l'optimisation de paramètres de maintenance et notamment sur la planification d'actions préventives de maintenance souligne l'intérêt de ce problème. Un grand nombre d'études sur la maintenance repose sur une modélisation du processus de dégradation du système étudié. Les Modèles Graphiques Probabilistes (MGP) et particulièrement les MGP Markoviens (MGPM) fournissent un cadre de travail pour la modélisation de processus stochastiques complexes. Le problème de ce type d'approche est que la qualité des résultats est dépendante de celle du modèle. De plus, les paramètres du système considéré peuvent évoluer au cours du temps. Cette évolution est généralement la conséquence d'un changement de fournisseur pour les pièces de remplacement ou d'un changement de paramètres d'exploitation. Cette thèse aborde le problème d'adaptation dynamique d'une stratégie de maintenance face à un système dont les paramètres changent. La méthodologie proposée repose sur des algorithmes de détection de changement dans un flux de données séquentielles et sur une nouvelle méthode d'inférence probabiliste spécifique aux réseaux bayésiens dynamiques. D'autre part, les algorithmes proposés dans cette thèse sont mis en place dans le cadre d'un projet d'étude avec Bombardier Transport. L'étude porte sur la maintenance du système d'accès voyageurs d'une nouvelle automotrice destiné à une exploitation sur le réseau ferré d'Ile-de-France. L'objectif général est de garantir des niveaux de sécurité et de fiabilité importants au cours de l'exploitation du train / The optimization of maintenance strategies is a major issue for many industrial applications. It involves establishing a maintenance plan that ensures security levels, security and high reliability with minimal cost and respecting any constraints. The increasing number of works on optimization of maintenance parameters in particular in scheduling preventive maintenance action underlines the importance of this issue. A large number of studies on maintenance are based on a modeling of the degradation of the system studied. Probabilistic Models Graphics (PGM) and especially Markovian PGM (M-PGM) provide a framework for modeling complex stochastic processes. The issue with this approach is that the quality of the results is dependent on the model. More system parameters considered may change over time. This change is usually the result of a change of supplier for replacement parts or a change in operating parameters. This thesis deals with the issue of dynamic adaptation of a maintenance strategy, with a system whose parameters change. The proposed methodology is based on change detection algorithms in a stream of sequential data and a new method for probabilistic inference specific to the dynamic Bayesian networks. Furthermore, the algorithms proposed in this thesis are implemented in the framework of a research project with Bombardier Transportation. The study focuses on the maintenance of the access system of a new automotive designed to operate on the rail network in Ile-de-France. The overall objective is to ensure a high level of safety and reliability during train operation
60

Apprentissage de Structure de Modèles Graphiques Probabilistes : application à la Classification Multi-Label / Probabilistic Graphical Model Structure Learning : Application to Multi-Label Classification

Gasse, Maxime 13 January 2017 (has links)
Dans cette thèse, nous nous intéressons au problème spécifique de l'apprentissage de structure de modèles graphiques probabilistes, c'est-à-dire trouver la structure la plus efficace pour représenter une distribution, à partir seulement d'un ensemble d'échantillons D ∼ p(v). Dans une première partie, nous passons en revue les principaux modèles graphiques probabilistes de la littérature, des plus classiques (modèles dirigés, non-dirigés) aux plus avancés (modèles mixtes, cycliques etc.). Puis nous étudions particulièrement le problème d'apprentissage de structure de modèles dirigés (réseaux Bayésiens), et proposons une nouvelle méthode hybride pour l'apprentissage de structure, H2PC (Hybrid Hybrid Parents and Children), mêlant une approche à base de contraintes (tests statistiques d'indépendance) et une approche à base de score (probabilité postérieure de la structure). Dans un second temps, nous étudions le problème de la classification multi-label, visant à prédire un ensemble de catégories (vecteur binaire y P (0, 1)m) pour un objet (vecteur x P Rd). Dans ce contexte, l'utilisation de modèles graphiques probabilistes pour représenter la distribution conditionnelle des catégories prend tout son sens, particulièrement dans le but minimiser une fonction coût complexe. Nous passons en revue les principales approches utilisant un modèle graphique probabiliste pour la classification multi-label (Probabilistic Classifier Chain, Conditional Dependency Network, Bayesian Network Classifier, Conditional Random Field, Sum-Product Network), puis nous proposons une approche générique visant à identifier une factorisation de p(y|x) en distributions marginales disjointes, en s'inspirant des méthodes d'apprentissage de structure à base de contraintes. Nous démontrons plusieurs résultats théoriques, notamment l'unicité d'une décomposition minimale, ainsi que trois procédures quadratiques sous diverses hypothèses à propos de la distribution jointe p(x, y). Enfin, nous mettons en pratique ces résultats afin d'améliorer la classification multi-label avec les fonctions coût F-loss et zero-one loss / In this thesis, we address the specific problem of probabilistic graphical model structure learning, that is, finding the most efficient structure to represent a probability distribution, given only a sample set D ∼ p(v). In the first part, we review the main families of probabilistic graphical models from the literature, from the most common (directed, undirected) to the most advanced ones (chained, mixed etc.). Then we study particularly the problem of learning the structure of directed graphs (Bayesian networks), and we propose a new hybrid structure learning method, H2PC (Hybrid Hybrid Parents and Children), which combines a constraint-based approach (statistical independence tests) with a score-based approach (posterior probability of the structure). In the second part, we address the multi-label classification problem, which aims at assigning a set of categories (binary vector y P (0, 1)m) to a given object (vector x P Rd). In this context, probabilistic graphical models provide convenient means of encoding p(y|x), particularly for the purpose of minimizing general loss functions. We review the main approaches based on PGMs for multi-label classification (Probabilistic Classifier Chain, Conditional Dependency Network, Bayesian Network Classifier, Conditional Random Field, Sum-Product Network), and propose a generic approach inspired from constraint-based structure learning methods to identify the unique partition of the label set into irreducible label factors (ILFs), that is, the irreducible factorization of p(y|x) into disjoint marginal distributions. We establish several theoretical results to characterize the ILFs based on the compositional graphoid axioms, and obtain three generic procedures under various assumptions about the conditional independence properties of the joint distribution p(x, y). Our conclusions are supported by carefully designed multi-label classification experiments, under the F-loss and the zero-one loss functions

Page generated in 0.05 seconds