• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 12
  • 9
  • Tagged with
  • 21
  • 21
  • 21
  • 17
  • 16
  • 9
  • 8
  • 8
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Causal modeling under a belief function framework / Modélisation du raisonnement causal avec la théorie des fonctions de croyance

Boukhris, Imen 17 January 2013 (has links)
La présente thèse s'intéresse à modéliser la causalité dans le cadre de la théorie des fonctions de croyance. Dans un premier temps, nous avons analysé et révisé les fondements théoriques des différents modèles associationnels crédibilistes existants. Nous avons proposé une structure graphique qui sert de base pour le réseau causal crédibiliste. Dans ce dernier, l'incertitude au niveau des nœuds est donnée en termes de distributions de masses conditionnelles. Comme la notion d'intervention est d'une importance capitale pour une analyse causale efficiente, nous avons introduit la contrepartie de l'opérateur \do" pour la représentation des interventions dans les réseaux causaux crédibilistes. Le modèle proposé permet ainsi de calculer l'effet simultané des observations et des interventions. Il est admis que considérer l'intervention comme une action qui réussit toujours à mettre sa cible à une valeur précise en la rendant complètement indépendante de ses causes originales est une condition rarement réalisée dans les applications réelles. De ce fait, nous avons examiné le traitement des interventions dont l'occurrence et/ou les conséquences sont imparfaites. Dans la dernière partie de la thèse, nous avons proposé un modèle d'attribution de causalité permettant d'interpréter les relations d'influence qui existent entre les différents attributs du système à savoir la causalité, la facilitation ou encore la justification en présence de données observationnelles et interventionnelles. Motivé par le fait que les preneurs de décision ne sont pas uniquement intéressés par l'attribution de la causalité, ce modèle permet de définir différentes forces d'une cause. / This thesis focuses on the modeling of causality under the belief function framework. We have first analyzed and revised the theoretical foundations of existing associational belief models. Then, we have proposed a graphical structure that serves as a basis for the causal belief network. In this latter, uncertainty at the nodes is given in terms of conditional mass distributions. Since intervention is a crucial concept for an efficient causal analysis, we have introduced a counterpart of the do operator as a tool to represent interventions on causal belief networks. The proposed model allows computing the simultaneous effect of observations and interventions. It is assumed that considering an intervention as an action that always succeeds to force its target variable to have a precise value, by making it completely independent of its original causes, is a condition rarely achieved in real-world applications. Therefore, we have examined the treatment of interventions whose occurrence is imperfect and/or have imperfect consequences. In the last part of the thesis, we have proposed a model for causality ascription to interpret influential relationships between different attributes of the system namely causality, facilitation or justification in the presence observational and interventional data. Since decision makers are not only interested in ascribing causes, this model allows to define different strengths of a cause.
2

Vers le suivi d’objets dans un cadre évidentiel : représentation, filtrage dynamique et association / toward object tracking using evidential framework : Representation, dynamic filtering and data association

Rekik, Wafa 23 March 2015 (has links)
Les systèmes intelligents sont de plus en plus présents dans notre société à l’instar des systèmes de surveillance et de protection de sites civils ou militaires. Leur but est de détecter les intrus et remonter une alarme ou une menace à un opérateur distant. Dans nos travaux, nous nous intéressons à de tels systèmes avec comme objectif de gérer au mieux la qualité de l’information présentée à l’opérateur en termes de fiabilité et précision. Nous nous concentrons sur la modalité image en vue de gérer des détections à la fois incertaines et imprécises de façon à présenter des objets fiables à l’opérateur.Pour préciser notre problème nous posons les contraintes suivantes. La première est que le système soit modulaire, l’une des briques (ou sous-fonctions) du système étant la détection de fragments correspondant potentiellement à des objets. Notre deuxième contrainte est alors de n’utiliser que des informations issues de la géométrie des détections fragmentaires : localisation spatiale dans l’image et taille des détections. Une menace est alors supposée d’autant plus importante que les détections sont de tailles importantes et temporellement persistantes.Le cadre formel choisi est la théorie des fonctions de croyance qui permet de modéliser des données à la fois imprécises et incertaines. Les contributions de cette thèse concernent la représentation des objets en termes de localisation imprécise et incertaine et le filtrage des objets.La représentation pertinente des informations est un point clé pour les problèmes d’estimation ou la prise de décision. Une bonne représentation se reconnaît au fait qu’en découlent des critères simples et performants pour résoudre des sous-problèmes. La représentation proposée dans cette thèse a été valorisée par le fait qu’un critère d’association entre nouvelles détections (fragments) et objets en construction, a pu être défini d’une façon simple et rigoureuse. Rappelons que cette association est une étape clé pour de nombreux problèmes impliquant des données non étiquettées, ce qui étend notre contribution au-delà de l’application considérée.Le filtrage des données est utilisé dans de nombreuses méthodes ou algorithmes pour robustifier les résultats en s’appuyant sur la redondance attendue des données s’opposant à l’inconsistance du bruit. Nous avons alors formulé ce problème en termes d’estimation dynamique d’un cadre de discernement contenant les ‘vraies hypothèses’. Ce cadre est estimé dynamiquement avec la prise en compte de nouvelles données (ou observations) permettant de détecter deux principaux types d’erreurs : la duplication de certaines hypothèses (objets dans notre application), la présence de fausses alarmes (dues au bruit ou aux fausses détections dans notre cas).Pour finir nous montrons la possibilité de coupler nos briques de construction des objets et de filtrage de ces derniers avec une brique de suivi utilisant des informations plus haut niveau, telle que les algorithmes de tracking classiques de traitement d’image.Mots clés: théorie des fonctions des croyances, association de données, filtrage. / Intelligent systems are more and more present in our society, like the systems of surveillance and civilian or military sites protection. Their purpose is to detect intruders and present the alarms or threats to a distant operator. In our work, we are interested in such systems with the aim to better handle the quality of information presented to the operator in terms of reliability and precision. We focus on the image modality and we have to handle detections that are both uncertain and imprecise in order to present reliable objects to the operator.To specify our problem, we consider the following constraints. The first one is that the system is modular; one subpart of the system is the detection of fragments corresponding potentially to objects. Our second constraint is then to use only information derived from the geometry of these fragmentary detections: spatial location in the image and size of the detections. Then, a threat is supposed all the more important as the detections have an important size and are temporally persistent.The chosen formal framework is the belief functions theory that allows modeling imprecise and uncertain data. The contributions of this thesis deal with the objects representation in terms of imprecise and uncertain location of the objects and object filtering.The pertinent representation of information is a key point for estimation problems and decision making. A representation is good when simple and efficient criteria for the resolution of sub problems can be derived. The representation proposed has allowed us to derive, in a simple and rigorous way, an association criterion between new detections (fragments) and objects under construction. We remind that this association is a key step for several problems with unlabelled data that extends our contribution beyond of the considered application.Data filtering is used in many methods and algorithms to robustify the results using the expected data redundancy versus the noise inconsistency. Then, we formulated our problem in terms of dynamic estimation of a discernment frame including the 'true hypotheses'. This frame is dynamically estimated taking into account the new data (or observations) that allow us to detect two main types of errors, namely the duplication of some hypotheses (objects in our application) and the presence of false alarms (due to noise or false detections in our case).Finally, we show the possibility of coupling our sub-functions dealing with object construction and their filtering with a tracking process using higher level information such as classical tracking algorithm in image processing.Keywords: belief functions theory, data association, filtering.
3

Belief relational clustering and its application to community detection / Classification relationnelle crédibiliste : application à la détection de communautés

Zhou, Kuang 05 July 2016 (has links)
Les communautés sont des groupes de nœuds (sommets) qui partagent probablement des propriétés communes et/ou jouent des rôles similaires dans le graphe. Ils peuvent extraire des structures spécifiques des réseaux complexes, et par conséquent la détection de ces communautés a été étudiée dans de nombreux domaines où les systèmes sont souvent représentés sous forme de graphes. La détection de communautés est en fait un problème de classification (ou clustering) sur les graphes, et l'information disponible dans ce problème est souvent sous la forme de similitudes ou de différences (entre les nœuds). Nous commençons par une situation de base où les nœuds dans le graphe sont regroupés selon leurs similarités et proposons une nouvelle approche de clustering enc-partition nommée algorithme Median Evidential C-Means (MECM). Cette approche étend la méthode de classification par médiane dans le cadre de la théorie des fonctions de croyance. En outre, une détection de communautés fondée sur l'approche MECM est également présentée. L'approche proposée permet de fournir des partitions crédales selon des similarités avec seulement des données connues. La mesure de dissimilarité pourrait être ni symétrique et même ne comporter aucune exigences de métriques.Elle est simplement intuitive. Ainsi, elle élargit la portée d'applications des partitions crédales. Afin de saisir les divers aspects des structures de communautés, nous pouvons avoir besoin de plusieurs nœuds plutôt qu'un seul pour représenter un prototype représentant un groupe d'individus. Motivée par cette idée, une approche de détection de communautés fondée sur le Similarity-based Multiple Prototype (SMP) est proposée.Les valeurs de centralité sont utilisées comme critère pour sélectionner plusieurs nœuds(prototypes) pour caractériser chaque communauté, et les poids des prototypes sont considérés pour décrire le degré de représentativité des objets liés à leur propre communauté. Ensuite, la similarité entre chaque nœud et les communautés est définie. Les nœuds sont divisés pour former des communautés selon leurs similarités. Les partitions nettes et floues peuvent être obtenues par l'approche SMP. Ensuite, nous étendons l'approche SMP au cadre des fonctions de croyance pour obtenir des partitions crédales de sorte que l'on puisse obtenir une meilleure compréhension de la structure des données. Les poids du prototype sont incorporés dans la fonction d’objectif de la communauté. La composition de masse et les poids des prototypes ont pu être mis à jour alternativement pendant le processus d'optimisation. Dans ce cas,chaque groupe peut être décrit en utilisant de multiples prototypes pondérés. Comme nous allons le montrer, les poids des prototypes peuvent également nous fournir des informations utiles pour l'analyse des données. la règle de mise à jour et le critère de propagation du LPA sont étendus aux fonctions de croyance. Une nouvelle approche de détection de communautés, appelée Semisupervised Evidential Label Propagation (SELP) est proposée comme une version améliorée de la méthode LPA conventionnelle. L'un des avantages de l'approche SELP est quelle permet de tenir compte de la connaissance préalable disponible sur les étiquettes des communautés de certains individus. Ceci est tr` es courant dans la pratique réelle. Dans la méthode SELP, les nœuds sont divisés en deux partis. Certains contiennent des nœuds labellisés et les autres des nœuds non labellisés. Les labels sont propagés depuis les nœuds labellisés à ceux non labellisés, étape par étape en utilisant la règle crédibiliste de propagation de labels proposée. Les performances des approches proposées sont évaluées en utilisant les graphes de référence des ensembles de données et des graphes générés. Nos résultats expérimentaux illustrent l'efficacité des algorithmes de classification proposés et des méthodes de détection de communautés. / Communities are groups of nodes (vertices) which probably share common properties and/or play similar roles within the graph. They can extract specific structures from complex networks, and consequently community detection has attracted considerable attention crossing many areas where systems are often represented as graphs. We consider in this work to represent graphs as relational data, and propose models for the corresponding relational data clustering. Four approaches are brought forward to handle the community detection problem under different scenarios. We start with a basic situation where nodes in the graph are clustered based on the dissimilarities and propose a new c-partition clustering approach named Median Evidential C-Means (MECM) algorithm. This approach extends the median clustering methods in the framework of belief function theory. Moreover, a community detection scheme based on MECM is presented. The proposed approach could provide credal partitions for data sets with only known dissimilarities. The dissimilarity measure could be neither symmetric nor fulfilling any metric requirements. It is only required to be of intuitive meaning. Thus it expands application scope of credal partitions. In order to capture various aspects of the community structures, we may need more members rather than one to be referred as the prototypes of an individual group. Motivated by this idea, a Similarity-based Multiple Prototype (SMP) community detection approach is proposed. The centrality values are used as the criterion to select multiple prototypes to characterize each community. The prototype weights are derived to describe the degree of representativeness of objects for their own communities. Then the similarity between each node and community is defined, and the nodes are partitioned into divided communities according to these similarities. Crisp and fuzzy partitions could be obtained by the application of SMP. Following, we extend SMP in the framework of belief functions to get credal partitions so that we can gain a better understanding of the data structure. The prototype weights are incorporate into the objective function of evidential clustering. The mass membership and the prototype weights could be updated alternatively during the optimization process. In this case, each cluster could be described using multiple weighted prototypes. As we will show, the prototype weights could also provide us some useful information for structure analysis of the data sets. Lastly, the original update rule and propagation criterion of LPA are extended in the framework of belief functions. A new community detection approach, called Semi-supervised Evidential Label Propagation (SELP), is proposed as an enhanced version of the conventional LPA. One of the advantages of SELP is that it could take use of the available prior knowledge about the community labels of some individuals. This is very common in real practice. In SELP, the nodes are divided into two parts. One contains the labeled nodes, and the other includes the unlabeled ones. The community labels are propagated from the labeled nodes to the unlabeled ones step by step according to the proposed evidential label propagation rule. The performance of the proposed approaches is evaluated using benchmark graph data sets and generated graphs. Our experimental results illustrate the effectiveness of the proposed clustering algorithms and community detection approaches.
4

Une approche pour estimer l'influence dans les réseaux complexes : application au réseau social Twitter / An approach for influence estimatation in complex networks : application to the social network Twitter

Azaza, Lobna 23 May 2019 (has links)
L'étude de l'influence sur les réseaux sociaux et en particulier Twitter est un sujet de recherche intense. La détection des utilisateurs influents dans un réseau est une clé de succès pour parvenir à une diffusion d'information à large échelle et à faible coût, ce qui s'avère très utile dans le marketing ou les campagnes politiques. Dans cette thèse, nous proposons une nouvelle approche qui tient compte de la variété des relations entre utilisateurs afin d'estimer l'influence dans les réseaux sociaux tels que Twitter. Nous modélisons Twitter comme un réseau multiplexe hétérogène où les utilisateurs, les tweets et les objets représentent les noeuds, et les liens modélisent les différentes relations entre eux (par exemple, retweets, mentions et réponses). Le PageRank multiplexe est appliqué aux données issues de deux corpus relatifs au domaine politique pour classer les candidats selon leur influence. Si le classement des candidats reflète la réalité, les scores de PageRank multiplexe sont difficiles à interpréter car ils sont très proches les uns des autres.Ainsi, nous voulons aller au-delà d'une mesure quantitative et nous explorons comment les différentes relations entre les noeuds du réseau peuvent déterminer un degré d'influence pondéré par une estimation de la crédibilité. Nous proposons une approche, TwitBelief, basée sur la règle de combinaison conjonctive de la théorie des fonctions de croyance qui permet de combiner différents types de relations tout en exprimant l’incertitude sur leur importance relative. Nous expérimentons TwitBelief sur une grande quantité de données collectées lors des élections européennes de 2014 et de l'élection présidentielle française de 2017 et nous déterminons les candidats les plus influents. Les résultats montrent que notre modèle est suffisamment flexible pour répondre aux besoins des spécialistes en sciences sociales et que l'utilisation de la théorie des fonctions de croyances est pertinente pour traiter des relations multiples. Nous évaluons également l'approche sur l'ensemble de données CLEF RepLab 2014 et montrons que notre approche conduit à des résultats significatifs. Nous proposons aussi deux extensions de TwitBelief traitant le contenu des tweets. La première est l'estimation de la polarisation de l'influence sur le réseau Twitter en utilisant l'analyse des sentiments avec l'algorithme des forêts d'arbres décisionnels. La deuxième extension est la catégorisation des styles de communication dans Twitter, il s'agit de déterminer si le style de communication des utilisateurs de Twitter est informatif, interactif ou équilibré. / Influence in complex networks and in particular Twitter has become recently a hot research topic. Detecting most influential users leads to reach a large-scale information diffusion area at low cost, something very useful in marketing or political campaigns. In this thesis, we propose a new approach that considers the several relations between users in order to assess influence in complex networks such as Twitter. We model Twitter as a multiplex heterogeneous network where users, tweets and objects are represented by nodes, and links model the different relations between them (e.g., retweets, mentions, and replies).The multiplex PageRank is applied to data from two datasets in the political field to rank candidates according to their influence. Even though the candidates' ranking reflects the reality, the multiplex PageRank scores are difficult to interpret because they are very close to each other.Thus, we want to go beyond a quantitative measure and we explore how relations between nodes in the network could reveal about the influence and propose TwitBelief, an approach to assess weighted influence of a certain node. This is based on the conjunctive combination rule from the belief functions theory that allow to combine different types of relations while expressing uncertainty about their importance weights. We experiment TwitBelief on a large amount of data gathered from Twitter during the European Elections 2014 and the French 2017 elections and deduce top influential candidates. The results show that our model is flexible enough to consider multiple interactions combination according to social scientists needs or requirements and that the numerical results of the belief theory are accurate. We also evaluate the approach over the CLEF RepLab 2014 data set and show that our approach leads to quite interesting results. We also propose two extensions of TwitBelief in order to consider the tweets content. The first is the estimation of polarized influence in Twitter network. In this extension, sentiment analysis of the tweets with the algorithm of forest decision trees allows to determine the influence polarity. The second extension is the categorization of communication styles in Twitter, it determines whether the communication style of Twitter users is informative, interactive or balanced.
5

Fusion multimodale pour la reconnaissance d'espèces d'arbres / Multimodal fusion for leaf species recognition

Ben Ameur, Rihab 04 June 2018 (has links)
Les systèmes de fusion d’informations permettent de combiner des données issues de différentes sources d’informations tout en tenant compte de leur qualité. La combinaison de données issues de sources hétérogènes permet de profiter de la complémentarité des données et donc d’avoir potentiellement des performances plus élevées que celles obtenues en utilisant une seule source d’informations. L’utilisation de ces systèmes s’avère intéressante dans le cadre de la reconnaissance d’espèces d’arbres à travers la fusion d’informations issues de deux modalités : les feuilles et les écorces.Une seule modalité représente éventuellement différentes sources d’informations décrivant chacune une des caractéristiques les plus pertinentes. Ceci permet de reproduire la stratégie adoptée par les botanistes qui se basent sur ces même critères lors de la reconnaissance. L’adoption de cette stratégie entre dans la mise en valeur de l’aspect éducatif. Dans ce cadre, un système de fusion est envisageable afin de combiner les données issues d’une même modalité ainsi que les différentes modalités disponibles. Dans le contexte de la reconnaissance d’espèces d’arbres, il s’agit d’un problème réel où les photos des feuilles et des écorces sont prises en milieu naturel. Le traitement de ce type de données est compliqué vue leurs spécificités dues d’une part à la nature des objets à reconnaître (âge, similarité inter-espèces et variabilité intra-espèce) et d’autre part à l’environnement.Des erreurs peuvent s’accumuler tout au long du processus précédant la fusion. L’intérêt de la fusion est de prendre en compte toutes les imperfections pouvant entacher les données disponibles et essayer de bien les modéliser. La fusion est d’autant plus efficace que les données sont bien modélisées. La théorie des fonctions de croyance représente l’un des cadres théoriques les plus aptes à gérer et représenter l’incertitude, l’imprécision, le conflit, etc. Cette théorie tire son importance de sa richesse en termes d’outils permettant de gérer les différentes sources d’imperfections ainsi que les spécificités des données disponibles. Dans le cadre de cette théorie, il est possible de modéliser les données à travers la construction de fonctions de masse. Il est également possible de gérer la complexité calculatoire grâce aux approximations permettant de réduire le nombre d’éléments focaux. Le conflit étant l’une des sources d’imperfections les plus présentes, peut être traité à travers la sélection de la règle de combinaison la mieux adaptée.En fusionnant des sources d’informations ayant des degrés de fiabilité différents, il est possible que la source la moins fiable affecte les données issues de la source la plus fiable. Une des solutions pour ce problème est de chercher à améliorer les performances de la source la moins fiable. Ainsi, en la fusionnant avec d’autres sources, elle apportera des informations utiles et contribuera à son tour à l’amélioration des performances du système de fusion. L’amélioration des performances d’une source d’informations peut s’effectuer à travers la correction des fonctions de masse. Dans ce cadre, la correction peut se faire en se basant sur des mesures de la pertinence ou de la sincérité de la source étudiée. Les matrices de confusion présentent une source de données à partir desquelles des méta-connaissances caractérisant l’état d’une source peuvent être extraites.Dans ce manuscrit, le système de fusion proposé est un système de fusion hiérarchique mis en place dans le cadre de la théorie des fonctions de croyance. Il permet de fusionner les données issues des feuilles et des écorces et propose à l’utilisateur une liste des espèces les plus probables tout en respectant l’objectif éducatif de l’application. La complexité calculatoire de ce système de fusion est assez réduite permettant, à long termes, d’implémenter l’application sur un Smart-phone. / Information fusion systems allow the combination of data issued from different sources of information while considering their quality. Combining data from heterogeneous sources makes it possible to take advantage of the complementarity of the data and thus potentially have higher performances than those obtained when using a single source of information.The use of these systems is interesting in the context of tree species recognition through the fusion of information issued from two modalities : leaves and barks. A single modality may represent different sources of information, each describing one of its most relevant characteristics. This makes it possible to reproduce the strategy adopted by botanists who base themselves on these same criteria. The adoption of this strategy is part of the enhancement of the educational aspect. In this context, a merger system is conceivable in order to combine the data issued from one modality as well as the data issued from different modalities. In the context of tree species recognition, we treat a real problem since the photos of leaves and bark are taken in the natural environment. The processing of this type of data is complicated because of their specificities due firstly to the nature of the objects to be recognized (age, inter-species similarity and intra-species variability) and secondly to the environment.Errors can be accumulated during the pre-fusion process. The merit of the fusion is to take into account all the imperfections that can taint the available data and try to model them well. The fusion is more effective if the data is well modeled. The theory of belief functions represents one of the best theoretical frameworks able to manage and represent uncertainty, inaccuracy, conflict, etc. This theory is important because of its wealth of tools to manage the various sources of imperfections as well as the specificities of the available data. In the framework of this theory, it is possible to model the data through the construction of mass functions. It is also possible to manage the computational complexity thanks to the approximations allowing to reduce the number of focal elements. Conflict being one of the most present sources of imperfections, can be dealt through the selection of the best combination rule.By merging sources of information with different degrees of reliability, it is possible that the least reliable source affects the data issued from the most reliable one. One of the solutions for this problem is to try to improve the performances of the least reliable source. Thus, by merging with other sources, it will provide useful information and will in turn contribute in improving the performance of the fusion system.The performance improvement of an information source can be effected through the correction of mass functions. In this context, the correction can be made based on measures of the relevance or sincerity of the studied source. The confusion matrices present a data source from which meta-knowledge characterizing the state of a source can be extracted. In this manuscript, the proposed fusion system is a hierarchical fusion system set up within the framework of belief function theory. It allows to merge data from leaves and barks and provides the user with a list of the most likely species while respecting the educational purpose of the application. The computational complexity of this fusion system is quite small allowing, in the long term, to implement the application on a Smart-phone.
6

Decision making for ontology matching under the theory of belief functions / Prise de décision lors de l'appariement des ontologies dans le cadre de la théorie des fonctions de croyance

Essaid, Amira 01 June 2015 (has links)
L'appariement des ontologies est une tâche primordiale pour palier au problème d'hétérogénéité sémantique et ainsi assurer une interopérabilité entre les applications utilisant différentes ontologies. Il consiste en la mise en correspondance de chaque entité d'une ontologie source à une entité d'une ontologie cible et ceci par application des techniques d'alignement fondées sur des mesures de similarité. Individuellement, aucune mesure de similarité ne permet d'obtenir un alignement parfait. C'est pour cette raison qu'il est intéressant de tenir compte de la complémentarité des mesures afin d'obtenir un meilleur alignement. Dans cette thèse, nous nous sommes intéressés à proposer un processus de décision crédibiliste pour l'appariement des ontologies. Étant données deux ontologies, on procède à leur appariement et ceci par application de trois techniques. Les alignements obtenus seront modélisés dans le cadre de la théorie des fonctions de croyance. Des règles de combinaison seront utilisées pour combiner les résultats d'alignement. Une étape de prise de décision s'avère utile, pour cette raison nous proposons une règle de décision fondée sur une distance et capable de décider sur une union d'hypothèses. Cette règle sera utilisée dans notre processus afin d'identifier pour chaque entité source le ou les entités cibles. / Ontology matching is a solution to mitigate the effect of semantic heterogeneity. Matching techniques, based on similarity measures, are used to find correspondences between ontologies. Using a unique similarity measure does not guarantee a perfect alignment. For that reason, it is necessary to use more than a similarity measure to take advantage of features of each one and then to combine the different outcomes. In this thesis, we propose a credibilistic decision process by using the theory of belief functions. First, we model the alignments, obtained after a matching process, under the theory of belief functions. Then, we combine the different outcomes through using adequate combination rules. Due to our awareness that making decision is a crucial step in any process and that most of the decision rules of the belief function theory are able to give results on a unique element, we propose a decision rule based on a distance measure able to make decision on union of elements (i.e. to identify for each source entity its corresponding target entities).
7

Théorie des fonctions de croyance : application des outils de data mining pour le traitement des données imparfaites / Belief function theory : application of data mining tools for imperfect data treatment

Samet, Ahmed 03 December 2014 (has links)
Notre travail s'inscrit dans l'intersection de deux disciplines qui sont la Théorie des Fonctions de Croyance (TFC) et la fouille de données. L'interaction pouvant exister entre la TFC et la fouille de données est étudiée sous deux volets.La première interaction souligne l'apport des règles associatives génériques au sein de la TFC. Nous nous sommes intéressés au problème de fusion de sources non fiables dont la principale conséquence est l'apparition de conflit lors de la combinaison. Une approche de gestion de conflit reposant sur les règles d'association génériques appelé ACM a été proposée.La deuxième interaction s'intéresse aux bases de données imparfaites en particulier les bases de données évidentielles. Les informations, représentées par des fonctions de masse, sont étudiées afin d'extraire des connaissances cachées par le biais des outils de fouille de données. L'extraction des informations pertinentes et cachées de la base se fait grâce à la redéfinition de la mesure du support et de la confiance. Ces mesures introduites ont été les fondements d'un nouveau classifieur associatif que nous avons appelé EDMA. / This thesis explores the relation between two domains which are the Belief Function Theory (BFT) and data mining. Two main interactions between those domain have been pointed out.The first interaction studies the contribution of the generic associative rules in the BFT. We were interested in managing conflict in case of fusing conflictual information sources. A new approach for conflict management based on generic association rules has been proposed called ACM.The second interation studies imperfect databases such as evidential databases. Those kind of databases, where information is represented by belief functions, are studied in order to extract hidden knowledges using data mining tools. The extraction of those knowledges was possible thanks to a new definition to the support and the confidence measures. Those measures were integrated into a new evidential associative classifier called EDMA.
8

New AHP methods for handling uncertainty within the Belief Function Theory / De nouvelles méthodes, fondées sur l'AHP, pour traiter l'incertitude à l'aide de la théorie des fonctions de croyance

Ennaceur, Amel 29 May 2015 (has links)
L'aide à la décision multicritères regroupe des méthodes permettant de choisir la meilleure solution en fonction des différents critères et compte tenu des préférences des experts. Toutefois, ces préférences sont parfois exprimées de manière imparfaite. La théorie des fonctions de croyance modélise de manière souple les connaissances et fournit des outils mathématiques pour gérer les différents types d'imperfection. Ainsi dans cette thèse, nous nous intéressons à la prise de décision multicritères dans un cadre incertain en étendant la méthode d’Analyse Hiérarchique des Procédés (AHP) à la théorie des fonctions de croyance. Après avoir présenté les fondements théoriques de la méthode AHP, nous avons proposé une approche qui permet de réduire le nombre de comparaisons par paires en jugeant des sous-ensembles de critères et d’alternatives. En outre, nous avons examiné la dépendance entre les critères et les alternatives. Dans ce cas, l'incertitude au niveau des évaluations est donnée sous forme de masses conditionnelles. Une autre partie de nos travaux répond aux critiques concernant la procédure de comparaison. Pour cela, nous avons proposé deux approches. La première technique d’élicitation des jugements de l’expert est fondée sur des distributions de masses, alors que la seconde s'appuie sur des relations de préférence. Dans ce cadre, nous avons introduit un modèle qui permet de générer des distributions de masse quantitatives à partir des relations de préférence. Ainsi, nous avons développé une méthode multicritères qui permet d'imiter le raisonnement humain. Cette méthode produit des résultats meilleurs et plus robustes que les approches de la littérature. / Multi-criteria decision making is the study of identifying and choosing alternatives to find the best solution based on different criteria and considering the decision makers’ expectations. However, the expert assessments are sometimes expressed imperfectly. Belief function theory can then provide more flexible and reliable tools to manage different types of imperfection. Thus, in this thesis, we are interested in multi-criteria decision making in an uncertain framework by extending the Analytic Hierarchy Process (AHP) method to the belief function framework. After presenting the theoretical foundations of the AHP method, we proposed an approach that reduces the number of pair-wise comparisons by judging subsets of criteria and alternatives. In addition, we examined the dependence between the criteria and alternatives. In this case, the uncertainty is given in terms of conditional mass distributions. Another part of the work provides critical concerning the pair-wise comparison process. For this purpose, we proposed two approaches. The first expert judgment elicitation method is based on mass distributions, while the second one is based on preference relations. In this context, we have introduced a model that is able to generate quantitative mass distributions from preference relations. Thus, we have developed a multi-criteria decision making method that imitates human reasoning. This method gives better and more robust results than existing approaches.
9

Distributions alpha-stable pour la caractérisation de phénomènes aléatoires observés par des capteurs placés dans un environnement maritime

Fiche, Anthony 19 November 2012 (has links) (PDF)
Le travail réalisé dans le cadre de cette thèse a pour but de caractériser des signaux aléatoires, rencontrés dans le domaine aérien et sous-marin, en s'appuyant sur une approche statistique. En traitement du signal, l'analyse statistique a longtemps été fondée sous l'hypothèse de Gaussianité des données. Cependant, ce modèle n'est plus valide dès lors que la densité de probabilité des données se caractérise par des phénomènes de queues lourdes et d'asymétrie. Une famille de lois est particulièrement adaptée pour représenter de tels phénomènes : les distributions α-stables. Dans un premier temps, les distributions α-stables ont été présentées et utilisées pour estimer des données synthétiques et réelles, issues d'un sondeur monofaisceau, dans une stratégie de classification de fonds marins. La classification est réalisée à partir de la théorie des fonctions de croyance, permettant ainsi de prendre en compte l'imprécision et l'incertitude liées aux données et à l'estimation de celles-ci. Les résultats obtenus ont été comparés à un classifieur Bayésien. Dans un second temps, dans le contexte de la surveillance maritime, une approche statistique à partir des distributions α-stables a été réalisée afin de caractériser les échos indésirables réfléchis par la surface maritime, appelés aussi fouillis de mer, où la surface est observée en configuration bistatique. La surface maritime a d'abord été générée à partir du spectre d'Elfouhaily puis la Surface Équivalente Radar (SER) de celle-ci a été déterminée à partir de l'Optique Physique (OP). Les distributions de Weibull et ont été utilisées et comparées au modèle α-stable. La validité de chaque modèle a été étudiée à partir d'un test de Kolmogorov-Smirnov.
10

Intérêts et usages de la théorie des fonctions de croyance pour les systèmes d'aide à la décision basés sur les systèmes multi-agents. : application à l'entomologie médico-légale / Interests and uses of the theory of belief functions for decision support systems based on multi-agent systems. Application to forensic entomology.

Veremme, Alexandre 08 December 2010 (has links)
Ces travaux s'appuient sur le socle formé par les simulations orientées agents (SOA), les simulations par automates cellulaires (AC) et la théorie des fonctions de croyance. Les objectifs sont de proposer des solutions aux problèmes complexes et de développer une architecture de système d'aide à la décision (SAD) organisée autour de ces trois outils. Dans la mesure où ce système fait appel à la théorie des fonctions de croyance (aussi appelée théorie de l'évidence), nous l'avons nommé SEAD, c.-à-d., système évidentiel d'aide à la décision. Le SEAD tente de fournir des explications à une observation effectuée sur un système réel complexe. Il utilise:- les SOA et les AC pour simuler le système complexe d'étude;- les fonctions de croyance pour représenter et manipuler les informations au sein et autour des simulations.L'architecture est validée dans le cadre d'un système d'aide à la décision, nommé ForenSeek, dédié aux experts en entomologie médico-légale. l'entomologie médico-légale est un procédé d'estimation de l'instant de la mort : à partir de la détermination des espèces et âges des insectes prélevés sur un cadavre. Cette technique est confrontée à un ensemble de phénomènes complexes, difficilement perceptibles des experts et ayant des impacts sur leurs décisions finales. Le SEAD forenSeek a recours aux SOA et aux AC pour modéliser la décomposition d'un cadavre. Il intègre un grand nombre de paramètres écosystémiques et teste une quantité importante de modèles biologiques. La théorie des fonctions de croyance est au centre de ce système de fusion. Des premiers résultats à partir de véritables expertises judiciaires sont présentés. / This work is based on the agent simulations (ABS), the cellular automata based simulations (CABS) and the theory of belief functions. The purposes consist in proposing solutions to complex problems and developping a general architecture for decision support system (DSS) organized around these three tools. Because this system resorts to the theory of belief functions (also called the evidence theory), we called it EDSS, i.e., evidential decision support system. The EDSS tries to explain an observation made on a complex real system. It uses:- ABS and CABS to simulate the complex system of study;- the belief function theory to represent and manipulate information within and around the simulations.The architecture is validated through a decision support system, named ForenSeek, dedicated to experts in forensic entomology. Forensic entomology is a method for estimating the time of death from determining the ages and species of insects collected on a cadaver. This technique faces with a set of complex phenomena, not easily discernible by the experts and having an impact on their final decisions. The EDSS ForenSeek uses the ABS and CABS to simulate the corpse decomposition. It incorporates a large number of ecosystem parameters and tests a large quantity of biological models. The theory of belief functions is central to this information fusion system. First results from real forensic expert's reports are presented.

Page generated in 0.1331 seconds