• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 23
  • 17
  • 3
  • Tagged with
  • 42
  • 42
  • 26
  • 24
  • 22
  • 19
  • 17
  • 14
  • 9
  • 9
  • 8
  • 8
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Causal modeling under a belief function framework / Modélisation du raisonnement causal avec la théorie des fonctions de croyance

Boukhris, Imen 17 January 2013 (has links)
La présente thèse s'intéresse à modéliser la causalité dans le cadre de la théorie des fonctions de croyance. Dans un premier temps, nous avons analysé et révisé les fondements théoriques des différents modèles associationnels crédibilistes existants. Nous avons proposé une structure graphique qui sert de base pour le réseau causal crédibiliste. Dans ce dernier, l'incertitude au niveau des nœuds est donnée en termes de distributions de masses conditionnelles. Comme la notion d'intervention est d'une importance capitale pour une analyse causale efficiente, nous avons introduit la contrepartie de l'opérateur \do" pour la représentation des interventions dans les réseaux causaux crédibilistes. Le modèle proposé permet ainsi de calculer l'effet simultané des observations et des interventions. Il est admis que considérer l'intervention comme une action qui réussit toujours à mettre sa cible à une valeur précise en la rendant complètement indépendante de ses causes originales est une condition rarement réalisée dans les applications réelles. De ce fait, nous avons examiné le traitement des interventions dont l'occurrence et/ou les conséquences sont imparfaites. Dans la dernière partie de la thèse, nous avons proposé un modèle d'attribution de causalité permettant d'interpréter les relations d'influence qui existent entre les différents attributs du système à savoir la causalité, la facilitation ou encore la justification en présence de données observationnelles et interventionnelles. Motivé par le fait que les preneurs de décision ne sont pas uniquement intéressés par l'attribution de la causalité, ce modèle permet de définir différentes forces d'une cause. / This thesis focuses on the modeling of causality under the belief function framework. We have first analyzed and revised the theoretical foundations of existing associational belief models. Then, we have proposed a graphical structure that serves as a basis for the causal belief network. In this latter, uncertainty at the nodes is given in terms of conditional mass distributions. Since intervention is a crucial concept for an efficient causal analysis, we have introduced a counterpart of the do operator as a tool to represent interventions on causal belief networks. The proposed model allows computing the simultaneous effect of observations and interventions. It is assumed that considering an intervention as an action that always succeeds to force its target variable to have a precise value, by making it completely independent of its original causes, is a condition rarely achieved in real-world applications. Therefore, we have examined the treatment of interventions whose occurrence is imperfect and/or have imperfect consequences. In the last part of the thesis, we have proposed a model for causality ascription to interpret influential relationships between different attributes of the system namely causality, facilitation or justification in the presence observational and interventional data. Since decision makers are not only interested in ascribing causes, this model allows to define different strengths of a cause.
2

Régulation énergétique par fusion de données hétérogènes et incertaines dans le cadre de l'habitat intelligent / Energy control by fusion of heterogeneous and uncertain data in the context of smart home

Makhlouf, Ameni 05 July 2018 (has links)
L'habitat intelligent est une nouvelle tendance dans les bâtiments résidentiels. Dans ce cadre, notre travail s'inscrit dans le but de réduire la consommation de chauffage. La difficulté du paradigme réside dans le maintien du confort thermique tout en minimisant la consommation. Le cadre formel de notre travail est la théorie des fonctions de croyance qui offre une flexibilité dans la modélisation des données incertaines. La contribution principale de cette thèse est portée par des algorithmes de fusion comportant des données hétérogènes. Une méthodologie spécifique a été mise en place pour la conception de distribution de masses des fonctions de croyance. Le résultat de ces algorithmes est un gradient de température qui intégré, sera la référence de température dans la commande automatique du chauffage. Concernant, la commande du chauffage, nous avons choisi la commande prédictive généralisée (GPC) pour sa capacité à optimiser la fonction de coût. Deux stratégies de fusion sont proposées. Dans le premier algorithme, nous élaborons une fusion de données en deux niveaux; alors que dans le second, nous proposons un algorithme à un seul niveau avec une conception de distribution de masse moins commise. Les résultats de fusion obtenus sont encourageants en termes d'efficacité et de fiabilité. Les simulations du gradient de température avec le GPC montrent que nous obtenons des résultats cohérents ce qui tend à montrer que nous sommes en mesures de proposer des économies de consommation tout en maintenant un niveau de confort thermique convenable / Smart homes have become a new trend in residential buildings. In this context, our work aims to reduce heating consumption. The difficulty of the paradigm lies in maintaining thermal comfort in the building whilst minimizing its consumption. The chosen formal framework is the belief function theory that offers flexibility in uncertain and imprecise data. The main contribution of this thesis consists of suggesting fusion algorithms with heterogeneous data. The result of these algorithms lead to a temperature trend that will be considered as the temperature reference in the generalized predictive control (GPC) of the heating system. For the heating control system, we chose the generalized predictive control for its ability to optimize a quadratic cost function in order to reduce energy consumption. Two strategies are proposed in the conception of the fusion algorithms. Indeed, in the first algorithm, we establish the data fusion in two levels; however, in the second one we propose a one level algorithm with a less committed mass distribution design. The fusion results are encouraging of efficiency and reliability. The test of the temperature trend with the GPC demonstrates that we can achieve promising results to reduce heating energy consumption
3

Distances matricielles dans la théorie des fonctions de croyance pour l'analyse et caractérisation des interactions entre les sources d'informations / Matrix distances in the belief functions theory for the analysis and the characterization of interactions between information sources

Loudahi, Mehena 01 December 2014 (has links)
En plus des propriétés métriques et des interactions entre éléments focaux que doivent respecter les distances entre fonctions de croyance, la capacité de détecter une information commune en rapport à deux différents états de connaissance est examinée dans cette thèse. Cette exigence, ainsi que les deux autres, sont formalisés sous forme de propriétés mathématiques. Afin de développer de nouvelles distances entre fonctions de croyance satisfaisant ces propriétés, des distances basées sur des normes entre les matrices de spécialisation dempsteriennes sont étudiées. N'importe quelle norme matricielle peut être utilisée. Il est prouvé que la distance du type L1 basée sur les matrices de spécialisation réussit à satisfaire toutes les propriétés recherchées. Des liens intéressant et sans précédent entre la règle de combinaison conjonctive et cette distance sont démontrés. En guise de généralisation, nous montrons aussi que d'autre matrices de croyance peuvent être utilisées pour évaluer une distance entre fonctions de croyance. Ces matrices sont les matrices d'alpha-spécialisation et d'alpha-généralisation qui sont étroitement liées aux règles de combinaison alpha-jonctives. Nous prouvons aussi que la distance basée sur la norme L1 est consistante avec sa règle de combinaison alpha-jonctive correspondante. De plus, les alpha-jonctions sont des règles combinaisons dépendantes de la méta-connaissance inhérente aux alpha-jonctions qui est liée à la véracité des sources d'informations. Par conséquent, le comportement des distances entre fonctions de croyance est aussi analysé dans des situations diverses faisant intervenir une méta-connaissance incertaine ou partielle. / In addition to metric properties and interactions between focal elements that must satisfy the distances between belief functions, the ability to detect common evidence pertaining to two different states of beliefs is examined in this thesis. This requirement, as well as the previously mentioned ones, is formalized through mathematical properties. To find a belief function distance satisfying the desired properties, matrix norms based distances between Dempsterian specialization matrices are investigated. Any matrix norm can be thus used. It is proved that the L1Dempsterian matrix distance succeeds to fulfil all requirements. Interesting and unprecedented ties between the conjunctive combination rule and this distance are demonstrated. In particular, it has been shown that the L1 norm based specialization distance takes into account the structure of focal elements and has a consistent behavior with respect to the conjunctive combination rule. As a generalization of the introduced evidential distance familly, we also show that other matrices can be used to obtain new evidential distances. These matrices are the alpha-specialization and alpha-generalization matrices which are closely related to the alpha-junctive combination rules. We prove that any L1 norm based distance thus defined turns out to be consistent with its corresponding alpha-junction. alpha-junctions are meta-data dependent combination rules. The meta-data involved in alpha-junctions deals with the truthfulness of information sources. Consequently, the behavior of evidential distances is analyzed in several situations involving uncertain or partial meta-knowledge about information source truthfulness.
4

Vers le suivi d’objets dans un cadre évidentiel : représentation, filtrage dynamique et association / toward object tracking using evidential framework : Representation, dynamic filtering and data association

Rekik, Wafa 23 March 2015 (has links)
Les systèmes intelligents sont de plus en plus présents dans notre société à l’instar des systèmes de surveillance et de protection de sites civils ou militaires. Leur but est de détecter les intrus et remonter une alarme ou une menace à un opérateur distant. Dans nos travaux, nous nous intéressons à de tels systèmes avec comme objectif de gérer au mieux la qualité de l’information présentée à l’opérateur en termes de fiabilité et précision. Nous nous concentrons sur la modalité image en vue de gérer des détections à la fois incertaines et imprécises de façon à présenter des objets fiables à l’opérateur.Pour préciser notre problème nous posons les contraintes suivantes. La première est que le système soit modulaire, l’une des briques (ou sous-fonctions) du système étant la détection de fragments correspondant potentiellement à des objets. Notre deuxième contrainte est alors de n’utiliser que des informations issues de la géométrie des détections fragmentaires : localisation spatiale dans l’image et taille des détections. Une menace est alors supposée d’autant plus importante que les détections sont de tailles importantes et temporellement persistantes.Le cadre formel choisi est la théorie des fonctions de croyance qui permet de modéliser des données à la fois imprécises et incertaines. Les contributions de cette thèse concernent la représentation des objets en termes de localisation imprécise et incertaine et le filtrage des objets.La représentation pertinente des informations est un point clé pour les problèmes d’estimation ou la prise de décision. Une bonne représentation se reconnaît au fait qu’en découlent des critères simples et performants pour résoudre des sous-problèmes. La représentation proposée dans cette thèse a été valorisée par le fait qu’un critère d’association entre nouvelles détections (fragments) et objets en construction, a pu être défini d’une façon simple et rigoureuse. Rappelons que cette association est une étape clé pour de nombreux problèmes impliquant des données non étiquettées, ce qui étend notre contribution au-delà de l’application considérée.Le filtrage des données est utilisé dans de nombreuses méthodes ou algorithmes pour robustifier les résultats en s’appuyant sur la redondance attendue des données s’opposant à l’inconsistance du bruit. Nous avons alors formulé ce problème en termes d’estimation dynamique d’un cadre de discernement contenant les ‘vraies hypothèses’. Ce cadre est estimé dynamiquement avec la prise en compte de nouvelles données (ou observations) permettant de détecter deux principaux types d’erreurs : la duplication de certaines hypothèses (objets dans notre application), la présence de fausses alarmes (dues au bruit ou aux fausses détections dans notre cas).Pour finir nous montrons la possibilité de coupler nos briques de construction des objets et de filtrage de ces derniers avec une brique de suivi utilisant des informations plus haut niveau, telle que les algorithmes de tracking classiques de traitement d’image.Mots clés: théorie des fonctions des croyances, association de données, filtrage. / Intelligent systems are more and more present in our society, like the systems of surveillance and civilian or military sites protection. Their purpose is to detect intruders and present the alarms or threats to a distant operator. In our work, we are interested in such systems with the aim to better handle the quality of information presented to the operator in terms of reliability and precision. We focus on the image modality and we have to handle detections that are both uncertain and imprecise in order to present reliable objects to the operator.To specify our problem, we consider the following constraints. The first one is that the system is modular; one subpart of the system is the detection of fragments corresponding potentially to objects. Our second constraint is then to use only information derived from the geometry of these fragmentary detections: spatial location in the image and size of the detections. Then, a threat is supposed all the more important as the detections have an important size and are temporally persistent.The chosen formal framework is the belief functions theory that allows modeling imprecise and uncertain data. The contributions of this thesis deal with the objects representation in terms of imprecise and uncertain location of the objects and object filtering.The pertinent representation of information is a key point for estimation problems and decision making. A representation is good when simple and efficient criteria for the resolution of sub problems can be derived. The representation proposed has allowed us to derive, in a simple and rigorous way, an association criterion between new detections (fragments) and objects under construction. We remind that this association is a key step for several problems with unlabelled data that extends our contribution beyond of the considered application.Data filtering is used in many methods and algorithms to robustify the results using the expected data redundancy versus the noise inconsistency. Then, we formulated our problem in terms of dynamic estimation of a discernment frame including the 'true hypotheses'. This frame is dynamically estimated taking into account the new data (or observations) that allow us to detect two main types of errors, namely the duplication of some hypotheses (objects in our application) and the presence of false alarms (due to noise or false detections in our case).Finally, we show the possibility of coupling our sub-functions dealing with object construction and their filtering with a tracking process using higher level information such as classical tracking algorithm in image processing.Keywords: belief functions theory, data association, filtering.
5

Belief relational clustering and its application to community detection / Classification relationnelle crédibiliste : application à la détection de communautés

Zhou, Kuang 05 July 2016 (has links)
Les communautés sont des groupes de nœuds (sommets) qui partagent probablement des propriétés communes et/ou jouent des rôles similaires dans le graphe. Ils peuvent extraire des structures spécifiques des réseaux complexes, et par conséquent la détection de ces communautés a été étudiée dans de nombreux domaines où les systèmes sont souvent représentés sous forme de graphes. La détection de communautés est en fait un problème de classification (ou clustering) sur les graphes, et l'information disponible dans ce problème est souvent sous la forme de similitudes ou de différences (entre les nœuds). Nous commençons par une situation de base où les nœuds dans le graphe sont regroupés selon leurs similarités et proposons une nouvelle approche de clustering enc-partition nommée algorithme Median Evidential C-Means (MECM). Cette approche étend la méthode de classification par médiane dans le cadre de la théorie des fonctions de croyance. En outre, une détection de communautés fondée sur l'approche MECM est également présentée. L'approche proposée permet de fournir des partitions crédales selon des similarités avec seulement des données connues. La mesure de dissimilarité pourrait être ni symétrique et même ne comporter aucune exigences de métriques.Elle est simplement intuitive. Ainsi, elle élargit la portée d'applications des partitions crédales. Afin de saisir les divers aspects des structures de communautés, nous pouvons avoir besoin de plusieurs nœuds plutôt qu'un seul pour représenter un prototype représentant un groupe d'individus. Motivée par cette idée, une approche de détection de communautés fondée sur le Similarity-based Multiple Prototype (SMP) est proposée.Les valeurs de centralité sont utilisées comme critère pour sélectionner plusieurs nœuds(prototypes) pour caractériser chaque communauté, et les poids des prototypes sont considérés pour décrire le degré de représentativité des objets liés à leur propre communauté. Ensuite, la similarité entre chaque nœud et les communautés est définie. Les nœuds sont divisés pour former des communautés selon leurs similarités. Les partitions nettes et floues peuvent être obtenues par l'approche SMP. Ensuite, nous étendons l'approche SMP au cadre des fonctions de croyance pour obtenir des partitions crédales de sorte que l'on puisse obtenir une meilleure compréhension de la structure des données. Les poids du prototype sont incorporés dans la fonction d’objectif de la communauté. La composition de masse et les poids des prototypes ont pu être mis à jour alternativement pendant le processus d'optimisation. Dans ce cas,chaque groupe peut être décrit en utilisant de multiples prototypes pondérés. Comme nous allons le montrer, les poids des prototypes peuvent également nous fournir des informations utiles pour l'analyse des données. la règle de mise à jour et le critère de propagation du LPA sont étendus aux fonctions de croyance. Une nouvelle approche de détection de communautés, appelée Semisupervised Evidential Label Propagation (SELP) est proposée comme une version améliorée de la méthode LPA conventionnelle. L'un des avantages de l'approche SELP est quelle permet de tenir compte de la connaissance préalable disponible sur les étiquettes des communautés de certains individus. Ceci est tr` es courant dans la pratique réelle. Dans la méthode SELP, les nœuds sont divisés en deux partis. Certains contiennent des nœuds labellisés et les autres des nœuds non labellisés. Les labels sont propagés depuis les nœuds labellisés à ceux non labellisés, étape par étape en utilisant la règle crédibiliste de propagation de labels proposée. Les performances des approches proposées sont évaluées en utilisant les graphes de référence des ensembles de données et des graphes générés. Nos résultats expérimentaux illustrent l'efficacité des algorithmes de classification proposés et des méthodes de détection de communautés. / Communities are groups of nodes (vertices) which probably share common properties and/or play similar roles within the graph. They can extract specific structures from complex networks, and consequently community detection has attracted considerable attention crossing many areas where systems are often represented as graphs. We consider in this work to represent graphs as relational data, and propose models for the corresponding relational data clustering. Four approaches are brought forward to handle the community detection problem under different scenarios. We start with a basic situation where nodes in the graph are clustered based on the dissimilarities and propose a new c-partition clustering approach named Median Evidential C-Means (MECM) algorithm. This approach extends the median clustering methods in the framework of belief function theory. Moreover, a community detection scheme based on MECM is presented. The proposed approach could provide credal partitions for data sets with only known dissimilarities. The dissimilarity measure could be neither symmetric nor fulfilling any metric requirements. It is only required to be of intuitive meaning. Thus it expands application scope of credal partitions. In order to capture various aspects of the community structures, we may need more members rather than one to be referred as the prototypes of an individual group. Motivated by this idea, a Similarity-based Multiple Prototype (SMP) community detection approach is proposed. The centrality values are used as the criterion to select multiple prototypes to characterize each community. The prototype weights are derived to describe the degree of representativeness of objects for their own communities. Then the similarity between each node and community is defined, and the nodes are partitioned into divided communities according to these similarities. Crisp and fuzzy partitions could be obtained by the application of SMP. Following, we extend SMP in the framework of belief functions to get credal partitions so that we can gain a better understanding of the data structure. The prototype weights are incorporate into the objective function of evidential clustering. The mass membership and the prototype weights could be updated alternatively during the optimization process. In this case, each cluster could be described using multiple weighted prototypes. As we will show, the prototype weights could also provide us some useful information for structure analysis of the data sets. Lastly, the original update rule and propagation criterion of LPA are extended in the framework of belief functions. A new community detection approach, called Semi-supervised Evidential Label Propagation (SELP), is proposed as an enhanced version of the conventional LPA. One of the advantages of SELP is that it could take use of the available prior knowledge about the community labels of some individuals. This is very common in real practice. In SELP, the nodes are divided into two parts. One contains the labeled nodes, and the other includes the unlabeled ones. The community labels are propagated from the labeled nodes to the unlabeled ones step by step according to the proposed evidential label propagation rule. The performance of the proposed approaches is evaluated using benchmark graph data sets and generated graphs. Our experimental results illustrate the effectiveness of the proposed clustering algorithms and community detection approaches.
6

De l'usage de la théorie des fonctions de croyance dans le déploiement et le contrôle de réseaux de capteurs sans fil / On the use of the belief functions theory in the deployment and control of wireless sensor networks

Senouci, Mustapha 25 January 2014 (has links)
Cette thèse porte sur les problèmes de déploiement des Réseaux de Capteurs sans Fil (RCsF). Elle suit trois directions principales : (1) le déploiement aléatoire, (2) le déploiement déterministe, et (3) l'auto-déploiement. En premier lieu, nous présentons une étude sur le placement aléatoire des capteurs dans les RCsF et nous élaborons une stratégie pratique de déploiement aléatoire. Ensuite, dans le cadre d'un déploiement déterministe, nous analysons le problème de gestion des imperfections liées à la collecte des données par les capteurs. Nous discutons les modèles de couverture et les algorithmes de placement existants et nous exploitons la théorie de l'évidence pour concevoir des stratégies de déploiement plus efficaces. Enfin, nous explorons les stratégies d'auto-déploiement existantes et nous élaborons un protocole en deux phases, léger et complet, pour assurer une couverture optimisée de la zone contrôlée en utilisant un RCsF mobile. Les résultats obtenus montrent l'efficacité des approches proposée qui ont été étudiées à la fois sur des données synthétiques que sur un test expérimental / This dissertation is an in-depth investigation of the Wireless Sensor Networks (WSNs) deployment problems that follows three general directions: (1) random deployment, (2) deterministic deployment, and (3) self-deployment. First, we present a survey and taxonomy of random node placement in WSNs and we devise a practical random deployment strategy. Second, we analyze the uncertainty-aware deterministic WSNs deployment problem where sensors may not always provide reliable information. We discuss sensor coverage models and placement algorithms found in the literature and we investigate the evidence theory to design better deployment strategies. We devise evidence-based sensor coverage models and we propose several polynomial-time uncertainty-aware deployment algorithms. Third, we explore the published self-deployment strategies and we devise a lightweight and comprehensive two-phase protocol, for ensuring area coverage employing a mobile WSN. Experimental results based on synthetic data sets, data traces collected in a real deployment, and an experimental test, show that the proposed approaches outperform the state-of-the-art deployment strategies
7

Reconnaissance de contexte stable pour l'habitat intelligent / Stable context recognition for smart home

Pietropaoli, Paoli 10 December 2013 (has links)
L'habitat intelligent est l'objet de nombreux travaux de recherche. Il permet d'assister des personnes âgées ou handicapées, d'améliorer le confort, la sécurité ou encore d'économiser de l'énergie. Aujourd'hui, l'informatique ubiquitaire se développe et s'intègre dans l'habitat intelligent notamment en apportant la sensibilité au contexte. Malheureusement, comprendre ce qui se passe dans une maison n'est pas toujours facile. Dans cette thèse, nous explicitons comment le contexte peut permettre de déployer des services adaptés aux activités et aux besoins des habitants. La compréhension du contexte passe par l'installation de capteurs mais aussi par l'abstraction des données brutes en données intelligibles facilement exploitables par des humains et des services. Nous mettons en avant une architecture multi-couches de fusion de données permettant d'obtenir des données contextuelles de niveaux d'abstraction différents. La mise en place des couches basses y est présentée en détail avec l'application de la théorie des fonctions de croyance pour l'abstraction de données brutes issues de capteurs. Enfin, sont présentés le déploiement d'un prototype nous ayant permis de valider notre approche, ainsi que les services déployés. / Smart home is a major subject of interest. It helps to assist elderly or disabled people, improve comfort, safety, and also save energy. Today, ubiquitous computing is developed and integrated into the smart home providing context-awareness. Unfortunately, understanding what happens in a home is not always easy. In this thesis, we explain how context can be used to deploy services tailored to the activities and needs of residents. Understanding context requires the installation of sensors but also the abstraction of raw data into easily understandable data usable by humans and services. We present a multi-layer architecture of data fusion used to obtain contextual information of different levels of abstraction. The implementation of the lower layers is presented in detail with the application of the theory of belief functions for the abstraction of raw sensor data. Finally, are presented the deployment of a prototype that allowed us to validate our approach and the deployed services.
8

Une approche pour estimer l'influence dans les réseaux complexes : application au réseau social Twitter / An approach for influence estimatation in complex networks : application to the social network Twitter

Azaza, Lobna 23 May 2019 (has links)
L'étude de l'influence sur les réseaux sociaux et en particulier Twitter est un sujet de recherche intense. La détection des utilisateurs influents dans un réseau est une clé de succès pour parvenir à une diffusion d'information à large échelle et à faible coût, ce qui s'avère très utile dans le marketing ou les campagnes politiques. Dans cette thèse, nous proposons une nouvelle approche qui tient compte de la variété des relations entre utilisateurs afin d'estimer l'influence dans les réseaux sociaux tels que Twitter. Nous modélisons Twitter comme un réseau multiplexe hétérogène où les utilisateurs, les tweets et les objets représentent les noeuds, et les liens modélisent les différentes relations entre eux (par exemple, retweets, mentions et réponses). Le PageRank multiplexe est appliqué aux données issues de deux corpus relatifs au domaine politique pour classer les candidats selon leur influence. Si le classement des candidats reflète la réalité, les scores de PageRank multiplexe sont difficiles à interpréter car ils sont très proches les uns des autres.Ainsi, nous voulons aller au-delà d'une mesure quantitative et nous explorons comment les différentes relations entre les noeuds du réseau peuvent déterminer un degré d'influence pondéré par une estimation de la crédibilité. Nous proposons une approche, TwitBelief, basée sur la règle de combinaison conjonctive de la théorie des fonctions de croyance qui permet de combiner différents types de relations tout en exprimant l’incertitude sur leur importance relative. Nous expérimentons TwitBelief sur une grande quantité de données collectées lors des élections européennes de 2014 et de l'élection présidentielle française de 2017 et nous déterminons les candidats les plus influents. Les résultats montrent que notre modèle est suffisamment flexible pour répondre aux besoins des spécialistes en sciences sociales et que l'utilisation de la théorie des fonctions de croyances est pertinente pour traiter des relations multiples. Nous évaluons également l'approche sur l'ensemble de données CLEF RepLab 2014 et montrons que notre approche conduit à des résultats significatifs. Nous proposons aussi deux extensions de TwitBelief traitant le contenu des tweets. La première est l'estimation de la polarisation de l'influence sur le réseau Twitter en utilisant l'analyse des sentiments avec l'algorithme des forêts d'arbres décisionnels. La deuxième extension est la catégorisation des styles de communication dans Twitter, il s'agit de déterminer si le style de communication des utilisateurs de Twitter est informatif, interactif ou équilibré. / Influence in complex networks and in particular Twitter has become recently a hot research topic. Detecting most influential users leads to reach a large-scale information diffusion area at low cost, something very useful in marketing or political campaigns. In this thesis, we propose a new approach that considers the several relations between users in order to assess influence in complex networks such as Twitter. We model Twitter as a multiplex heterogeneous network where users, tweets and objects are represented by nodes, and links model the different relations between them (e.g., retweets, mentions, and replies).The multiplex PageRank is applied to data from two datasets in the political field to rank candidates according to their influence. Even though the candidates' ranking reflects the reality, the multiplex PageRank scores are difficult to interpret because they are very close to each other.Thus, we want to go beyond a quantitative measure and we explore how relations between nodes in the network could reveal about the influence and propose TwitBelief, an approach to assess weighted influence of a certain node. This is based on the conjunctive combination rule from the belief functions theory that allow to combine different types of relations while expressing uncertainty about their importance weights. We experiment TwitBelief on a large amount of data gathered from Twitter during the European Elections 2014 and the French 2017 elections and deduce top influential candidates. The results show that our model is flexible enough to consider multiple interactions combination according to social scientists needs or requirements and that the numerical results of the belief theory are accurate. We also evaluate the approach over the CLEF RepLab 2014 data set and show that our approach leads to quite interesting results. We also propose two extensions of TwitBelief in order to consider the tweets content. The first is the estimation of polarized influence in Twitter network. In this extension, sentiment analysis of the tweets with the algorithm of forest decision trees allows to determine the influence polarity. The second extension is the categorization of communication styles in Twitter, it determines whether the communication style of Twitter users is informative, interactive or balanced.
9

Reconnaissance de contexte stable pour l'habitat intelligent

Pietropaoli, Bastien 10 December 2013 (has links) (PDF)
L'habitat intelligent est l'objet de nombreux travaux de recherche. Il permet d'assister des personnes âgées ou handicapées, d'améliorer le confort, la sécurité ou encore d'économiser de l'énergie. Aujourd'hui, l'informatique ubiquitaire se développe et s'intègre dans l'habitat intelligent notamment en apportant la sensibilité au contexte. Malheureusement, comprendre ce qui se passe dans une maison n'est pas toujours facile. Dans cette thèse, nous explicitons comment le contexte peut permettre de déployer des services adaptés aux activités et aux besoins des habitants. La compréhension du contexte passe par l'installation de capteurs mais aussi par l'abstraction des données brutes en données intelligibles facilement exploitables par des humains et des services. Nous mettons en avant une architecture multi-couches de fusion de données permettant d'obtenir des données contextuelles de niveaux d'abstraction différents. La mise en place des couches basses y est présentée en détail avec l'application de la théorie des fonctions de croyance pour l'abstraction de données brutes issues de capteurs. Enfin, sont présentés le déploiement d'un prototype nous ayant permis de valider notre approche, ainsi que les services déployés.
10

Fusion multimodale pour la reconnaissance d'espèces d'arbres / Multimodal fusion for leaf species recognition

Ben Ameur, Rihab 04 June 2018 (has links)
Les systèmes de fusion d’informations permettent de combiner des données issues de différentes sources d’informations tout en tenant compte de leur qualité. La combinaison de données issues de sources hétérogènes permet de profiter de la complémentarité des données et donc d’avoir potentiellement des performances plus élevées que celles obtenues en utilisant une seule source d’informations. L’utilisation de ces systèmes s’avère intéressante dans le cadre de la reconnaissance d’espèces d’arbres à travers la fusion d’informations issues de deux modalités : les feuilles et les écorces.Une seule modalité représente éventuellement différentes sources d’informations décrivant chacune une des caractéristiques les plus pertinentes. Ceci permet de reproduire la stratégie adoptée par les botanistes qui se basent sur ces même critères lors de la reconnaissance. L’adoption de cette stratégie entre dans la mise en valeur de l’aspect éducatif. Dans ce cadre, un système de fusion est envisageable afin de combiner les données issues d’une même modalité ainsi que les différentes modalités disponibles. Dans le contexte de la reconnaissance d’espèces d’arbres, il s’agit d’un problème réel où les photos des feuilles et des écorces sont prises en milieu naturel. Le traitement de ce type de données est compliqué vue leurs spécificités dues d’une part à la nature des objets à reconnaître (âge, similarité inter-espèces et variabilité intra-espèce) et d’autre part à l’environnement.Des erreurs peuvent s’accumuler tout au long du processus précédant la fusion. L’intérêt de la fusion est de prendre en compte toutes les imperfections pouvant entacher les données disponibles et essayer de bien les modéliser. La fusion est d’autant plus efficace que les données sont bien modélisées. La théorie des fonctions de croyance représente l’un des cadres théoriques les plus aptes à gérer et représenter l’incertitude, l’imprécision, le conflit, etc. Cette théorie tire son importance de sa richesse en termes d’outils permettant de gérer les différentes sources d’imperfections ainsi que les spécificités des données disponibles. Dans le cadre de cette théorie, il est possible de modéliser les données à travers la construction de fonctions de masse. Il est également possible de gérer la complexité calculatoire grâce aux approximations permettant de réduire le nombre d’éléments focaux. Le conflit étant l’une des sources d’imperfections les plus présentes, peut être traité à travers la sélection de la règle de combinaison la mieux adaptée.En fusionnant des sources d’informations ayant des degrés de fiabilité différents, il est possible que la source la moins fiable affecte les données issues de la source la plus fiable. Une des solutions pour ce problème est de chercher à améliorer les performances de la source la moins fiable. Ainsi, en la fusionnant avec d’autres sources, elle apportera des informations utiles et contribuera à son tour à l’amélioration des performances du système de fusion. L’amélioration des performances d’une source d’informations peut s’effectuer à travers la correction des fonctions de masse. Dans ce cadre, la correction peut se faire en se basant sur des mesures de la pertinence ou de la sincérité de la source étudiée. Les matrices de confusion présentent une source de données à partir desquelles des méta-connaissances caractérisant l’état d’une source peuvent être extraites.Dans ce manuscrit, le système de fusion proposé est un système de fusion hiérarchique mis en place dans le cadre de la théorie des fonctions de croyance. Il permet de fusionner les données issues des feuilles et des écorces et propose à l’utilisateur une liste des espèces les plus probables tout en respectant l’objectif éducatif de l’application. La complexité calculatoire de ce système de fusion est assez réduite permettant, à long termes, d’implémenter l’application sur un Smart-phone. / Information fusion systems allow the combination of data issued from different sources of information while considering their quality. Combining data from heterogeneous sources makes it possible to take advantage of the complementarity of the data and thus potentially have higher performances than those obtained when using a single source of information.The use of these systems is interesting in the context of tree species recognition through the fusion of information issued from two modalities : leaves and barks. A single modality may represent different sources of information, each describing one of its most relevant characteristics. This makes it possible to reproduce the strategy adopted by botanists who base themselves on these same criteria. The adoption of this strategy is part of the enhancement of the educational aspect. In this context, a merger system is conceivable in order to combine the data issued from one modality as well as the data issued from different modalities. In the context of tree species recognition, we treat a real problem since the photos of leaves and bark are taken in the natural environment. The processing of this type of data is complicated because of their specificities due firstly to the nature of the objects to be recognized (age, inter-species similarity and intra-species variability) and secondly to the environment.Errors can be accumulated during the pre-fusion process. The merit of the fusion is to take into account all the imperfections that can taint the available data and try to model them well. The fusion is more effective if the data is well modeled. The theory of belief functions represents one of the best theoretical frameworks able to manage and represent uncertainty, inaccuracy, conflict, etc. This theory is important because of its wealth of tools to manage the various sources of imperfections as well as the specificities of the available data. In the framework of this theory, it is possible to model the data through the construction of mass functions. It is also possible to manage the computational complexity thanks to the approximations allowing to reduce the number of focal elements. Conflict being one of the most present sources of imperfections, can be dealt through the selection of the best combination rule.By merging sources of information with different degrees of reliability, it is possible that the least reliable source affects the data issued from the most reliable one. One of the solutions for this problem is to try to improve the performances of the least reliable source. Thus, by merging with other sources, it will provide useful information and will in turn contribute in improving the performance of the fusion system.The performance improvement of an information source can be effected through the correction of mass functions. In this context, the correction can be made based on measures of the relevance or sincerity of the studied source. The confusion matrices present a data source from which meta-knowledge characterizing the state of a source can be extracted. In this manuscript, the proposed fusion system is a hierarchical fusion system set up within the framework of belief function theory. It allows to merge data from leaves and barks and provides the user with a list of the most likely species while respecting the educational purpose of the application. The computational complexity of this fusion system is quite small allowing, in the long term, to implement the application on a Smart-phone.

Page generated in 0.1112 seconds