• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 17
  • 12
  • Tagged with
  • 28
  • 28
  • 26
  • 17
  • 16
  • 13
  • 11
  • 11
  • 11
  • 9
  • 7
  • 7
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Belief relational clustering and its application to community detection / Classification relationnelle crédibiliste : application à la détection de communautés

Zhou, Kuang 05 July 2016 (has links)
Les communautés sont des groupes de nœuds (sommets) qui partagent probablement des propriétés communes et/ou jouent des rôles similaires dans le graphe. Ils peuvent extraire des structures spécifiques des réseaux complexes, et par conséquent la détection de ces communautés a été étudiée dans de nombreux domaines où les systèmes sont souvent représentés sous forme de graphes. La détection de communautés est en fait un problème de classification (ou clustering) sur les graphes, et l'information disponible dans ce problème est souvent sous la forme de similitudes ou de différences (entre les nœuds). Nous commençons par une situation de base où les nœuds dans le graphe sont regroupés selon leurs similarités et proposons une nouvelle approche de clustering enc-partition nommée algorithme Median Evidential C-Means (MECM). Cette approche étend la méthode de classification par médiane dans le cadre de la théorie des fonctions de croyance. En outre, une détection de communautés fondée sur l'approche MECM est également présentée. L'approche proposée permet de fournir des partitions crédales selon des similarités avec seulement des données connues. La mesure de dissimilarité pourrait être ni symétrique et même ne comporter aucune exigences de métriques.Elle est simplement intuitive. Ainsi, elle élargit la portée d'applications des partitions crédales. Afin de saisir les divers aspects des structures de communautés, nous pouvons avoir besoin de plusieurs nœuds plutôt qu'un seul pour représenter un prototype représentant un groupe d'individus. Motivée par cette idée, une approche de détection de communautés fondée sur le Similarity-based Multiple Prototype (SMP) est proposée.Les valeurs de centralité sont utilisées comme critère pour sélectionner plusieurs nœuds(prototypes) pour caractériser chaque communauté, et les poids des prototypes sont considérés pour décrire le degré de représentativité des objets liés à leur propre communauté. Ensuite, la similarité entre chaque nœud et les communautés est définie. Les nœuds sont divisés pour former des communautés selon leurs similarités. Les partitions nettes et floues peuvent être obtenues par l'approche SMP. Ensuite, nous étendons l'approche SMP au cadre des fonctions de croyance pour obtenir des partitions crédales de sorte que l'on puisse obtenir une meilleure compréhension de la structure des données. Les poids du prototype sont incorporés dans la fonction d’objectif de la communauté. La composition de masse et les poids des prototypes ont pu être mis à jour alternativement pendant le processus d'optimisation. Dans ce cas,chaque groupe peut être décrit en utilisant de multiples prototypes pondérés. Comme nous allons le montrer, les poids des prototypes peuvent également nous fournir des informations utiles pour l'analyse des données. la règle de mise à jour et le critère de propagation du LPA sont étendus aux fonctions de croyance. Une nouvelle approche de détection de communautés, appelée Semisupervised Evidential Label Propagation (SELP) est proposée comme une version améliorée de la méthode LPA conventionnelle. L'un des avantages de l'approche SELP est quelle permet de tenir compte de la connaissance préalable disponible sur les étiquettes des communautés de certains individus. Ceci est tr` es courant dans la pratique réelle. Dans la méthode SELP, les nœuds sont divisés en deux partis. Certains contiennent des nœuds labellisés et les autres des nœuds non labellisés. Les labels sont propagés depuis les nœuds labellisés à ceux non labellisés, étape par étape en utilisant la règle crédibiliste de propagation de labels proposée. Les performances des approches proposées sont évaluées en utilisant les graphes de référence des ensembles de données et des graphes générés. Nos résultats expérimentaux illustrent l'efficacité des algorithmes de classification proposés et des méthodes de détection de communautés. / Communities are groups of nodes (vertices) which probably share common properties and/or play similar roles within the graph. They can extract specific structures from complex networks, and consequently community detection has attracted considerable attention crossing many areas where systems are often represented as graphs. We consider in this work to represent graphs as relational data, and propose models for the corresponding relational data clustering. Four approaches are brought forward to handle the community detection problem under different scenarios. We start with a basic situation where nodes in the graph are clustered based on the dissimilarities and propose a new c-partition clustering approach named Median Evidential C-Means (MECM) algorithm. This approach extends the median clustering methods in the framework of belief function theory. Moreover, a community detection scheme based on MECM is presented. The proposed approach could provide credal partitions for data sets with only known dissimilarities. The dissimilarity measure could be neither symmetric nor fulfilling any metric requirements. It is only required to be of intuitive meaning. Thus it expands application scope of credal partitions. In order to capture various aspects of the community structures, we may need more members rather than one to be referred as the prototypes of an individual group. Motivated by this idea, a Similarity-based Multiple Prototype (SMP) community detection approach is proposed. The centrality values are used as the criterion to select multiple prototypes to characterize each community. The prototype weights are derived to describe the degree of representativeness of objects for their own communities. Then the similarity between each node and community is defined, and the nodes are partitioned into divided communities according to these similarities. Crisp and fuzzy partitions could be obtained by the application of SMP. Following, we extend SMP in the framework of belief functions to get credal partitions so that we can gain a better understanding of the data structure. The prototype weights are incorporate into the objective function of evidential clustering. The mass membership and the prototype weights could be updated alternatively during the optimization process. In this case, each cluster could be described using multiple weighted prototypes. As we will show, the prototype weights could also provide us some useful information for structure analysis of the data sets. Lastly, the original update rule and propagation criterion of LPA are extended in the framework of belief functions. A new community detection approach, called Semi-supervised Evidential Label Propagation (SELP), is proposed as an enhanced version of the conventional LPA. One of the advantages of SELP is that it could take use of the available prior knowledge about the community labels of some individuals. This is very common in real practice. In SELP, the nodes are divided into two parts. One contains the labeled nodes, and the other includes the unlabeled ones. The community labels are propagated from the labeled nodes to the unlabeled ones step by step according to the proposed evidential label propagation rule. The performance of the proposed approaches is evaluated using benchmark graph data sets and generated graphs. Our experimental results illustrate the effectiveness of the proposed clustering algorithms and community detection approaches.
2

De l'usage de la théorie des fonctions de croyance dans le déploiement et le contrôle de réseaux de capteurs sans fil / On the use of the belief functions theory in the deployment and control of wireless sensor networks

Senouci, Mustapha 25 January 2014 (has links)
Cette thèse porte sur les problèmes de déploiement des Réseaux de Capteurs sans Fil (RCsF). Elle suit trois directions principales : (1) le déploiement aléatoire, (2) le déploiement déterministe, et (3) l'auto-déploiement. En premier lieu, nous présentons une étude sur le placement aléatoire des capteurs dans les RCsF et nous élaborons une stratégie pratique de déploiement aléatoire. Ensuite, dans le cadre d'un déploiement déterministe, nous analysons le problème de gestion des imperfections liées à la collecte des données par les capteurs. Nous discutons les modèles de couverture et les algorithmes de placement existants et nous exploitons la théorie de l'évidence pour concevoir des stratégies de déploiement plus efficaces. Enfin, nous explorons les stratégies d'auto-déploiement existantes et nous élaborons un protocole en deux phases, léger et complet, pour assurer une couverture optimisée de la zone contrôlée en utilisant un RCsF mobile. Les résultats obtenus montrent l'efficacité des approches proposée qui ont été étudiées à la fois sur des données synthétiques que sur un test expérimental / This dissertation is an in-depth investigation of the Wireless Sensor Networks (WSNs) deployment problems that follows three general directions: (1) random deployment, (2) deterministic deployment, and (3) self-deployment. First, we present a survey and taxonomy of random node placement in WSNs and we devise a practical random deployment strategy. Second, we analyze the uncertainty-aware deterministic WSNs deployment problem where sensors may not always provide reliable information. We discuss sensor coverage models and placement algorithms found in the literature and we investigate the evidence theory to design better deployment strategies. We devise evidence-based sensor coverage models and we propose several polynomial-time uncertainty-aware deployment algorithms. Third, we explore the published self-deployment strategies and we devise a lightweight and comprehensive two-phase protocol, for ensuring area coverage employing a mobile WSN. Experimental results based on synthetic data sets, data traces collected in a real deployment, and an experimental test, show that the proposed approaches outperform the state-of-the-art deployment strategies
3

Reconnaissance de contexte stable pour l'habitat intelligent / Stable context recognition for smart home

Pietropaoli, Paoli 10 December 2013 (has links)
L'habitat intelligent est l'objet de nombreux travaux de recherche. Il permet d'assister des personnes âgées ou handicapées, d'améliorer le confort, la sécurité ou encore d'économiser de l'énergie. Aujourd'hui, l'informatique ubiquitaire se développe et s'intègre dans l'habitat intelligent notamment en apportant la sensibilité au contexte. Malheureusement, comprendre ce qui se passe dans une maison n'est pas toujours facile. Dans cette thèse, nous explicitons comment le contexte peut permettre de déployer des services adaptés aux activités et aux besoins des habitants. La compréhension du contexte passe par l'installation de capteurs mais aussi par l'abstraction des données brutes en données intelligibles facilement exploitables par des humains et des services. Nous mettons en avant une architecture multi-couches de fusion de données permettant d'obtenir des données contextuelles de niveaux d'abstraction différents. La mise en place des couches basses y est présentée en détail avec l'application de la théorie des fonctions de croyance pour l'abstraction de données brutes issues de capteurs. Enfin, sont présentés le déploiement d'un prototype nous ayant permis de valider notre approche, ainsi que les services déployés. / Smart home is a major subject of interest. It helps to assist elderly or disabled people, improve comfort, safety, and also save energy. Today, ubiquitous computing is developed and integrated into the smart home providing context-awareness. Unfortunately, understanding what happens in a home is not always easy. In this thesis, we explain how context can be used to deploy services tailored to the activities and needs of residents. Understanding context requires the installation of sensors but also the abstraction of raw data into easily understandable data usable by humans and services. We present a multi-layer architecture of data fusion used to obtain contextual information of different levels of abstraction. The implementation of the lower layers is presented in detail with the application of the theory of belief functions for the abstraction of raw sensor data. Finally, are presented the deployment of a prototype that allowed us to validate our approach and the deployed services.
4

Une approche pour estimer l'influence dans les réseaux complexes : application au réseau social Twitter / An approach for influence estimatation in complex networks : application to the social network Twitter

Azaza, Lobna 23 May 2019 (has links)
L'étude de l'influence sur les réseaux sociaux et en particulier Twitter est un sujet de recherche intense. La détection des utilisateurs influents dans un réseau est une clé de succès pour parvenir à une diffusion d'information à large échelle et à faible coût, ce qui s'avère très utile dans le marketing ou les campagnes politiques. Dans cette thèse, nous proposons une nouvelle approche qui tient compte de la variété des relations entre utilisateurs afin d'estimer l'influence dans les réseaux sociaux tels que Twitter. Nous modélisons Twitter comme un réseau multiplexe hétérogène où les utilisateurs, les tweets et les objets représentent les noeuds, et les liens modélisent les différentes relations entre eux (par exemple, retweets, mentions et réponses). Le PageRank multiplexe est appliqué aux données issues de deux corpus relatifs au domaine politique pour classer les candidats selon leur influence. Si le classement des candidats reflète la réalité, les scores de PageRank multiplexe sont difficiles à interpréter car ils sont très proches les uns des autres.Ainsi, nous voulons aller au-delà d'une mesure quantitative et nous explorons comment les différentes relations entre les noeuds du réseau peuvent déterminer un degré d'influence pondéré par une estimation de la crédibilité. Nous proposons une approche, TwitBelief, basée sur la règle de combinaison conjonctive de la théorie des fonctions de croyance qui permet de combiner différents types de relations tout en exprimant l’incertitude sur leur importance relative. Nous expérimentons TwitBelief sur une grande quantité de données collectées lors des élections européennes de 2014 et de l'élection présidentielle française de 2017 et nous déterminons les candidats les plus influents. Les résultats montrent que notre modèle est suffisamment flexible pour répondre aux besoins des spécialistes en sciences sociales et que l'utilisation de la théorie des fonctions de croyances est pertinente pour traiter des relations multiples. Nous évaluons également l'approche sur l'ensemble de données CLEF RepLab 2014 et montrons que notre approche conduit à des résultats significatifs. Nous proposons aussi deux extensions de TwitBelief traitant le contenu des tweets. La première est l'estimation de la polarisation de l'influence sur le réseau Twitter en utilisant l'analyse des sentiments avec l'algorithme des forêts d'arbres décisionnels. La deuxième extension est la catégorisation des styles de communication dans Twitter, il s'agit de déterminer si le style de communication des utilisateurs de Twitter est informatif, interactif ou équilibré. / Influence in complex networks and in particular Twitter has become recently a hot research topic. Detecting most influential users leads to reach a large-scale information diffusion area at low cost, something very useful in marketing or political campaigns. In this thesis, we propose a new approach that considers the several relations between users in order to assess influence in complex networks such as Twitter. We model Twitter as a multiplex heterogeneous network where users, tweets and objects are represented by nodes, and links model the different relations between them (e.g., retweets, mentions, and replies).The multiplex PageRank is applied to data from two datasets in the political field to rank candidates according to their influence. Even though the candidates' ranking reflects the reality, the multiplex PageRank scores are difficult to interpret because they are very close to each other.Thus, we want to go beyond a quantitative measure and we explore how relations between nodes in the network could reveal about the influence and propose TwitBelief, an approach to assess weighted influence of a certain node. This is based on the conjunctive combination rule from the belief functions theory that allow to combine different types of relations while expressing uncertainty about their importance weights. We experiment TwitBelief on a large amount of data gathered from Twitter during the European Elections 2014 and the French 2017 elections and deduce top influential candidates. The results show that our model is flexible enough to consider multiple interactions combination according to social scientists needs or requirements and that the numerical results of the belief theory are accurate. We also evaluate the approach over the CLEF RepLab 2014 data set and show that our approach leads to quite interesting results. We also propose two extensions of TwitBelief in order to consider the tweets content. The first is the estimation of polarized influence in Twitter network. In this extension, sentiment analysis of the tweets with the algorithm of forest decision trees allows to determine the influence polarity. The second extension is the categorization of communication styles in Twitter, it determines whether the communication style of Twitter users is informative, interactive or balanced.
5

Decision making for ontology matching under the theory of belief functions / Prise de décision lors de l'appariement des ontologies dans le cadre de la théorie des fonctions de croyance

Essaid, Amira 01 June 2015 (has links)
L'appariement des ontologies est une tâche primordiale pour palier au problème d'hétérogénéité sémantique et ainsi assurer une interopérabilité entre les applications utilisant différentes ontologies. Il consiste en la mise en correspondance de chaque entité d'une ontologie source à une entité d'une ontologie cible et ceci par application des techniques d'alignement fondées sur des mesures de similarité. Individuellement, aucune mesure de similarité ne permet d'obtenir un alignement parfait. C'est pour cette raison qu'il est intéressant de tenir compte de la complémentarité des mesures afin d'obtenir un meilleur alignement. Dans cette thèse, nous nous sommes intéressés à proposer un processus de décision crédibiliste pour l'appariement des ontologies. Étant données deux ontologies, on procède à leur appariement et ceci par application de trois techniques. Les alignements obtenus seront modélisés dans le cadre de la théorie des fonctions de croyance. Des règles de combinaison seront utilisées pour combiner les résultats d'alignement. Une étape de prise de décision s'avère utile, pour cette raison nous proposons une règle de décision fondée sur une distance et capable de décider sur une union d'hypothèses. Cette règle sera utilisée dans notre processus afin d'identifier pour chaque entité source le ou les entités cibles. / Ontology matching is a solution to mitigate the effect of semantic heterogeneity. Matching techniques, based on similarity measures, are used to find correspondences between ontologies. Using a unique similarity measure does not guarantee a perfect alignment. For that reason, it is necessary to use more than a similarity measure to take advantage of features of each one and then to combine the different outcomes. In this thesis, we propose a credibilistic decision process by using the theory of belief functions. First, we model the alignments, obtained after a matching process, under the theory of belief functions. Then, we combine the different outcomes through using adequate combination rules. Due to our awareness that making decision is a crucial step in any process and that most of the decision rules of the belief function theory are able to give results on a unique element, we propose a decision rule based on a distance measure able to make decision on union of elements (i.e. to identify for each source entity its corresponding target entities).
6

Fusion de données : approche evidentielle pour le tri des déchets / Data Fusion : an evidential approach for waste sorting

Lachaize, Marie 30 May 2018 (has links)
Le tri automatique des déchets est un sujetcomplexe en raison de la diversité des objets et desmatériaux présents. Il nécessite un apport de donnéesvariées et hétérogènes. Cette thèse traite du problème defusion de données découlant d’un dispositif de troiscapteurs dont une caméra hyperspectrale dans ledomaine NIR. Nous avons étudié l’avantage d’utiliser lecadre des fonctions de croyance (BFT) tout au long de ladémarche de fusion en utilisant notamment la mesure deconflit comme un critère clé de notre approche. Dans unepremière partie, nous avons étudié l'intérêt de la BFTpour la classification multiclasse des donnéeshyperspectrales à partir d’Error Correcting OutputCodes (ECOC) qui consistent à séparer le problèmemulticlasse en un ensemble de sous-problèmes binairesplus simples à résoudre. Les questions de commentidéalement séparer le problème multiclasse (codage)ainsi que celle de la combinaison des réponses de cesproblèmes binaires (décodage) sont encore aujourd’huides questions ouvertes. Le cadre des fonctions decroyance permet de proposer une étape de décodage quimodélise chaque classifieur binaire comme une sourceindividuelle d'information grâce notamment à lamanipulation des hypothèses composées. Par ailleurs laBFT fournit des indices pour détecter les décisions peufiables ce qui permet une auto-évaluation de la méthoderéalisée sans vérité terrain. Dans une deuxième partietraitant de la fusion de données, nous proposons unedémarche ‘orientée-objet’ composée d’un module desegmentation et d’un module de classification afin defaire face aux problèmes d’échelle, de différences derésolutions et de recalage des capteurs. L’objectif estalors d’estimer une segmentation où les segmentscoïncident avec les objets individuels et sont labellisés entermes de matériau. Nous proposons une interactionentre les modules à base de validation mutuelle. Ainsi,d’une part la fiabilité de la labellisation est évaluée auniveau des segments, d’autre part l’information declassification interagit sur les segments initiaux pour serapprocher d’une segmentation au niveau « objet » : leconsensus (ou l’absence de consensus) parmi lesinformations de classification au sein d’un segment ouentre segments connexes permet de faire évoluer lesupport spatial vers le niveau objet. / Automatic waste sorting is a complex matterbecause of the diversity of the objects and of the presentmaterials. It requires input from various andheterogeneous data. This PhD work deals with the datafusion problem derived from an acquisition devicecomposed of three sensors, including an hyperspectralsensor in the NIR field. We first studied the benefit ofusing the belief function theory framework (BFT)throughout the fusion approach, using in particularconflict measures to drive the process. We first studiedthe BFT in the multiclass classification problem createdby hyperspectral data. We used the Error CorrectingOutput Codes (ECOC) framework which consists inseparating the multiclass problem into several binaryones, simpler to solve. The questions of the idealdecomposition of the multiclass problem (coding) and ofthe answer combination coming from the binaryclassifiers (decoding) are still open-ended questions. Thebelief function framework allows us to propose adecoding step modelling each binary classifier as anindividual source of information, thanks to the possibilityof handling compound hypotheses. Besides, the BFTprovides indices to detect non reliable decisions whichallow for an auto-evaluation of the method performedwithout using any ground truth. In a second part dealingwith the data fusion,we propose an evidential version ofan object-based approach composed with a segmentationmodule and a classification module in order to tackle theproblems of the differences in scale, resolutions orregistrations of the sensors. The objective is then toestimate a relevant spatial support corresponding to theobjects while labelling them in terms of material. Weproposed an interactive approach with cooperationbetween the two modules in a cross-validation kind ofway. This way, the reliability of the labelling isevaluated at the segment level, while the classificationinformation acts on the initial segments in order toevolve towards an object level segmentation: consensusamong the classification information within a segment orbetween adjacent regions allow the spatial support toprogressively reach object level
7

Tackling pedestrian detection in large scenes with multiple views and representations / Une approche réaliste de la détection de piétons multi-vues et multi-représentations pour des scènes extérieures

Pellicanò, Nicola 21 December 2018 (has links)
La détection et le suivi de piétons sont devenus des thèmes phares en recherche en Vision Artificielle, car ils sont impliqués dans de nombreuses applications. La détection de piétons dans des foules très denses est une extension naturelle de ce domaine de recherche, et l’intérêt croissant pour ce problème est lié aux évènements de grande envergure qui sont, de nos jours, des scenarios à risque d’un point de vue de la sûreté publique. Par ailleurs, les foules très denses soulèvent des problèmes inédits pour la tâche de détection. De par le fait que les caméras ont le champ de vision le plus grand possible pour couvrir au mieux la foule les têtes sont généralement très petites et non texturées. Dans ce manuscrit nous présentons un système complet pour traiter les problèmes de détection et de suivi en présence des difficultés spécifiques à ce contexte. Ce système utilise plusieurs caméras, pour gérer les problèmes de forte occultation. Nous proposons une méthode robuste pour l’estimation de la position relative entre plusieurs caméras dans le cas des environnements requérant une surveillance. Ces environnements soulèvent des problèmes comme la grande distance entre les caméras, le fort changement de perspective, et la pénurie d’information en commun. Nous avons alors proposé d’exploiter le flot vidéo pour effectuer la calibration, avec l’objectif d’obtenir une solution globale de bonne qualité. Nous proposons aussi une méthode non supervisée pour la détection des piétons avec plusieurs caméras, qui exploite la consistance visuelle des pixels à partir des différents points de vue, ce qui nous permet d’effectuer la projection de l’ensemble des détections sur le plan du sol, et donc de passer à un suivi 3D. Dans une troisième partie, nous revenons sur la détection supervisée des piétons dans chaque caméra indépendamment en vue de l’améliorer. L’objectif est alors d’effectuer la segmentation des piétons dans la scène en partant d’une labélisation imprécise des données d’apprentissage, avec des architectures de réseaux profonds. Comme dernière contribution, nous proposons un cadre formel original pour une fusion de données efficace dans des espaces 2D. L’objectif est d’effectuer la fusion entre différents capteurs (détecteurs supervisés en chaque caméra et détecteur non supervisé en multi-vues) sur le plan du sol, qui représente notre cadre de discernement. nous avons proposé une représentation efficace des hypothèses composées qui est invariante au changement de résolution de l’espace de recherche. Avec cette représentation, nous sommes capables de définir des opérateurs de base et des règles de combinaison efficaces pour combiner les fonctions de croyance. Enfin, notre approche de fusion de données a été évaluée à la fois au niveau spatial, c’est à dire en combinant des détecteurs de nature différente, et au niveau temporel, en faisant du suivi évidentiel de piétons sur de scènes à grande échelle dans des conditions de densité variable. / Pedestrian detection and tracking have become important fields in Computer Vision research, due to their implications for many applications, e.g. surveillance, autonomous cars, robotics. Pedestrian detection in high density crowds is a natural extension of such research body. The ability to track each pedestrian independently in a dense crowd has multiple applications: study of human social behavior under high densities; detection of anomalies; large event infrastructure planning. On the other hand, high density crowds introduce novel problems to the detection task. First, clutter and occlusion problems are taken to the extreme, so that only heads are visible, and they are not easily separable from the moving background. Second, heads are usually small (they have a diameter of typically less than ten pixels) and with little or no textures. This comes out from two independent constraints, the need of one camera to have a field of view as high as possible, and the need of anonymization, i.e. the pedestrians must be not identifiable because of privacy concerns.In this work we develop a complete framework in order to handle the pedestrian detection and tracking problems under the presence of the novel difficulties that they introduce, by using multiple cameras, in order to implicitly handle the high occlusion issues.As a first contribution, we propose a robust method for camera pose estimation in surveillance environments. We handle problems as high distances between cameras, large perspective variations, and scarcity of matching information, by exploiting an entire video stream to perform the calibration, in such a way that it exhibits fast convergence to a good solution. Moreover, we are concerned not only with a global fitness of the solution, but also with reaching low local errors.As a second contribution, we propose an unsupervised multiple camera detection method which exploits the visual consistency of pixels between multiple views in order to estimate the presence of a pedestrian. After a fully automatic metric registration of the scene, one is capable of jointly estimating the presence of a pedestrian and its height, allowing for the projection of detections on a common ground plane, and thus allowing for 3D tracking, which can be much more robust with respect to image space based tracking.In the third part, we study different methods in order to perform supervised pedestrian detection on single views. Specifically, we aim to build a dense pedestrian segmentation of the scene starting from spatially imprecise labeling of data, i.e. heads centers instead of full head contours, since their extraction is unfeasible in a dense crowd. Most notably, deep architectures for semantic segmentation are studied and adapted to the problem of small head detection in cluttered environments.As last but not least contribution, we propose a novel framework in order to perform efficient information fusion in 2D spaces. The final aim is to perform multiple sensor fusion (supervised detectors on each view, and an unsupervised detector on multiple views) at ground plane level, that is, thus, our discernment frame. Since the space complexity of such discernment frame is very large, we propose an efficient compound hypothesis representation which has been shown to be invariant to the scale of the search space. Through such representation, we are capable of defining efficient basic operators and combination rules of Belief Function Theory. Furthermore, we propose a complementary graph based description of the relationships between compound hypotheses (i.e. intersections and inclusion), in order to perform efficient algorithms for, e.g. high level decision making.Finally, we demonstrate our information fusion approach both at a spatial level, i.e. between detectors of different natures, and at a temporal level, by performing evidential tracking of pedestrians on real large scale scenes in sparse and dense conditions.
8

Hybridation des retours d'expérience statistique et cognitif pour l'évaluation des risques : application à la déconstruction des aéronefs / Hybridization of statistical and cognitive experience feedback to assess risk : application to aircraft deconstruction

Villeneuve, Eric 31 May 2012 (has links)
Les travaux de recherche présentés dans ce document s'inscrivent dans le cadre de la gestion des connaissances appliquée à la déconstruction des avions en fin de vie avec pour objectif l'aide à la décision par l'évaluation des risques. Pour répondre à cet objectif, nous avons développé des mécanismes d'aide à la décision hybridant les retours d'expérience statistique et cognitif pour évaluer les risques sur les zones critiques d'un système. L'approche proposée permet la combinaison des avis d'experts du domaine avec des statistiques issues d'une base de données en utilisant les fonctions de croyance. L'évaluation des risques est réalisée par le traitement des connaissances combinées au moyen d'un modèle utilisant les réseaux évidentiels dirigés. Ce document s'articule en quatre chapitres.Le premier chapitre constitue un état de l'art abordant les notions liées au risque et au retour d'expérience. Il permet de définir les concepts clés concernant l'évaluation du risque, la gestion des connaissances (et en particulier le processus de retour d'expérience) ainsi que les passerelles entre ces deux concepts. Le second chapitre permet d'introduire un modèle d'évaluation des risques basé sur les méthodes bayésiennes. Cependant, les méthodes bayésiennes ont des limites, en particulier pour ce qui concerne la modélisation de l'incertitude épistémique inhérente aux avis d'experts, qui nous ont incité à proposer des alternatives, telles les fonctions de croyance et les réseaux évidentiels dirigés que nous avons finalement choisi d'utiliser. Le troisième chapitre propose une démarche permettant d'évaluer les risques en utilisant les réseaux évidentiels dirigés. L'approche proposée décrit les mécanismes utilisés pour formaliser et fusionner les connaissances expertes et statistiques, puis pour traiter ces connaissances au moyen des réseaux évidentiels dirigés. Pour finir, des indicateurs permettant la restitution des résultats au décideur sont introduits. Le dernier chapitre présente le projet DIAGNOSTAT qui a servi de cadre à ces travaux de recherche et expose un cas d'étude permettant d'appliquer la démarche introduite précédemment à la déconstruction des avions en fin de vie au moyen de deux scénarios / The research work presented in this document relates to knowledge management applied to aircraft deconstruction. The aim of this work is to provide a decision support system for risk assessment. To meet this objective, mechanisms for decision support hybridizing cognitive and statistical experience feedback to perform risk assessment on system critical areas have been developed. The proposed approach allows to combine expert opinion with statistics extracted from a database by using belief functions. The risk assessment is performed by the combined knowledge processing using a model based on directed evidential networks. This document is divided into four chapters. The first chapter is a state of the art addressing concepts related to risk and experience feedback. It defines key concepts for risk assessment, knowledge management (in particular the experience feedback process) and the links between these two concepts. The second chapter allows to introduce a risk assessment model based on Bayesian methods. However, Bayesian methods have some limitations, particularly with respect to epistemic uncertainty modelling. That is why, some alternatives have been proposed, such as belief functions and directed evidential networks that we finally chose to use. The third chapter proposes an approach for assessing the risk using directed evidential networks. The proposed approach describes the mechanisms used to formalize and combine expert and statistical knowledge, and then to process this knowledge with directed evidential networks. Finally, indicators to inform the decision maker about results are introduced. The last chapter presents the DIAGNOSTAT project which provided the framework for this research and a study case to apply the approach introduced earlier for aircraft deconstruction by using two scenarios
9

Source independence in the theory of belief functions / L'indépendance des sources dans la théorie des fonctions de croyance

Chebbah, Mouna 25 June 2014 (has links)
La fusion d'informations issues de plusieurs sources cherche à améliorer la prise de décision. Pour réaliser cette fusion, la théorie des fonctions de croyance utilise des règles de combinaison faisant bien souvent l'hypothèse de l'indépendance des sources. Cette forte hypothèse n'est, cependant, ni formalisée ni vérifiée. Elle est supposée pour justifier le choix du type de règles à utiliser sans avoir, pour autant, un moyen de la vérifier. Nous proposons dans ce rapport de thèse un apprentissage de l'indépendance cognitive de sources d'information. Nous détaillons également une approche d'apprentissage de la dépendance positive et négative des sources. Les degrés d'indépendance, de dépendance positive et négative des sources ont principalement trois utilités. Premièrement, ces degrés serviront à choisir le type de règles de combinaison à utiliser lors de la combinaison. Deuxièmement, ces degrés exprimés par une fonction de masse sont intégrés par une approche d'affaiblissement avant de réaliser la combinaison d'information. Une troisième utilisation de cette mesure d'indépendance consiste à l'intégrer dans une nouvelle règle de combinaison. La règle que nous proposons est une moyenne pondérée avec ce degré d'indépendance. / The theory of belief functions manages uncertainty and proposes a set of combination rules to aggregate beliefs of several sources. Some combination rules mix evidential information where sources are independent; other rules are suited to combine evidential information held by dependent sources. Information on sources ' independence is required to justify the choice of the adequate type of combination rules. In this thesis, we suggest a method to quantify sources' degrees of independence that may guide the choice of the appropriate type of combination rules. In fact, we propose a statistical approach to learn sources' degrees of independence from all provided evidential information. There are three main uses of estimating sources' degrees of independence: First, we use sources' degree of independence to guide the choice of combination rules to use when aggregating beliefs of several sources. Second, we propose to integrate sources' degrees of independence into sources' beliefs leading to an operator similar to the discounting. Finally, we define a new combination rule weighted with sources' degree of independence.
10

Belief detection and temporal analysis of experts in question answering communities : case strudy on stack overflow / Détection et analyse temporelle des experts dans les réseaux communautaires de questions réponses : étude de cas Stack Overflow

Attiaoui, Dorra 01 December 2017 (has links)
L'émergence du Web 2.0 a changé la façon avec laquelle les gens recherchent et obtiennent des informations sur internet. Entre sites communautaires spécialisés, réseaux sociaux, l'utilisateur doit faire face à une grande quantité d'informations. Les sites communautaires de questions réponses représentent un moyen facile et rapide pour obtenir des réponses à n'importe quelle question qu'une personne se pose. Tout ce qu'il suffit de faire c'est de déposer une question sur un de ces sites et d'attendre qu'un autre utilisateur lui réponde. Dans ces sites communautaires, nous voulons identifier les personnes très compétentes. Ce sont des utilisateurs importants qui partagent leurs connaissances avec les autres membres de leurs communauté. Ainsi la détection des experts est devenue une tache très importantes, car elle permet de garantir la qualité des réponses postées sur les différents sites. Dans cette thèse, nous proposons une mesure générale d'expertise fondée sur la théorie des fonctions de croyances. Cette théorie nous permet de gérer l'incertitude présente dans toutes les données émanant du monde réel. D'abord et afin d'identifier ces experts parmi la foule d'utilisateurs présents dans la communauté, nous nous sommes intéressés à identifier des attributs qui permettent de décrire le comportement de chaque individus. Nous avons ensuite développé un modèle statistique fondé sur la théorie des fonctions de croyance pour estimer l'expertise générale des usagers de la plateforme. Cette mesure nous a permis de classifier les différents utilisateurs et de détecter les plus experts d'entre eux. Par la suite, nous proposons une analyse temporelle pour étudier l'évolution temporelle des utilisateurs pendant plusieurs mois. Pour cette partie, nous décrirons com- ment les différents usagers peuvent évoluer au cours de leur activité dans la plateforme. En outre, nous nous sommes également intéressés à la détection des experts potentiels pendant les premiers mois de leurs inscriptions dans un site. L'efficacité de ces approches a été validée par des données réelles provenant de Stack Overflow. / During the last decade, people have changed the way they seek information online. Between question answering communities, specialized websites, social networks, the Web has become one of the most widespread platforms for information exchange and retrieval. Question answering communities provide an easy and quick way to search for information needed in any topic. The user has to only ask a question and wait for the other members of the community to respond. Any person posting a question intends to have accurate and helpful answers. Within these platforms, we want to find experts. They are key users that share their knowledge with the other members of the community. Expert detection in question answering communities has become important for several reasons such as providing high quality content, getting valuable answers, etc. In this thesis, we are interested in proposing a general measure of expertise based on the theory of belief functions. Also called the mathematical theory of evidence, it is one of the most well known approaches for reasoning under uncertainty. In order to identify experts among other users in the community, we have focused on finding the most important features that describe every individual. Next, we have developed a model founded on the theory of belief functions to estimate the general expertise of the contributors. This measure will allow us to classify users and detect the most knowledgeable persons. Therefore, once this metric defined, we look at the temporal evolution of users' behavior over time. We propose an analysis of users activity for several months in community. For this temporal investigation, we will describe how do users evolve during their time spent within the platform. Besides, we are also interested on detecting potential experts during the beginning of their activity. The effectiveness of these approaches is evaluated on real data provided from Stack Overflow.

Page generated in 0.3182 seconds