Spelling suggestions: "subject:"fonctions dde croyances"" "subject:"fonctions dee croyances""
21 |
Belief detection and temporal analysis of experts in question answering communities : case strudy on stack overflow / Détection et analyse temporelle des experts dans les réseaux communautaires de questions réponses : étude de cas Stack OverflowAttiaoui, Dorra 01 December 2017 (has links)
L'émergence du Web 2.0 a changé la façon avec laquelle les gens recherchent et obtiennent des informations sur internet. Entre sites communautaires spécialisés, réseaux sociaux, l'utilisateur doit faire face à une grande quantité d'informations. Les sites communautaires de questions réponses représentent un moyen facile et rapide pour obtenir des réponses à n'importe quelle question qu'une personne se pose. Tout ce qu'il suffit de faire c'est de déposer une question sur un de ces sites et d'attendre qu'un autre utilisateur lui réponde. Dans ces sites communautaires, nous voulons identifier les personnes très compétentes. Ce sont des utilisateurs importants qui partagent leurs connaissances avec les autres membres de leurs communauté. Ainsi la détection des experts est devenue une tache très importantes, car elle permet de garantir la qualité des réponses postées sur les différents sites. Dans cette thèse, nous proposons une mesure générale d'expertise fondée sur la théorie des fonctions de croyances. Cette théorie nous permet de gérer l'incertitude présente dans toutes les données émanant du monde réel. D'abord et afin d'identifier ces experts parmi la foule d'utilisateurs présents dans la communauté, nous nous sommes intéressés à identifier des attributs qui permettent de décrire le comportement de chaque individus. Nous avons ensuite développé un modèle statistique fondé sur la théorie des fonctions de croyance pour estimer l'expertise générale des usagers de la plateforme. Cette mesure nous a permis de classifier les différents utilisateurs et de détecter les plus experts d'entre eux. Par la suite, nous proposons une analyse temporelle pour étudier l'évolution temporelle des utilisateurs pendant plusieurs mois. Pour cette partie, nous décrirons com- ment les différents usagers peuvent évoluer au cours de leur activité dans la plateforme. En outre, nous nous sommes également intéressés à la détection des experts potentiels pendant les premiers mois de leurs inscriptions dans un site. L'efficacité de ces approches a été validée par des données réelles provenant de Stack Overflow. / During the last decade, people have changed the way they seek information online. Between question answering communities, specialized websites, social networks, the Web has become one of the most widespread platforms for information exchange and retrieval. Question answering communities provide an easy and quick way to search for information needed in any topic. The user has to only ask a question and wait for the other members of the community to respond. Any person posting a question intends to have accurate and helpful answers. Within these platforms, we want to find experts. They are key users that share their knowledge with the other members of the community. Expert detection in question answering communities has become important for several reasons such as providing high quality content, getting valuable answers, etc. In this thesis, we are interested in proposing a general measure of expertise based on the theory of belief functions. Also called the mathematical theory of evidence, it is one of the most well known approaches for reasoning under uncertainty. In order to identify experts among other users in the community, we have focused on finding the most important features that describe every individual. Next, we have developed a model founded on the theory of belief functions to estimate the general expertise of the contributors. This measure will allow us to classify users and detect the most knowledgeable persons. Therefore, once this metric defined, we look at the temporal evolution of users' behavior over time. We propose an analysis of users activity for several months in community. For this temporal investigation, we will describe how do users evolve during their time spent within the platform. Besides, we are also interested on detecting potential experts during the beginning of their activity. The effectiveness of these approaches is evaluated on real data provided from Stack Overflow.
|
22 |
Représentation et combinaison d'informations incertaines : nouveaux résultats avec applications aux études de sûreté nucléairesSebastien, Destercke 29 October 2008 (has links) (PDF)
Souvent, les valeurs de certains paramètres ou variables d'un système ne sont connues que de façon imparfaite, soit du fait de la variabilité des phénomènes physiques que l'on cherche à représenter,soit parce que l'information dont on dispose est imprécise, incomplète ou pas complètement fiable.<br>Usuellement, cette incertitude est traitée par la théorie classique des probabilités. Cependant, ces dernières années ont vu apparaître des arguments indiquant que les probabilités classiques sont inadéquates lorsqu'il faut représenter l'imprécision présente dans l'information. Des cadres complémentaires aux probabilités classiques ont donc été proposés pour remédier à ce problème : il s'agit, principalement, des ensembles de probabilités, des ensembles aléatoires et des possibilités. Beaucoup de questions concernant le traitement des incertitudes dans ces trois cadres restent ouvertes. En particulier, il est nécessaire d'unifier ces approches et de comprendre les liens existants entre elles, et de proposer des méthodes de traitement permettant d'utiliser ces approches parfois cher en temps de calcul. Dans ce travail, nous nous proposons d'apporter des réponses à ces deux besoins pour une série de problème de traitement de l'incertain rencontré en analyse de sûreté. En particulier, nous nous concentrons sur les problèmes suivants :<br>- Représentation des incertitudes<br>- Fusion/évaluation de données venant de sources multiples<br>- Modélisation de l'indépendance<br><br>L'objectif étant de fournir des outils, à la fois théoriques et pratiques, de traitement d'incertitude. Certains de ces outils sont ensuite appliqués à des problèmes rencontrés en sûreté nucléaire.
|
23 |
Fusion d'informations et segmentation d'images basées sur la théorie des fonctions de croyance : Application à l'imagerie médicale TEP multi-traceursLelandais, Benoît 23 April 2013 (has links) (PDF)
L'imagerie fonctionnelle par Tomographie d'Émission de Positons (TEP) multi-traceurs pourrait avoir un rôle essentiel dans le traitement du cancer par radiothérapie externe. Les images TEP aux traceurs 18Fluoro-Déoxy-Glucose (18 FDG), 18F-Fluoro-L Thymidine (18 FLT) et 18Fluoro-Misonidazole (18 FMiso) sont respectivement témoins du métabolisme glucidique, de la prolifération cellulaire et de l'hypoxie (manque d'oxygénation des cellules). L'utilisation conjointe de ces trois traceurs pourrait permettre de définir des sous-volumes donnant lieu à un traitement particulier. À cet effet, il est impératif de mettre à la disposition du corps médical un outil de segmentation et de fusion de ces images. Les images TEP ont pour caractéristique d'être très bruitées et d'avoir une faible résolution spatiale. Ces imperfections ont pour conséquence respective d'induire la présence d'informations incertaines et imprécises dans les images. Notre contribution réside dans la proposition d'une méthode, nommée EVEII pour Evidential Voxel-based Estimation of Imperfect Information, basée sur la théorie des fonctions de croyance, offrant une segmentation fiable et précise dans le contexte d'images imparfaites. Elle réside également dans la proposition d'une méthode de fusion d'images TEP multi-traceur. L'étude d'EVEII sur des images simulées a révélé qu'elle est la mieux adaptée comparée à d'autres méthodes basées sur la théorie des fonctions de croyance, en donnant un taux de bonne reconnaissance des pixels de près de 100 % lorsque le rapport signal-sur-bruit dépasse 2, 5. Sur les fantômes TEP physiques, simulant les caractéristiques des images TEP au 18 FDG, à la 18 FLT et au 18 FMiso, les résultats ont montré que notre méthode estime le mieux les volumes des sphères à segmenter comparé à des méthodes de la littérature proposées à cet effet. Sur les deux fantômes faiblement et fortement bruités respectivement, les biais moyens d'erreur d'estimation des volumes sont seulement de -0,27 et 3,89 mL, témoignant de sa pertinence à visée de segmentation d'images TEP. Enfin, notre méthode a été appliquée à la segmentation d'images TEP multi-traceurs chez trois patients. Les résultats ont montré que notre méthode est adaptée à la fusion d'images TEP multi-traceurs, offrant à cet effet un ensemble d'images paramétriques permettant de différencier les différents tissus biologiques.
|
24 |
Fusion distribuée de données échangées dans un réseau de véhiculesEl Zoghby, Nicole 19 February 2014 (has links) (PDF)
Cette thèse porte sur l'étude des techniques de fusion de données réparties et incertaines au sein d'un réseau de véhicules pour gérer la confiance dans les autres véhicules ou dans les données reçues. L'algorithme de fusion distribuée proposé est basé sur les fonctions de croyance et est appliqué par chaque nœud à la réception des messages. In se base sur la gestion d'une connaissance directe, locale à chaque nœud et d'une connaissance distribuée diffusée dans le réseau. Cette dernière résulte de la fusion des messages par un opérateur adapté prenant en compte les cycles éventuels et limitant l'effet de "data incest". Chaque nœud peut être autonome pour estimer la confiance mais la coopération entre les véhicules permet d'améliorer et de rendre plus robuste cette estimation. L'algorithme peut être adapté au cas d'étude en considérant un ou plusieurs éléments d'observation et en prenant en compte l'obsolescence des données. Lorsqu'il y a plusieurs éléments d'observation, se pose le problème de l'association de données nécessaire avant l'étape de combinaison. Un nouvel algorithme d'association a été formalisé dans le cadre des fonctions de croyance. Il a été démontré que ce problème est équivalent à un problème d'affectation linéaire, qui peut être résolu en temps polynomial. Cette solution est à la fois optimale et beaucoup plus efficace que d'autres approches développées dans ce formalisme. La gestion de la confiance dans les nœuds et dans les données échangées ont été illustrées par la mise en œuvre de deux applications : la détection de faux nœuds dans une attaque Sybil et la gestion de la confiance dans les cartes dynamiques pour la perception augmentée.
|
25 |
Management de l'incertitude pour les systèmes booléens complexes - Application à la maintenance préventive des avions / Uncertainty Management for Boolean Complex Systems Application to Preventive Maintenance of AircraftsJacob, Christelle 25 February 2014 (has links)
Les analyses de sûreté de fonctionnement standards sont basées sur la représentation des événements redoutés par des arbres de défaillances, qui les décrivent à l'aide de combinaison logiques d'événements plus basiques (formules Booléennes complexes). Les analyses quantitatives se font avec l'hypothèse que les probabilités d'occurrence de ces événements basiques sont connues. Le but de cette thèse est d'étudier l'impact de l'incertitude épistémique sur les événements élémentaires, ainsi que la propagation de cette incertitude à de plus hauts niveaux. Le problème soulevé est comment calculer l'intervalle de probabilité dans lequel se trouvera l'occurrence d'un événement redouté, lorsque les événements basiques qui le décrivent ont eux-mêmes une probabilité imprécise. Lorsque l'indépendance stochastique est supposée, on se retrouve avec un problème NP-hard. Nous avons donc développé un algorithme permettant de calculer l'intervalle exact dans lequel se trouvera la probabilité d'occurrence d'un événement redouté, grâce à des techniques d'analyse par intervalles. Cet algorithme a également été étendu dans le cas où les probabilités des événements basiques évolueraient en fonction du temps. Nous avons également utilisé une approche par fonctions de croyance pour étudier le cas où l'indépendance stochastique des événements ne peut pas être démontrée : on suppose alors que les probabilités viennent de différentes sources d'information Indépendantes. Dans ce cas, les mesures de plausibilité et de nécessité d'une formule Booléenne complexe sont difficiles à calculer, néanmoins nous avons pu dégager des situations pratiques dans le cadre de leur utilisation pour les Arbres de défaillances pour lesquelles elles se prêtent aux calculs. / Standard approaches to reliability analysis relies on a probabilistic analysis of critical events based on fault tree representations. However in practice, and especially for preventive maintenance tasks, the probabilities ruling the occurrence of these events are seldom precisely known. The aim of this thesis is to study the impact of epistemic uncertainty on probabilities of elementary events such as failures over the probability of some higher level critical event. The fundamental problem addressed by the thesis is thus to compute the probability interval for a Boolean proposition representing a failure condition, given the probability intervals of atomic propositions. When the stochastic independence is assumed, we face a problem of interval analysis, which is NP-hard in general. We have provided an original algorithm that computes the output probability interval exactly, taking into account the monotonicity of the obtained function in terms of some variables so as to reduce the uncertainty. We have also considered the evolution of the probability interval with time, assuming parameters of the reliability function to be imprecisely known. Besides, taking advantage of the fact that a probability interval on a binary space can be modelled by a belief function, we have solved the same problem with a different assumption, namely information source independence. While the problem of computing the belief and plausibility of a Boolean proposition are even harder to compute, we have shown that in practical situations such as usual fault-trees, the additivity condition of probability theory is still valid, which simplifies this calculation. A prototype has been developed to compute the probability interval for a complex Boolean proposition.
|
26 |
Confidence in safety argument - An assessment framework based on belief function theory / Confiance dans un argumentaire de sécurité - un cadre d'évaluation basé sur la théorie des fonctions de croyanceWang, Rui 02 May 2018 (has links)
Les arguments de sécurité sont couramment utilisés pour montrer que des efforts suffisants ont été faits pour atteindre les objectifs de sécurité. Ainsi, la sécurité du système est souvent justifiée par l'évaluation des arguments de sécurité. L'évaluation de tels arguments repose généralement sur l’avis d’experts sans s’appuyer sur des outils ou des méthodes dédiés. Ceci pose des questions sur la validité des résultats. Dans cette thèse, une approche quantitative est proposée, basé sur la théorie de Dempster-Shafer (théorie D-S) pour évaluer notre confiance dans les arguments de sécurité. Cette approche gère le problème à travers les aspects suivants: 1) Définition formelle de la confiance dans les arguments basée sur la théorie D-S; 2) Développement de règles d'agrégation des paramètres de confiance; 3) Proposition d'un cadre d'évaluation quantitatif des arguments de sécurité. Une application dans le domaine ferroviaire conduit à l'estimation des paramètres du cadre par une enquête auprès d'experts en sécurité. / Safety arguments, also called Safety Cases, are commonly used to present that adequate efforts have been made to achieve the safety goals. Thus, the system safety is often justified through assessing the safety arguments. The assessment of such arguments is usually implemented by experts without any dedicated tool or method. This leads to a questionable validity of the results. In this thesis, a quantitative framework is proposed based on Dempster-Shafer theory (D-S theory) to assess our confidence in Safety Cases. This framework manages the issue in following aspects: 1) Formal definition of confidence in arguments based on D-S theory; 2) Development of confidence aggregation rules; 3) Proposition of a quantitative assessment framework of safety arguments. An application in railway domain realises the parameter estimation of the framework by a survey with safety experts.
|
27 |
Information fusion for scene understanding / Fusion d'informations pour la compréhesion de scènesXu, Philippe 28 November 2014 (has links)
La compréhension d'image est un problème majeur de la robotique moderne, la vision par ordinateur et l'apprentissage automatique. En particulier, dans le cas des systèmes avancés d'aide à la conduite, la compréhension de scènes routières est très importante. Afin de pouvoir reconnaître le grand nombre d’objets pouvant être présents dans la scène, plusieurs capteurs et algorithmes de classification doivent être utilisés. Afin de pouvoir profiter au mieux des méthodes existantes, nous traitons le problème de la compréhension de scènes comme un problème de fusion d'informations. La combinaison d'une grande variété de modules de détection, qui peuvent traiter des classes d'objets différentes et utiliser des représentations distinctes, est faites au niveau d'une image. Nous considérons la compréhension d'image à deux niveaux : la détection d'objets et la segmentation sémantique. La théorie des fonctions de croyance est utilisée afin de modéliser et combiner les sorties de ces modules de détection. Nous mettons l'accent sur la nécessité d'avoir un cadre de fusion suffisamment flexible afin de pouvoir inclure facilement de nouvelles classes d'objets, de nouveaux capteurs et de nouveaux algorithmes de détection d'objets. Dans cette thèse, nous proposons une méthode générale permettant de transformer les sorties d’algorithmes d'apprentissage automatique en fonctions de croyance. Nous étudions, ensuite, la combinaison de détecteurs de piétons en utilisant les données Caltech Pedestrian Detection Benchmark. Enfin, les données du KITTI Vision Benchmark Suite sont utilisées pour valider notre approche dans le cadre d'une fusion multimodale d'informations pour de la segmentation sémantique. / Image understanding is a key issue in modern robotics, computer vison and machine learning. In particular, driving scene understanding is very important in the context of advanced driver assistance systems for intelligent vehicles. In order to recognize the large number of objects that may be found on the road, several sensors and decision algorithms are necessary. To make the most of existing state-of-the-art methods, we address the issue of scene understanding from an information fusion point of view. The combination of many diverse detection modules, which may deal with distinct classes of objects and different data representations, is handled by reasoning in the image space. We consider image understanding at two levels : object detection ans semantic segmentation. The theory of belief functions is used to model and combine the outputs of these detection modules. We emphazise the need of a fusion framework flexible enough to easily include new classes, new sensors and new object detection algorithms. In this thesis, we propose a general method to model the outputs of classical machine learning techniques as belief functions. Next, we apply our framework to the combination of pedestrian detectors using the Caltech Pedestrain Detection Benchmark. The KITTI Vision Benchmark Suite is then used to validate our approach in a semantic segmentation context using multi-modal information
|
28 |
Suivi et classification d'objets multiples : contributions avec la théorie des fonctions de croyance / Multi-object tracking and classification : contributions with belief functions theoryHachour, Samir 05 June 2015 (has links)
Cette thèse aborde le problèeme du suivi et de la classification de plusieurs objets simultanément.Il est montré dans la thèese que les fonctions de croyance permettent d'améliorer les résultatsfournis par des méthodes classiques à base d'approches Bayésiennes. En particulier, une précédenteapproche développée dans le cas d'un seul objet est étendue au cas de plusieurs objets. Il est montréque dans toutes les approches multi-objets, la phase d'association entre observations et objetsconnus est fondamentale. Cette thèse propose également de nouvelles méthodes d'associationcrédales qui apparaissent plus robustes que celles trouvées dans la littérature. Enfin, est abordée laquestion de la classification multi-capteurs qui nécessite une seconde phase d'association. Dans cedernier cas, deux architectures de fusion des données capteurs sont proposées, une dite centraliséeet une autre dite distribuée. De nombreuses comparaisons illustrent l'intérêt de ces travaux, queles classes des objets soient constantes ou variantes dans le temps. / This thesis deals with multi-objet tracking and classification problem. It was shown that belieffunctions allow the results of classical Bayesian methods to be improved. In particular, a recentapproach dedicated to a single object classification which is extended to multi-object framework. Itwas shown that detected observations to known objects assignment is a fundamental issue in multiobjecttracking and classification solutions. New assignment solutions based on belief functionsare proposed in this thesis, they are shown to be more robust than the other credal solutions fromrecent literature. Finally, the issue of multi-sensor classification that requires a second phase ofassignment is addressed. In the latter case, two different multi-sensor architectures are proposed, aso-called centralized one and another said distributed. Many comparisons illustrate the importanceof this work, in both situations of constant and changing objects classes.
|
29 |
Evidential calibration and fusion of multiple classifiers : application to face blurring / Calibration et fusion évidentielles de classifieurs : application à l'anonymisation de visagesMinary, Pauline 08 December 2017 (has links)
Afin d’améliorer les performances d’un problème de classification, une piste de recherche consiste à utiliser plusieurs classifieurs et à fusionner leurs sorties. Pour ce faire, certaines approches utilisent une règle de fusion. Cela nécessite que les sorties soient d’abord rendues comparables, ce qui est généralement effectué en utilisant une calibration probabiliste de chaque classifieur. La fusion peut également être réalisée en concaténant les sorties et en appliquant à ce vecteur une calibration probabiliste conjointe. Récemment, des extensions des calibrations d’un classifieur individuel ont été proposées en utilisant la théorie de l’évidence, afin de mieux représenter les incertitudes. Premièrement, cette idée est adaptée aux techniques de calibrations probabilistes conjointes, conduisant à des versions évidentielles. Cette approche est comparée à celles mentionnées ci-dessus sur des jeux de données de classification classiques. Dans la seconde partie, le problème d’anonymisation de visages sur des images, auquel SNCF doit répondre, est considéré. Une méthode consiste à utiliser plusieurs détecteurs de visages, qui retournent des boites et des scores de confiance associés, et à combiner ces sorties avec une étape d’association et de calibration évidentielle. Il est montré que le raisonnement au niveau pixel est plus intéressant que celui au niveau boite et que, parmi les approches de fusion abordées dans la première partie, la calibration conjointe évidentielle donne les meilleurs résultats. Enfin, le cas des images provenant de vidéos est considéré. Pour tirer parti de l’information contenue dans les vidéos, un algorithme de suivi classique est ajouté au système. / In order to improve overall performance of a classification problem, a path of research consists in using several classifiers and to fuse their outputs. To perform this fusion, some approaches merge the outputs using a fusion rule. This requires that the outputs be made comparable beforehand, which is usually done using a probabilistic calibration of each classifier. The fusion can also be performed by concatenating the classifier outputs into a vector, and applying a joint probabilistic calibration to it. Recently, extensions of probabilistic calibrations of an individual classifier have been proposed using evidence theory, in order to better represent the uncertainties inherent to the calibration process. In the first part of this thesis, this latter idea is adapted to joint probabilistic calibration techniques, leading to evidential versions. This approach is then compared to the aforementioned ones on classical classification datasets. In the second part, the challenging problem of blurring faces on images, which SNCF needs to address, is tackled. A state-of-the-art method for this problem is to use several face detectors, which return boxes with associated confidence scores, and to combine their outputs using an association step and an evidential calibration. In this report, it is shown that reasoning at the pixel level is more interesting than reasoning at the box-level, and that among the fusion approaches discussed in the first part, the evidential joint calibration yields the best results. Finally, the case of images coming from videos is considered. To leverage the information contained in videos, a classical tracking algorithm is added to the blurring system.
|
30 |
Influencers characterization in a social network for viral marketing perspectives / Caractérisation des influenceurs dans un réseau social pour des perspectives de Marketing viralJendoubi, Siwar 16 December 2016 (has links)
Le marketing viral est une nouvelle forme de marketing qui exploite les réseaux sociaux afin de promouvoir un produit, une marque, etc. Il se fonde sur l'influence qu'exerce un utilisateur sur un autre. La maximisation de l'influence est le problème scientifique pour le marketing viral. En fait, son but principal est de sélectionner un ensemble d'utilisateurs d'influences qui pourraient adopter le produit et déclencher une large cascade d'influence et d'adoption à travers le réseau. Dans cette thèse, nous proposons deux modèles de maximisation de l'influence sur les réseaux sociaux. L'approche proposée utilise la théorie des fonctions de croyance pour estimer l'influence des utilisateurs. En outre, nous introduisons une mesure d'influence qui fusionne de nombreux aspects d'influence, comme l'importance de l'utilisateur sur le réseau et la popularité de ces messages. Ensuite, nous proposons trois scénarii de marketing viral. Pour chaque scénario, nous introduisons deux mesures d'influence. Le premier scénario cherche les influenceurs ayant une opinion positive sur le produit. Le second scénario concerne les influenceurs ayant une opinion positive et qui influencent des utilisateurs ayant une opinion positive et le dernier scénario cherche des influenceurs ayant une opinion positive et qui influencent des utilisateurs ayant une opinion négative. Dans un deuxième lieu, nous nous sommes tournés vers un autre problème important, qui est le problème de la prédiction du sujet du message social. En effet, le sujet est également un paramètre important dans le problème de la maximisation de l'influence. A cet effet, nous introduisons quatre algorithmes de classification qui ne nécessitent pas le contenu du message pour le classifier, nous avons juste besoin de ces traces de propagation. Dans nos expérimentations, nous comparons les solutions proposées aux solutions existantes et nous montrons la performance des modèles de maximisation de l'influence et les classificateurs proposés. / The Viral Marketing is a relatively new form of marketing that exploits social networks in order to promote a product, a brand, etc. It is based on the influence that exerts one user on another. The influence maximization is the scientific problem for the Viral Marketing. In fact, its main purpose is to select a set of influential users that could adopt the product and trigger a large cascade of influence and adoptions through the network. In this thesis, we propose two evidential influence maximization models for social networks. The proposed approach uses the theory of belief functions to estimate users influence. Furthermore, we introduce an influence measure that fuses many influence aspects, like the importance of the user in the network and the popularity of his messages. Next, we propose three Viral Marketing scenarios. For each scenario we introduce two influence measures. The first scenario is about influencers having a positive opinion about the product. The second scenario searches for influencers having a positive opinion and influence positive opinion users and the last scenario looks for influencers having a positive opinion and influence negative opinion users. On the other hand, we turned to another important problem which is about the prediction of the social message topic. Indeed, the topic is also an important parameter in the influence maximization problem. For this purpose, we introduce four classification algorithms that do not need the content of the message to classify it, they just need its propagation traces. In our experiments, we compare the proposed solutions to existing ones and we show the performance of the proposed influence maximization solutions and the proposed classifiers.
|
Page generated in 0.0873 seconds