• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 2
  • Tagged with
  • 8
  • 8
  • 8
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Méthodes d'apprentissage pour la classification multi label / Learning methods for multi-label classification

Kanj, Sawsan 06 May 2013 (has links)
La classification multi-label est une extension de la classification traditionnelle dans laquelle les classes ne sont pas mutuellement exclusives, chaque individu pouvant appartenir à plusieurs classes simultanément. Ce type de classification est requis par un grand nombre d’applications actuelles telles que la classification d’images et l’annotation de vidéos. Le principal objectif de cette thèse est la proposition de nouvelles méthodes pour répondre au problème de classification multi-label. La première partie de cette thèse s’intéresse au problème d’apprentissage multi-label dans le cadre des fonctions de croyance. Nous développons une méthode capable de tenir compte des corrélations entre les différentes classes et de classer les individus en utilisant le formalisme de représentation de l’incertitude pour les variables multi-valuées. La deuxième partie aborde le problème de l’édition des bases d’apprentissage pour la classification multi-label. Nous proposons un algorithme basé sur l’approche des k-plus proches voisins qui permet de détecter les exemples erronés dans l’ensemble d’apprentissage. Des expérimentations menées sur des jeux de données synthétiques et réelles montrent l’intérêt des approches étudiées. / Multi-label classification is an extension of traditional single-label classification, where classes are not mutually exclusive, and each example can be assigned by several classes simultaneously . It is encountered in various modern applications such as scene classification and video annotation. the main objective of this thesis is the development of new techniques to adress the problem of multi-label classification that achieves promising classification performance. the first part of this manuscript studies the problem of multi-label classification in the context of the theory of belief functions. We propose a multi-label learning method that is able to take into account relationships between labels ant to classify new instances using the formalism of representation of uncertainty for set-valued variables. The second part deals withe the problem of prototype selection in the framework of multi-label learning. We propose an editing algorithm based on the k-nearest neighbor rule in order to purify training dataset and improve the performances of multi-label classification algorithms. Experimental results on synthetic and real-world datasets show the effectiveness of our approaches.
2

Exploitation du conflit entre capteurs pour la gestion d'un système complexe multi-capteurs / Exploitation of conflict between sensors for the management of a complex multisensor system

Roquel, Arnaud 12 December 2012 (has links)
Les systèmes complexes intègrent aujourd’hui de nombreux capteurs physiques ou logiques qui facilitent la prise de décisions optimales en fonction de l’exosystème et de l’endosystème. Ces capteurs sont des sources de données, qui délivrent des informations partielles, imprécises et/ou incertaines, partiellement complémentaires et partiellement redondantes. La théorie des fonctions de croyances offre un cadre formel adapté à la représentation de l’imprécision et de l’incertitude des informations. Cependant, même en modélisant l’ignorance et l’imprécision des sources, l’absence de conflit entre les sources n’est toutefois pas garantie.Dans la théorie des fonctions de croyances, le désaccord entre sources est classiquement mesuré en termes de conflit ‘Dempsterien’, celui résultant de la combinaison conjonctive des sources, ou de dis-similarité ou distances entre fonctions de croyance. Toutes ces mesures sont globales, et ne donnent pas d’information directe sur la source du conflit.La contribution principale de cette thèse est de décomposer le conflit Dempsterien dans le but d'analyser celui-ci. Nous proposons une décomposition par rapport aux différentes hypothèses simples ou composées, issues de l'espace de discernement. Nous montrons l’unicité de cette décomposition et explicitons l’algorithme de calcul, à partir de la décomposition canonique de la fonction de croyance. Nous interprétons alors chacun des termes de la décomposition comme la contribution au conflit global, apportée par chaque hypothèse simple ou composée. Cette décomposition s’applique à l’analyse du confit intra-source (i.e. le conflit inhérent à la source) ou du conflit inter-sources (i.e. le conflit qui apparait lors de la fusion des sources). Nous illustrons sur des exemples jouets comment l’observation de la répartition du conflit par rapport aux différentes hypothèses peut permettre l’identification de l’origine de certains conflits. Trois applications de notre mesure sont ensuite développées, afin d’illustrer son utilité.La première application concerne la détection préventive de chute un véhicule type bicycle (moto). Les sources de données sont les accélérations mesurées sur les deux roues. Un conflit entre ces mesures, supposées hautement redondantes, voire corrélées, sera alors interprété comme un début de chute. Nous montrons que la décomposition du conflit fournit un indicateur de chute plus fin et précoce que la mesure du conflit Dempsterien.La deuxième application concerne la localisation de véhicule, problème essentiel pour l’autonomie des véhicules d'exploration comme des robots de service. Les sources sont des sorties d’algorithmes d’estimation de mouvement du véhicule. Nous montrons d’abord qu’estimer dynamiquement la fiabilité des sources permet d’améliorer la fusion. Nous montrons ensuite que la décomposition du conflit permet une mesure plus fine de la fiabilité de la fusion que la mesure du conflit Dempsterien. En cas de conflit détecté, l’estimation de la fiabilité de chaque source est ensuite fondée sur la vérification (ou non) d’une hypothèse de régularité temporelle, vérification elle-même basée sur une mesure de distance locale aux hypothèses simples ou composées. La troisième application propose une généralisation de la combinaison hybride de Dubois Prade au cas de la combinaison à N sources. Notre mesure calculant le conflit partiel associé à chaque sous-ensemble d’hypothèses, en nous inspirant du principe de la règle de combinaison hybride, nous redistribuons la masse de ce conflit partiel à la disjonction des hypothèses du sous-ensemble. La décomposition du conflit permet d’identifier de manière unique les différents sous-ensembles d’hypothèses contribuant au conflit.En conclusion, les travaux ont montré que l’information issue de la mesure du conflit, et de sa décomposition, pouvait (devait) être considérée comme une information à part entière, permettant notamment la gestion des sources et des croyances à fusionner. / Complex systems are now integrating many sensors, physical or logical, in order to be able to take the best decision knowing the exosystem and endosystem. These sensors are data sources, which deliver partial information, imprecise and/or uncertain, partially complementary and partially redundant. The theory of belief functions is now widely used in data fusion because it provides a formal framework for the representation of both imprecise and uncertainty information. However, even modeling the ignorance and the imprecision of the sources, the source combination usually lets appear some disagreement/conflict between sources.A disagreement between sources makes the system unstable and can impact the decision. Thus, for managing the disagreement, several authors have developed different combination rules where the “Dempster's conflict” is transferred to a set of elements. A few works have proposed to consider the conflict as a piece of information exploitable beyond the scope of the combination. In this work, we aim at decomposing the Dempster's conflict in order to better interpret it. We propose a decomposition with respect to different assumptions simple or compound of discernment space. We show the uniqueness of this decomposition and we specify the algorithm, based on the canonical decomposition of belief function. We then interpret each term of the decomposition as the contribution, to global conflict, brought by each hypothesis simple or compound. This decomposition is applied to the analysis of intra-conflict source (i.e. the conflict inherent in the source) or inter-conflict sources (i.e. the conflict appearing during the fusion of sources). We illustrate on toy examples how observing the distribution of conflict with respect to different assumptions may allow the identification of the origin of some conflicts.Three applications of our measurement have been developed to illustrate its usefulness.The first application deals with the preventive detection of fall for motorbike. Typical data sources are speed and accelerations measured on each of the two wheels. A conflict between these measures, supposed highly redundant or even correlated, should be interpreted as an early fall (sliding, shock). We show that the decomposition of conflict provides a finer and earlier indicator of fall than Dempster's conflict.The second application is the localization of the vehicle, the key issue being for autonomous exploration vehicles such as service robots. The sources are outputs of algorithms estimating the movement of the vehicle (such as odometers, visual odometry, FastSLAM). We first show that estimating the reliability of sources dynamically improves fusion. We then show that the decomposition of conflict allows a more refined measure of the fusion reliability than Dempster's conflict. Now, when conflict is detected, the estimation of the reliability of each source is based on the verification (or not) of an assumption of temporal regularity, verification itself based on a distance measure local to the discernment space hypotheses.The third application is the generalization of the hybrid combination [Dubois and Prade, 1988] to the case of N sources. Our measure calculates the partial conflicts associated with each subset of hypotheses. Following the hybrid combination [Dubois and Prade, 1988] principle, we redistribute the mass associated to a partial conflict on the disjunction of the hypotheses involving this partial conflict. In this redistribution, our decomposition of the conflict is essential since it allows identifying uniquely the various sub-sets of hypotheses involving partial conflicts.In conclusion, this work has shown that the information derived from the conflict measurement, and its decomposition could (should) be considered a full information, particularly for the management of sources and beliefs to combine.
3

Exploitation du conflit entre capteurs pour la gestion d'un système complexe multi-capteurs

Roquel, Arnaud 12 December 2012 (has links) (PDF)
Les systèmes complexes intègrent aujourd'hui de nombreux capteurs physiques ou logiques qui facilitent la prise de décisions optimales en fonction de l'exosystème et de l'endosystème. Ces capteurs sont des sources de données, qui délivrent des informations partielles, imprécises et/ou incertaines, partiellement complémentaires et partiellement redondantes. La théorie des fonctions de croyances offre un cadre formel adapté à la représentation de l'imprécision et de l'incertitude des informations. Cependant, même en modélisant l'ignorance et l'imprécision des sources, l'absence de conflit entre les sources n'est toutefois pas garantie.Dans la théorie des fonctions de croyances, le désaccord entre sources est classiquement mesuré en termes de conflit 'Dempsterien', celui résultant de la combinaison conjonctive des sources, ou de dis-similarité ou distances entre fonctions de croyance. Toutes ces mesures sont globales, et ne donnent pas d'information directe sur la source du conflit.La contribution principale de cette thèse est de décomposer le conflit Dempsterien dans le but d'analyser celui-ci. Nous proposons une décomposition par rapport aux différentes hypothèses simples ou composées, issues de l'espace de discernement. Nous montrons l'unicité de cette décomposition et explicitons l'algorithme de calcul, à partir de la décomposition canonique de la fonction de croyance. Nous interprétons alors chacun des termes de la décomposition comme la contribution au conflit global, apportée par chaque hypothèse simple ou composée. Cette décomposition s'applique à l'analyse du confit intra-source (i.e. le conflit inhérent à la source) ou du conflit inter-sources (i.e. le conflit qui apparait lors de la fusion des sources). Nous illustrons sur des exemples jouets comment l'observation de la répartition du conflit par rapport aux différentes hypothèses peut permettre l'identification de l'origine de certains conflits. Trois applications de notre mesure sont ensuite développées, afin d'illustrer son utilité.La première application concerne la détection préventive de chute un véhicule type bicycle (moto). Les sources de données sont les accélérations mesurées sur les deux roues. Un conflit entre ces mesures, supposées hautement redondantes, voire corrélées, sera alors interprété comme un début de chute. Nous montrons que la décomposition du conflit fournit un indicateur de chute plus fin et précoce que la mesure du conflit Dempsterien.La deuxième application concerne la localisation de véhicule, problème essentiel pour l'autonomie des véhicules d'exploration comme des robots de service. Les sources sont des sorties d'algorithmes d'estimation de mouvement du véhicule. Nous montrons d'abord qu'estimer dynamiquement la fiabilité des sources permet d'améliorer la fusion. Nous montrons ensuite que la décomposition du conflit permet une mesure plus fine de la fiabilité de la fusion que la mesure du conflit Dempsterien. En cas de conflit détecté, l'estimation de la fiabilité de chaque source est ensuite fondée sur la vérification (ou non) d'une hypothèse de régularité temporelle, vérification elle-même basée sur une mesure de distance locale aux hypothèses simples ou composées. La troisième application propose une généralisation de la combinaison hybride de Dubois Prade au cas de la combinaison à N sources. Notre mesure calculant le conflit partiel associé à chaque sous-ensemble d'hypothèses, en nous inspirant du principe de la règle de combinaison hybride, nous redistribuons la masse de ce conflit partiel à la disjonction des hypothèses du sous-ensemble. La décomposition du conflit permet d'identifier de manière unique les différents sous-ensembles d'hypothèses contribuant au conflit.En conclusion, les travaux ont montré que l'information issue de la mesure du conflit, et de sa décomposition, pouvait (devait) être considérée comme une information à part entière, permettant notamment la gestion des sources et des croyances à fusionner.
4

Modèles graphiques de l'évaluation de Sûreté de Fonctionnement et l'analyse des risques des Systèmes de Systèmes en présence d'incertitudes / Graphical models for RAMS assessment and risk analysis of Systems of Systems under uncertainty

Qiu, Siqi 05 December 2014 (has links)
Les Systèmes de Systèmes (SdSs) sont des grands systèmes dont les composants sont eux-mêmes des systèmes qui interagissent en vue de la réalisation de certaines fonctions, et pour lesquels le dysfonctionnement d'un seul système peut avoir des conséquences graves sur le fonctionnement du SdS entier. Il est donc important que la conception de ces SdSs tienne compte des exigences de Sûreté de Fonctionnement (SdF) et notamment de leur fiabilité et leur disponibilité quand ils sont sollicités. Par ailleurs, il est nécessaire qu'elle s'assure, par le biais d'analyses quantitatives, du respect de ces exigences. L'incertitude est également une partie importante de la thèse, parce qu'il y a toujours des différences entre un système et sa représentation par un modèle. L’objectif de cette thèse est de proposer une méthodologie de conception sûre des SdSs. Il s'agit dans un premier temps de proposer un modèle dysfonctionnel du SdS global intégrant les aspects matériels, les aspects réseaux ainsi que le facteur humain. Dans un second temps, il s'agit d'évaluer des exigences de SdF. Dans un troisième temps, il s'agit de prendre en compte de différents types d'incertitudes dans les modèles. Concernant la partie applicative, le sujet s'articulerait autour de la conception sûre d'un système ferroviaire. La contribution principale de cette thèse réside dans trois aspects. Premièrement, on propose une méthodologie générale pour modéliser des SdSs. Deuxièmement, on considère l'ERTMS Niveau 2 comme un SdS et évalue ses exigences de SdF en tenant compte de l'indisponibilité du SdS comme une propriété émergente. Troisièmement, on modélise quantitativement différents types d'incertitudes dans les modèles proposés en utilisant les théories probabilistes et non probabilistes. / Systems of Systems (SoS) are large systems whose components are themselves systems which interact to realize a common goal, and for which the malfunction of a single system can have some serious consequences on the performance of the whole SoS. So it’s important that the design of these SoSs takes into account the dependability requirements of safety standard. In this thesis, our interests concern the modeling of SoS and the reliability analysis of SoS under uncertainty which is due to the lack of knowledge related to failure data and model. Therefore, two modeling methods which deal with different issues are applied to model SoSs and the corresponding quantitative reliability analysis is proposed. The objective of this thesis is to propose graphical models for dependability assessment and risk analysis of SoSs under uncertainty. Firstly, it will propose a dysfunctional model of the ERTMS which is considered as an SoS. The model will integrate the hardware aspect, the network aspect and the human factors. Then, it will evaluate some dependability attributes of the whole SoS. Later, it will take different kinds of uncertainties into account quantitatively. The proposed methodology is applied on the ERTMS Level 2. The main contribution of this thesis lies in three aspects. First, we propose a methodology to model and evaluate SoSs. Second, we consider ERTMS Level 2 as an SoS and seek to evaluate its dependability parameters by considering the unavailability of the whole SoS as an emergent property. Third, we model quantitatively different kinds of uncertainties in the proposed models.
5

Uncertainty management in parameter identification / Gestion des incertitudes pour l'identification des paramètres matériau

Sui, Liqi 23 January 2017 (has links)
Afin d'obtenir des simulations plus prédictives et plus précises du comportement mécanique des structures, des modèles matériau de plus en plus complexes ont été développés. Aujourd'hui, la caractérisation des propriétés des matériaux est donc un objectif prioritaire. Elle exige des méthodes et des tests d'identification dédiés dans des conditions les plus proches possible des cas de service. Cette thèse vise à développer une méthodologie d'identification efficace pour trouver les paramètres des propriétés matériau, en tenant compte de toutes les informations disponibles. L'information utilisée pour l'identification est à la fois théorique, expérimentale et empirique : l'information théorique est liée aux modèles mécaniques dont l'incertitude est épistémique; l'information expérimentale provient ici de la mesure de champs cinématiques obtenues pendant l'essai ct dont l'incertitude est aléatoire; l'information empirique est liée à l'information à priori associée à une incertitude épistémique ainsi. La difficulté principale est que l'information disponible n'est pas toujours fiable et que les incertitudes correspondantes sont hétérogènes. Cette difficulté est surmontée par l'utilisation de la théorie des fonctions de croyance. En offrant un cadre général pour représenter et quantifier les incertitudes hétérogènes, la performance de l'identification est améliorée. Une stratégie basée sur la théorie des fonctions de croyance est proposée pour identifier les propriétés élastiques macro et micro des matériaux multi-structures. Dans cette stratégie, les incertitudes liées aux modèles et aux mesures sont analysées et quantifiées. Cette stratégie est ensuite étendue pour prendre en compte l'information à priori et quantifier l'incertitude associée. / In order to obtain more predictive and accurate simulations of mechanical behaviour in the practical environment, more and more complex material models have been developed. Nowadays, the characterization of material properties remains a top-priority objective. It requires dedicated identification methods and tests in conditions as close as possible to the real ones. This thesis aims at developing an effective identification methodology to find the material property parameters, taking advantages of all available information. The information used for the identification is theoretical, experimental, and empirical: the theoretical information is linked to the mechanical models whose uncertainty is epistemic; the experimental information consists in the full-field measurement whose uncertainty is aleatory; the empirical information is related to the prior information with epistemic uncertainty as well. The main difficulty is that the available information is not always reliable and its corresponding uncertainty is heterogeneous. This difficulty is overcome by the introduction of the theory of belief functions. By offering a general framework to represent and quantify the heterogeneous uncertainties, the performance of the identification is improved. The strategy based on the belief function is proposed to identify macro and micro elastic properties of multi-structure materials. In this strategy, model and measurement uncertainties arc analysed and quantified. This strategy is subsequently developed to take prior information into consideration and quantify its corresponding uncertainty.
6

Classification of uncertain data in the framework of belief functions : nearest-neighbor-based and rule-based approaches / Classification des données incertaines dans le cadre des fonctions de croyance : la métode des k plus proches voisins et la méthode à base de règles

Jiao, Lianmeng 26 October 2015 (has links)
Dans de nombreux problèmes de classification, les données sont intrinsèquement incertaines. Les données d’apprentissage disponibles peuvent être imprécises, incomplètes, ou même peu fiables. En outre, des connaissances spécialisées partielles qui caractérisent le problème de classification peuvent également être disponibles. Ces différents types d’incertitude posent de grands défis pour la conception de classifieurs. La théorie des fonctions de croyance fournit un cadre rigoureux et élégant pour la représentation et la combinaison d’une grande variété d’informations incertaines. Dans cette thèse, nous utilisons cette théorie pour résoudre les problèmes de classification des données incertaines sur la base de deux approches courantes, à savoir, la méthode des k plus proches voisins (kNN) et la méthode à base de règles.Pour la méthode kNN, une préoccupation est que les données d’apprentissage imprécises dans les régions où les classes de chevauchent peuvent affecter ses performances de manière importante. Une méthode d’édition a été développée dans le cadre de la théorie des fonctions de croyance pour modéliser l’information imprécise apportée par les échantillons dans les régions qui se chevauchent. Une autre considération est que, parfois, seul un ensemble de données d’apprentissage incomplet est disponible, auquel cas les performances de la méthode kNN se dégradent considérablement. Motivé par ce problème, nous avons développé une méthode de fusion efficace pour combiner un ensemble de classifieurs kNN couplés utilisant des métriques couplées apprises localement. Pour la méthode à base de règles, afin d’améliorer sa performance dans les applications complexes, nous étendons la méthode traditionnelle dans le cadre des fonctions de croyance. Nous développons un système de classification fondé sur des règles de croyance pour traiter des informations incertains dans les problèmes de classification complexes. En outre, dans certaines applications, en plus de données d’apprentissage, des connaissances expertes peuvent également être disponibles. Nous avons donc développé un système de classification hybride fondé sur des règles de croyance permettant d’utiliser ces deux types d’information pour la classification. / In many classification problems, data are inherently uncertain. The available training data might be imprecise, incomplete, even unreliable. Besides, partial expert knowledge characterizing the classification problem may also be available. These different types of uncertainty bring great challenges to classifier design. The theory of belief functions provides a well-founded and elegant framework to represent and combine a large variety of uncertain information. In this thesis, we use this theory to address the uncertain data classification problems based on two popular approaches, i.e., the k-nearest neighbor rule (kNN) andrule-based classification systems. For the kNN rule, one concern is that the imprecise training data in class over lapping regions may greatly affect its performance. An evidential editing version of the kNNrule was developed based on the theory of belief functions in order to well model the imprecise information for those samples in over lapping regions. Another consideration is that, sometimes, only an incomplete training data set is available, in which case the ideal behaviors of the kNN rule degrade dramatically. Motivated by this problem, we designedan evidential fusion scheme for combining a group of pairwise kNN classifiers developed based on locally learned pairwise distance metrics.For rule-based classification systems, in order to improving their performance in complex applications, we extended the traditional fuzzy rule-based classification system in the framework of belief functions and develop a belief rule-based classification system to address uncertain information in complex classification problems. Further, considering that in some applications, apart from training data collected by sensors, partial expert knowledge can also be available, a hybrid belief rule-based classification system was developed to make use of these two types of information jointly for classification.
7

Exploitation of map data for the perception of intelligent vehicles / Exploitation des données cartographiques pour la perception de véhicules intelligents

Kurdej, Marek 05 February 2015 (has links)
La plupart des logiciels contrôlant les véhicules intelligents traite de la compréhension de la scène. De nombreuses méthodes existent actuellement pour percevoir les obstacles de façon automatique. La majorité d’entre elles emploie ainsi les capteurs extéroceptifs comme des caméras ou des lidars. Cette thèse porte sur les domaines de la robotique et de la fusion d’information et s’intéresse aux systèmes d’information géographique. Nous étudions ainsi l’utilité d’ajouter des cartes numériques, qui cartographient le milieu urbain dans lequel évolue le véhicule, en tant que capteur virtuel améliorant les résultats de perception. Les cartes contiennent en effet une quantité phénoménale d’information sur l’environnement : sa géométrie, sa topologie ainsi que d’autres informations contextuelles. Dans nos travaux, nous avons extrait la géométrie des routes et des modèles de bâtiments afin de déduire le contexte et les caractéristiques de chaque objet détecté. Notre méthode se base sur une extension de grilles d’occupations : les grilles de perception crédibilistes. Elle permet de modéliser explicitement les incertitudes liées aux données de cartes et de capteurs. Elle présente également l’avantage de représenter de façon uniforme les données provenant de différentes sources : lidar, caméra ou cartes. Les cartes sont traitées de la même façon que les capteurs physiques. Cette démarche permet d’ajouter les informations géographiques sans pour autant leur donner trop d’importance, ce qui est essentiel en présence d’erreurs. Dans notre approche, le résultat de la fusion d’information contenu dans une grille de perception est utilisé pour prédire l’état de l’environnement à l’instant suivant. Le fait d’estimer les caractéristiques des éléments dynamiques ne satisfait donc plus l’hypothèse du monde statique. Par conséquent, il est nécessaire d’ajuster le niveau de certitude attribué à ces informations. Nous y parvenons en appliquant l’affaiblissement temporel. Étant donné que les méthodes existantes n’étaient pas adaptées à cette application, nous proposons une famille d’opérateurs d’affaiblissement prenant en compte le type d’information traitée. Les algorithmes étudiés ont été validés par des tests sur des données réelles. Nous avons donc développé des prototypes en Matlab et des logiciels en C++ basés sur la plate-forme Pacpus. Grâce à eux nous présentons les résultats des expériences effectués en conditions réelles. / This thesis is situated in the domains of robotics and data fusion, and concerns geographic information systems. We study the utility of adding digital maps, which model the urban environment in which the vehicle evolves, as a virtual sensor improving the perception results. Indeed, the maps contain a phenomenal quantity of information about the environment : its geometry, topology and additional contextual information. In this work, we extract road surface geometry and building models in order to deduce the context and the characteristics of each detected object. Our method is based on an extension of occupancy grids : the evidential perception grids. It permits to model explicitly the uncertainty related to the map and sensor data. By this means, the approach presents also the advantage of representing homogeneously the data originating from various sources : lidar, camera or maps. The maps are handled on equal terms with the physical sensors. This approach allows us to add geographic information without imputing unduly importance to it, which is essential in presence of errors. In our approach, the information fusion result, stored in a perception grid, is used to predict the stateof environment on the next instant. The fact of estimating the characteristics of dynamic elements does not satisfy the hypothesis of static world. Therefore, it is necessary to adjust the level of certainty attributed to these pieces of information. We do so by applying the temporal discounting. Due to the fact that existing methods are not well suited for this application, we propose a family of discoun toperators that take into account the type of handled information. The studied algorithms have been validated through tests on real data. We have thus developed the prototypes in Matlab and the C++ software based on Pacpus framework. Thanks to them, we present the results of experiments performed in real conditions.
8

Information fusion and decision-making using belief functions : application to therapeutic monitoring of cancer / Fusion de l’information et prise de décisions à l’aide des fonctions de croyance : application au suivi thérapeutique du cancer

Lian, Chunfeng 27 January 2017 (has links)
La radiothérapie est une des méthodes principales utilisée dans le traitement thérapeutique des tumeurs malignes. Pour améliorer son efficacité, deux problèmes essentiels doivent être soigneusement traités : la prédication fiable des résultats thérapeutiques et la segmentation précise des volumes tumoraux. La tomographie d’émission de positrons au traceur Fluoro- 18-déoxy-glucose (FDG-TEP) peut fournir de manière non invasive des informations significatives sur les activités fonctionnelles des cellules tumorales. Les objectifs de cette thèse sont de proposer: 1) des systèmes fiables pour prédire les résultats du traitement contre le cancer en utilisant principalement des caractéristiques extraites des images FDG-TEP; 2) des algorithmes automatiques pour la segmentation de tumeurs de manière précise en TEP et TEP-TDM. La théorie des fonctions de croyance est choisie dans notre étude pour modéliser et raisonner des connaissances incertaines et imprécises pour des images TEP qui sont bruitées et floues. Dans le cadre des fonctions de croyance, nous proposons une méthode de sélection de caractéristiques de manière parcimonieuse et une méthode d’apprentissage de métriques permettant de rendre les classes bien séparées dans l’espace caractéristique afin d’améliorer la précision de classification du classificateur EK-NN. Basées sur ces deux études théoriques, un système robuste de prédiction est proposé, dans lequel le problème d’apprentissage pour des données de petite taille et déséquilibrées est traité de manière efficace. Pour segmenter automatiquement les tumeurs en TEP, une méthode 3-D non supervisée basée sur le regroupement évidentiel (evidential clustering) et l’information spatiale est proposée. Cette méthode de segmentation mono-modalité est ensuite étendue à la co-segmentation dans des images TEP-TDM, en considérant que ces deux modalités distinctes contiennent des informations complémentaires pour améliorer la précision. Toutes les méthodes proposées ont été testées sur des données cliniques, montrant leurs meilleures performances par rapport aux méthodes de l’état de l’art. / Radiation therapy is one of the most principal options used in the treatment of malignant tumors. To enhance its effectiveness, two critical issues should be carefully dealt with, i.e., reliably predicting therapy outcomes to adapt undergoing treatment planning for individual patients, and accurately segmenting tumor volumes to maximize radiation delivery in tumor tissues while minimize side effects in adjacent organs at risk. Positron emission tomography with radioactive tracer fluorine-18 fluorodeoxyglucose (FDG-PET) can noninvasively provide significant information of the functional activities of tumor cells. In this thesis, the goal of our study consists of two parts: 1) to propose reliable therapy outcome prediction system using primarily features extracted from FDG-PET images; 2) to propose automatic and accurate algorithms for tumor segmentation in PET and PET-CT images. The theory of belief functions is adopted in our study to model and reason with uncertain and imprecise knowledge quantified from noisy and blurring PET images. In the framework of belief functions, a sparse feature selection method and a low-rank metric learning method are proposed to improve the classification accuracy of the evidential K-nearest neighbor classifier learnt by high-dimensional data that contain unreliable features. Based on the above two theoretical studies, a robust prediction system is then proposed, in which the small-sized and imbalanced nature of clinical data is effectively tackled. To automatically delineate tumors in PET images, an unsupervised 3-D segmentation based on evidential clustering using the theory of belief functions and spatial information is proposed. This mono-modality segmentation method is then extended to co-segment tumor in PET-CT images, considering that these two distinct modalities contain complementary information to further improve the accuracy. All proposed methods have been performed on clinical data, giving better results comparing to the state of the art ones.

Page generated in 0.1037 seconds