Spelling suggestions: "subject:"fonctions dde croyances"" "subject:"fonctions dee croyances""
1 |
Méthodes d'apprentissage pour la classification multi label / Learning methods for multi-label classificationKanj, Sawsan 06 May 2013 (has links)
La classification multi-label est une extension de la classification traditionnelle dans laquelle les classes ne sont pas mutuellement exclusives, chaque individu pouvant appartenir à plusieurs classes simultanément. Ce type de classification est requis par un grand nombre d’applications actuelles telles que la classification d’images et l’annotation de vidéos. Le principal objectif de cette thèse est la proposition de nouvelles méthodes pour répondre au problème de classification multi-label. La première partie de cette thèse s’intéresse au problème d’apprentissage multi-label dans le cadre des fonctions de croyance. Nous développons une méthode capable de tenir compte des corrélations entre les différentes classes et de classer les individus en utilisant le formalisme de représentation de l’incertitude pour les variables multi-valuées. La deuxième partie aborde le problème de l’édition des bases d’apprentissage pour la classification multi-label. Nous proposons un algorithme basé sur l’approche des k-plus proches voisins qui permet de détecter les exemples erronés dans l’ensemble d’apprentissage. Des expérimentations menées sur des jeux de données synthétiques et réelles montrent l’intérêt des approches étudiées. / Multi-label classification is an extension of traditional single-label classification, where classes are not mutually exclusive, and each example can be assigned by several classes simultaneously . It is encountered in various modern applications such as scene classification and video annotation. the main objective of this thesis is the development of new techniques to adress the problem of multi-label classification that achieves promising classification performance. the first part of this manuscript studies the problem of multi-label classification in the context of the theory of belief functions. We propose a multi-label learning method that is able to take into account relationships between labels ant to classify new instances using the formalism of representation of uncertainty for set-valued variables. The second part deals withe the problem of prototype selection in the framework of multi-label learning. We propose an editing algorithm based on the k-nearest neighbor rule in order to purify training dataset and improve the performances of multi-label classification algorithms. Experimental results on synthetic and real-world datasets show the effectiveness of our approaches.
|
2 |
Incertitude des données biomécaniques : modélisation et propagation dans les modèles de diagnostic des pathologies du système musculosquelettique / Uncertainty of biomechanical data : modeling and propagation in the diagnostics models of diseases of musculoskeletal systemHoang, Tuan Nha 16 December 2014 (has links)
Les pathologies du système musculosquelettique concernant les déformations / anomalies osseuses et musculaires (e.g. paralysie cérébrale) ont un fort impact sur la qualité de vie des personnes concernées. Les objectifs de la thèse sont d’approfondir les études précédentes en intégrant la modélisation de l’incertitude des données biomécaniques et biomédicales dans les modèles de diagnostic prédictif des pathologies du système musculosquelettique. L’intervalle a été choisi pour représenter l’incertitude des données biomécaniques. Ce formalisme est simple et peu coûteux sur le plan du calcul. Les données (physiologiques, morphologiques, mécaniques et analyse du mouvement) ont été recueillies à partir de la littérature en utilisant les moteurs de recherche des articles scientifiques fiables pour établir un espace d’incertitude. La nouvelle méthode de classement (nommée US-ECM) proposée est une méthode de classement semi-supervisé qui utilise la partition crédale pour représenter les connaissances partielles sur les clusters. L’utilisation de la fonction de croyance pour représenter ces éléments de connaissance permet de les combiner d’une manière souple et robuste. De plus, l’extension de cette méthode avec un espace d’incertitude multidimensionnelle a montré la meilleure performance par rapport à la version originale. L’analyse des avis d’expert permettra d’inclure ou d’exclure les sources de données selon leurs niveaux de fiabilité. Ensuite, le modèle de regroupement (US-ECM) développé sera appliqué sur une nouvelle base de données pour évaluer l’impact de la fiabilité des données sur la performance de diagnostic. / The aim of the project is to investigate the modeling of the reliability/incertitude/imprecision of biomedical and biomechanics data (medical images, kinematics/kinetics/EMG data, etc.) and its propagation in the predictive diagnosls models of the disorders of musculoskeletal systems. These diagnosis models will be based on multimodal and multidimensional patient data (3D medical imaging, mechanical data,dinical data,etc.). The literature-based data have been collected to estabish an uncertainty space, which represents fused data from multiple sources, of morphological, mechanical, and movement analysis properties of the musculoskeletal system from multiple sources (i.e. research papers from Science Direct and Pubmed). After that,a new clustering method (US-ECM) is proposed for integrating fused data from multiple sources ln form of a multidimensional uncertainty space (US). Reliability of biomechanical data was evaluated by a fusion approach expert opinion. Reliability criteria of a data source (ie scientific paper published) focus on the technique used the acquisition protocol and measurement and the number of data. A system of questionnaires was developed to co!lect expert opinion. Then, the theory of beliet functions has been applied to merge these opinion to establish a confidence level each data source.
|
3 |
Exploitation du conflit entre capteurs pour la gestion d'un système complexe multi-capteurs / Exploitation of conflict between sensors for the management of a complex multisensor systemRoquel, Arnaud 12 December 2012 (has links)
Les systèmes complexes intègrent aujourd’hui de nombreux capteurs physiques ou logiques qui facilitent la prise de décisions optimales en fonction de l’exosystème et de l’endosystème. Ces capteurs sont des sources de données, qui délivrent des informations partielles, imprécises et/ou incertaines, partiellement complémentaires et partiellement redondantes. La théorie des fonctions de croyances offre un cadre formel adapté à la représentation de l’imprécision et de l’incertitude des informations. Cependant, même en modélisant l’ignorance et l’imprécision des sources, l’absence de conflit entre les sources n’est toutefois pas garantie.Dans la théorie des fonctions de croyances, le désaccord entre sources est classiquement mesuré en termes de conflit ‘Dempsterien’, celui résultant de la combinaison conjonctive des sources, ou de dis-similarité ou distances entre fonctions de croyance. Toutes ces mesures sont globales, et ne donnent pas d’information directe sur la source du conflit.La contribution principale de cette thèse est de décomposer le conflit Dempsterien dans le but d'analyser celui-ci. Nous proposons une décomposition par rapport aux différentes hypothèses simples ou composées, issues de l'espace de discernement. Nous montrons l’unicité de cette décomposition et explicitons l’algorithme de calcul, à partir de la décomposition canonique de la fonction de croyance. Nous interprétons alors chacun des termes de la décomposition comme la contribution au conflit global, apportée par chaque hypothèse simple ou composée. Cette décomposition s’applique à l’analyse du confit intra-source (i.e. le conflit inhérent à la source) ou du conflit inter-sources (i.e. le conflit qui apparait lors de la fusion des sources). Nous illustrons sur des exemples jouets comment l’observation de la répartition du conflit par rapport aux différentes hypothèses peut permettre l’identification de l’origine de certains conflits. Trois applications de notre mesure sont ensuite développées, afin d’illustrer son utilité.La première application concerne la détection préventive de chute un véhicule type bicycle (moto). Les sources de données sont les accélérations mesurées sur les deux roues. Un conflit entre ces mesures, supposées hautement redondantes, voire corrélées, sera alors interprété comme un début de chute. Nous montrons que la décomposition du conflit fournit un indicateur de chute plus fin et précoce que la mesure du conflit Dempsterien.La deuxième application concerne la localisation de véhicule, problème essentiel pour l’autonomie des véhicules d'exploration comme des robots de service. Les sources sont des sorties d’algorithmes d’estimation de mouvement du véhicule. Nous montrons d’abord qu’estimer dynamiquement la fiabilité des sources permet d’améliorer la fusion. Nous montrons ensuite que la décomposition du conflit permet une mesure plus fine de la fiabilité de la fusion que la mesure du conflit Dempsterien. En cas de conflit détecté, l’estimation de la fiabilité de chaque source est ensuite fondée sur la vérification (ou non) d’une hypothèse de régularité temporelle, vérification elle-même basée sur une mesure de distance locale aux hypothèses simples ou composées. La troisième application propose une généralisation de la combinaison hybride de Dubois Prade au cas de la combinaison à N sources. Notre mesure calculant le conflit partiel associé à chaque sous-ensemble d’hypothèses, en nous inspirant du principe de la règle de combinaison hybride, nous redistribuons la masse de ce conflit partiel à la disjonction des hypothèses du sous-ensemble. La décomposition du conflit permet d’identifier de manière unique les différents sous-ensembles d’hypothèses contribuant au conflit.En conclusion, les travaux ont montré que l’information issue de la mesure du conflit, et de sa décomposition, pouvait (devait) être considérée comme une information à part entière, permettant notamment la gestion des sources et des croyances à fusionner. / Complex systems are now integrating many sensors, physical or logical, in order to be able to take the best decision knowing the exosystem and endosystem. These sensors are data sources, which deliver partial information, imprecise and/or uncertain, partially complementary and partially redundant. The theory of belief functions is now widely used in data fusion because it provides a formal framework for the representation of both imprecise and uncertainty information. However, even modeling the ignorance and the imprecision of the sources, the source combination usually lets appear some disagreement/conflict between sources.A disagreement between sources makes the system unstable and can impact the decision. Thus, for managing the disagreement, several authors have developed different combination rules where the “Dempster's conflict” is transferred to a set of elements. A few works have proposed to consider the conflict as a piece of information exploitable beyond the scope of the combination. In this work, we aim at decomposing the Dempster's conflict in order to better interpret it. We propose a decomposition with respect to different assumptions simple or compound of discernment space. We show the uniqueness of this decomposition and we specify the algorithm, based on the canonical decomposition of belief function. We then interpret each term of the decomposition as the contribution, to global conflict, brought by each hypothesis simple or compound. This decomposition is applied to the analysis of intra-conflict source (i.e. the conflict inherent in the source) or inter-conflict sources (i.e. the conflict appearing during the fusion of sources). We illustrate on toy examples how observing the distribution of conflict with respect to different assumptions may allow the identification of the origin of some conflicts.Three applications of our measurement have been developed to illustrate its usefulness.The first application deals with the preventive detection of fall for motorbike. Typical data sources are speed and accelerations measured on each of the two wheels. A conflict between these measures, supposed highly redundant or even correlated, should be interpreted as an early fall (sliding, shock). We show that the decomposition of conflict provides a finer and earlier indicator of fall than Dempster's conflict.The second application is the localization of the vehicle, the key issue being for autonomous exploration vehicles such as service robots. The sources are outputs of algorithms estimating the movement of the vehicle (such as odometers, visual odometry, FastSLAM). We first show that estimating the reliability of sources dynamically improves fusion. We then show that the decomposition of conflict allows a more refined measure of the fusion reliability than Dempster's conflict. Now, when conflict is detected, the estimation of the reliability of each source is based on the verification (or not) of an assumption of temporal regularity, verification itself based on a distance measure local to the discernment space hypotheses.The third application is the generalization of the hybrid combination [Dubois and Prade, 1988] to the case of N sources. Our measure calculates the partial conflicts associated with each subset of hypotheses. Following the hybrid combination [Dubois and Prade, 1988] principle, we redistribute the mass associated to a partial conflict on the disjunction of the hypotheses involving this partial conflict. In this redistribution, our decomposition of the conflict is essential since it allows identifying uniquely the various sub-sets of hypotheses involving partial conflicts.In conclusion, this work has shown that the information derived from the conflict measurement, and its decomposition could (should) be considered a full information, particularly for the management of sources and beliefs to combine.
|
4 |
Performance shaping factor based human reliability assessment using valuation-based systems : application to railway operations / Évaluation de la fiabilité humaine basée sur des facteurs affectant la performance en utilisant un modèle graphique d'incertitude : application à l'exploitation ferroviaireRangra, Subeer 03 October 2017 (has links)
L'homme reste l'un des éléments essentiels des opérations de transport modernes. Les méthodes d'analyse de la fiabilité humaine (HRA) fournissent une approche multidisciplinaire pour évaluer l'interaction entre les humains et le système. Cette thèse propose une nouvelle méthodologie HRA appelée PRELUDE (Performance shaping factor based human REliability assessment using vaLUation-baseD systems). Les facteurs de performance sont utilisés pour caractériser un contexte opérationnel dangereux. Le cadre de la théorie des fonctions de croyance et des systèmes d'évaluation (VBS) utilise des règles mathématiques pour formaliser l'utilisation de données d'experts et la construction d'un modèle de fiabilité humaine, il est capable de représenter toutes sortes d'incertitudes. Pour prédire la probabilité d'erreur humaine dans un contexte donné, et de fournir une remontée formelle pour réduire cette probabilité. La deuxième partie de ce travail démontre la faisabilité de PRELUDE avec des données empiriques. Un protocole pour obtenir des données à partir de simulateurs, et une méthode de transformation et d'analyse des données sont présentés. Une campagne expérimentale sur simulateur est menée pour illustrer la proposition. Ainsi, PRELUDE est en mesure d'intégrer des données provenant de sources (empiriques et expertes) et de types (objectifs et subjectifs) différents. Cette thèse aborde donc le problème de l'analyse des erreurs humaines, en tenant compte de l'évolution du domaine des méthodes HRA. Elle garde la facilité d'utilisation de l'industrie ferroviaire, fournissant des résultats qui peuvent facilement être intégrés avec les analyses de risques traditionnelles. Dans un monde de plus en plus complexe et exigeant, PRELUDE fournira aux opérateurs ferroviaires et aux autorités réglementaires une méthode permettant de s'assurer que le risque lié à l'interaction humaine est compris et géré de manière appropriée dans son contexte. / Humans are and remain one of the critical constituents of modern transport operations. Human Reliability Analysis (HRA) methods provide a multi-disciplinary approach: systems engineering and cognitive science methods to evaluate the interaction between humans and the system. This thesis proposes a novel HRA methodology acronymed PRELUDE (Performance shaping factor based human REliability assessment using vaLUation-baseD systEms). Performance shaping factors (PSFs) are used to characterize a dangerous operational context. The proposed framework of Valuation-based System (VBS) and belief functions theory (BFT) uses mathematical rules to formalize the use of expert data and construction of a human reliability model capable of representing all kinds of uncertainty. PRELUDE is able to predict the human error probability given a context, and also provide a formal feedback to reduce the said probability. The second part of this work demonstrates the feasibility of PRELUDE with empirical data from simulators. A protocol to obtain data, a transformation and data analysis method is presented. An experimental simulator campaign is carried out to illustrate the proposition. Thus, PRELUDE is able to integrate data from multiple sources (empirical and expert) and types (objective and subjective). This thesis, hence address the problem of human error analysis, taking into account the evolution of the HRA domain over the years by proposing a novel HRA methodology. It also keeps the rail industry’s usability in mind, providing a quantitative results which can easily be integrated with traditional risk analyses. In an increasingly complex and demanding world, PRELUDE will provide rail operators and regulatory authorities a method to ensure human interaction-related risk is understood and managed appropriately in its context.
|
5 |
Exploitation du conflit entre capteurs pour la gestion d'un système complexe multi-capteursRoquel, Arnaud 12 December 2012 (has links) (PDF)
Les systèmes complexes intègrent aujourd'hui de nombreux capteurs physiques ou logiques qui facilitent la prise de décisions optimales en fonction de l'exosystème et de l'endosystème. Ces capteurs sont des sources de données, qui délivrent des informations partielles, imprécises et/ou incertaines, partiellement complémentaires et partiellement redondantes. La théorie des fonctions de croyances offre un cadre formel adapté à la représentation de l'imprécision et de l'incertitude des informations. Cependant, même en modélisant l'ignorance et l'imprécision des sources, l'absence de conflit entre les sources n'est toutefois pas garantie.Dans la théorie des fonctions de croyances, le désaccord entre sources est classiquement mesuré en termes de conflit 'Dempsterien', celui résultant de la combinaison conjonctive des sources, ou de dis-similarité ou distances entre fonctions de croyance. Toutes ces mesures sont globales, et ne donnent pas d'information directe sur la source du conflit.La contribution principale de cette thèse est de décomposer le conflit Dempsterien dans le but d'analyser celui-ci. Nous proposons une décomposition par rapport aux différentes hypothèses simples ou composées, issues de l'espace de discernement. Nous montrons l'unicité de cette décomposition et explicitons l'algorithme de calcul, à partir de la décomposition canonique de la fonction de croyance. Nous interprétons alors chacun des termes de la décomposition comme la contribution au conflit global, apportée par chaque hypothèse simple ou composée. Cette décomposition s'applique à l'analyse du confit intra-source (i.e. le conflit inhérent à la source) ou du conflit inter-sources (i.e. le conflit qui apparait lors de la fusion des sources). Nous illustrons sur des exemples jouets comment l'observation de la répartition du conflit par rapport aux différentes hypothèses peut permettre l'identification de l'origine de certains conflits. Trois applications de notre mesure sont ensuite développées, afin d'illustrer son utilité.La première application concerne la détection préventive de chute un véhicule type bicycle (moto). Les sources de données sont les accélérations mesurées sur les deux roues. Un conflit entre ces mesures, supposées hautement redondantes, voire corrélées, sera alors interprété comme un début de chute. Nous montrons que la décomposition du conflit fournit un indicateur de chute plus fin et précoce que la mesure du conflit Dempsterien.La deuxième application concerne la localisation de véhicule, problème essentiel pour l'autonomie des véhicules d'exploration comme des robots de service. Les sources sont des sorties d'algorithmes d'estimation de mouvement du véhicule. Nous montrons d'abord qu'estimer dynamiquement la fiabilité des sources permet d'améliorer la fusion. Nous montrons ensuite que la décomposition du conflit permet une mesure plus fine de la fiabilité de la fusion que la mesure du conflit Dempsterien. En cas de conflit détecté, l'estimation de la fiabilité de chaque source est ensuite fondée sur la vérification (ou non) d'une hypothèse de régularité temporelle, vérification elle-même basée sur une mesure de distance locale aux hypothèses simples ou composées. La troisième application propose une généralisation de la combinaison hybride de Dubois Prade au cas de la combinaison à N sources. Notre mesure calculant le conflit partiel associé à chaque sous-ensemble d'hypothèses, en nous inspirant du principe de la règle de combinaison hybride, nous redistribuons la masse de ce conflit partiel à la disjonction des hypothèses du sous-ensemble. La décomposition du conflit permet d'identifier de manière unique les différents sous-ensembles d'hypothèses contribuant au conflit.En conclusion, les travaux ont montré que l'information issue de la mesure du conflit, et de sa décomposition, pouvait (devait) être considérée comme une information à part entière, permettant notamment la gestion des sources et des croyances à fusionner.
|
6 |
Modèles graphiques de l'évaluation de Sûreté de Fonctionnement et l'analyse des risques des Systèmes de Systèmes en présence d'incertitudes / Graphical models for RAMS assessment and risk analysis of Systems of Systems under uncertaintyQiu, Siqi 05 December 2014 (has links)
Les Systèmes de Systèmes (SdSs) sont des grands systèmes dont les composants sont eux-mêmes des systèmes qui interagissent en vue de la réalisation de certaines fonctions, et pour lesquels le dysfonctionnement d'un seul système peut avoir des conséquences graves sur le fonctionnement du SdS entier. Il est donc important que la conception de ces SdSs tienne compte des exigences de Sûreté de Fonctionnement (SdF) et notamment de leur fiabilité et leur disponibilité quand ils sont sollicités. Par ailleurs, il est nécessaire qu'elle s'assure, par le biais d'analyses quantitatives, du respect de ces exigences. L'incertitude est également une partie importante de la thèse, parce qu'il y a toujours des différences entre un système et sa représentation par un modèle. L’objectif de cette thèse est de proposer une méthodologie de conception sûre des SdSs. Il s'agit dans un premier temps de proposer un modèle dysfonctionnel du SdS global intégrant les aspects matériels, les aspects réseaux ainsi que le facteur humain. Dans un second temps, il s'agit d'évaluer des exigences de SdF. Dans un troisième temps, il s'agit de prendre en compte de différents types d'incertitudes dans les modèles. Concernant la partie applicative, le sujet s'articulerait autour de la conception sûre d'un système ferroviaire. La contribution principale de cette thèse réside dans trois aspects. Premièrement, on propose une méthodologie générale pour modéliser des SdSs. Deuxièmement, on considère l'ERTMS Niveau 2 comme un SdS et évalue ses exigences de SdF en tenant compte de l'indisponibilité du SdS comme une propriété émergente. Troisièmement, on modélise quantitativement différents types d'incertitudes dans les modèles proposés en utilisant les théories probabilistes et non probabilistes. / Systems of Systems (SoS) are large systems whose components are themselves systems which interact to realize a common goal, and for which the malfunction of a single system can have some serious consequences on the performance of the whole SoS. So it’s important that the design of these SoSs takes into account the dependability requirements of safety standard. In this thesis, our interests concern the modeling of SoS and the reliability analysis of SoS under uncertainty which is due to the lack of knowledge related to failure data and model. Therefore, two modeling methods which deal with different issues are applied to model SoSs and the corresponding quantitative reliability analysis is proposed. The objective of this thesis is to propose graphical models for dependability assessment and risk analysis of SoSs under uncertainty. Firstly, it will propose a dysfunctional model of the ERTMS which is considered as an SoS. The model will integrate the hardware aspect, the network aspect and the human factors. Then, it will evaluate some dependability attributes of the whole SoS. Later, it will take different kinds of uncertainties into account quantitatively. The proposed methodology is applied on the ERTMS Level 2. The main contribution of this thesis lies in three aspects. First, we propose a methodology to model and evaluate SoSs. Second, we consider ERTMS Level 2 as an SoS and seek to evaluate its dependability parameters by considering the unavailability of the whole SoS as an emergent property. Third, we model quantitatively different kinds of uncertainties in the proposed models.
|
7 |
Sound source localization with data and model uncertainties using the EM and Evidential EM algorithms / Estimation de sources acoustiques avec prise en compte de l'incertitude de propagationWang, Xun 09 December 2014 (has links)
Ce travail de thèse se penche sur le problème de la localisation de sources acoustiques à partir de signaux déterministes et aléatoires mesurés par un réseau de microphones. Le problème est résolu dans un cadre statistique, par estimation via la méthode du maximum de vraisemblance. La pression mesurée par un microphone est interprétée comme étant un mélange de signaux latents émis par les sources. Les positions et les amplitudes des sources acoustiques sont estimées en utilisant l’algorithme espérance-maximisation (EM). Dans cette thèse, deux types d’incertitude sont également pris en compte : les positions des microphones et le nombre d’onde sont supposés mal connus. Ces incertitudes sont transposées aux données dans le cadre théorique des fonctions de croyance. Ensuite, les positions et les amplitudes des sources acoustiques peuvent être estimées en utilisant l’algorithme E2M, qui est une variante de l’algorithme EM pour les données incertaines.La première partie des travaux considère le modèle de signal déterministe sans prise en compte de l’incertitude. L’algorithme EM est utilisé pour estimer les positions et les amplitudes des sources. En outre, les résultats expérimentaux sont présentés et comparés avec le beamforming et la holographie optimisée statistiquement en champ proche (SONAH), ce qui démontre l’avantage de l’algorithme EM. La deuxième partie considère le problème de l’incertitude du modèle et montre comment les incertitudes sur les positions des microphones et le nombre d’onde peuvent être quantifiées sur les données. Dans ce cas, la fonction de vraisemblance est étendue aux données incertaines. Ensuite, l’algorithme E2M est utilisé pour estimer les sources acoustiques. Finalement, les expériences réalisées sur les données réelles et simulées montrent que les algorithmes EM et E2M donnent des résultats similaires lorsque les données sont certaines, mais que ce dernier est plus robuste en présence d’incertitudes sur les paramètres du modèle. La troisième partie des travaux présente le cas de signaux aléatoires, dont l’amplitude est considérée comme une variable aléatoire gaussienne. Dans le modèle sans incertitude, l’algorithme EM est utilisé pour estimer les sources acoustiques. Dans le modèle incertain, les incertitudes sur les positions des microphones et le nombre d’onde sont transposées aux données comme dans la deuxième partie. Enfin, les positions et les variances des amplitudes aléatoires des sources acoustiques sont estimées en utilisant l’algorithme E2M. Les résultats montrent ici encore l’avantage d’utiliser un modèle statistique pour estimer les sources en présence, et l’intérêt de prendre en compte l’incertitude sur les paramètres du modèle. / This work addresses the problem of multiple sound source localization for both deterministic and random signals measured by an array of microphones. The problem is solved in a statistical framework via maximum likelihood. The pressure measured by a microphone is interpreted as a mixture of latent signals emitted by the sources; then, both the sound source locations and strengths can be estimated using an expectation-maximization (EM) algorithm. In this thesis, two kinds of uncertainties are also considered: on the microphone locations and on the wave number. These uncertainties are transposed to the data in the belief functions framework. Then, the source locations and strengths can be estimated using a variant of the EM algorithm, known as Evidential EM (E2M) algorithm. The first part of this work begins with the deterministic signal model without consideration of uncertainty. The EM algorithm is then used to estimate the source locations and strengths : the update equations for the model parameters are provided. Furthermore, experimental results are presented and compared with the beamforming and the statistically optimized near-field holography (SONAH), which demonstrates the advantage of the EM algorithm. The second part raises the issue of model uncertainty and shows how the uncertainties on microphone locations and wave number can be taken into account at the data level. In this case, the notion of the likelihood is extended to the uncertain data. Then, the E2M algorithm is used to solve the sound source estimation problem. In both the simulation and real experiment, the E2M algorithm proves to be more robust in the presence of model and data uncertainty. The third part of this work considers the case of random signals, in which the amplitude is modeled by a Gaussian random variable. Both the certain and uncertain cases are investigated. In the former case, the EM algorithm is employed to estimate the sound sources. In the latter case, microphone location and wave number uncertainties are quantified similarly to the second part of the thesis. Finally, the source locations and the variance of the random amplitudes are estimated using the E2M algorithm.
|
8 |
Uncertainty management in parameter identification / Gestion des incertitudes pour l'identification des paramètres matériauSui, Liqi 23 January 2017 (has links)
Afin d'obtenir des simulations plus prédictives et plus précises du comportement mécanique des structures, des modèles matériau de plus en plus complexes ont été développés. Aujourd'hui, la caractérisation des propriétés des matériaux est donc un objectif prioritaire. Elle exige des méthodes et des tests d'identification dédiés dans des conditions les plus proches possible des cas de service. Cette thèse vise à développer une méthodologie d'identification efficace pour trouver les paramètres des propriétés matériau, en tenant compte de toutes les informations disponibles. L'information utilisée pour l'identification est à la fois théorique, expérimentale et empirique : l'information théorique est liée aux modèles mécaniques dont l'incertitude est épistémique; l'information expérimentale provient ici de la mesure de champs cinématiques obtenues pendant l'essai ct dont l'incertitude est aléatoire; l'information empirique est liée à l'information à priori associée à une incertitude épistémique ainsi. La difficulté principale est que l'information disponible n'est pas toujours fiable et que les incertitudes correspondantes sont hétérogènes. Cette difficulté est surmontée par l'utilisation de la théorie des fonctions de croyance. En offrant un cadre général pour représenter et quantifier les incertitudes hétérogènes, la performance de l'identification est améliorée. Une stratégie basée sur la théorie des fonctions de croyance est proposée pour identifier les propriétés élastiques macro et micro des matériaux multi-structures. Dans cette stratégie, les incertitudes liées aux modèles et aux mesures sont analysées et quantifiées. Cette stratégie est ensuite étendue pour prendre en compte l'information à priori et quantifier l'incertitude associée. / In order to obtain more predictive and accurate simulations of mechanical behaviour in the practical environment, more and more complex material models have been developed. Nowadays, the characterization of material properties remains a top-priority objective. It requires dedicated identification methods and tests in conditions as close as possible to the real ones. This thesis aims at developing an effective identification methodology to find the material property parameters, taking advantages of all available information. The information used for the identification is theoretical, experimental, and empirical: the theoretical information is linked to the mechanical models whose uncertainty is epistemic; the experimental information consists in the full-field measurement whose uncertainty is aleatory; the empirical information is related to the prior information with epistemic uncertainty as well. The main difficulty is that the available information is not always reliable and its corresponding uncertainty is heterogeneous. This difficulty is overcome by the introduction of the theory of belief functions. By offering a general framework to represent and quantify the heterogeneous uncertainties, the performance of the identification is improved. The strategy based on the belief function is proposed to identify macro and micro elastic properties of multi-structure materials. In this strategy, model and measurement uncertainties arc analysed and quantified. This strategy is subsequently developed to take prior information into consideration and quantify its corresponding uncertainty.
|
9 |
Classification of uncertain data in the framework of belief functions : nearest-neighbor-based and rule-based approaches / Classification des données incertaines dans le cadre des fonctions de croyance : la métode des k plus proches voisins et la méthode à base de règlesJiao, Lianmeng 26 October 2015 (has links)
Dans de nombreux problèmes de classification, les données sont intrinsèquement incertaines. Les données d’apprentissage disponibles peuvent être imprécises, incomplètes, ou même peu fiables. En outre, des connaissances spécialisées partielles qui caractérisent le problème de classification peuvent également être disponibles. Ces différents types d’incertitude posent de grands défis pour la conception de classifieurs. La théorie des fonctions de croyance fournit un cadre rigoureux et élégant pour la représentation et la combinaison d’une grande variété d’informations incertaines. Dans cette thèse, nous utilisons cette théorie pour résoudre les problèmes de classification des données incertaines sur la base de deux approches courantes, à savoir, la méthode des k plus proches voisins (kNN) et la méthode à base de règles.Pour la méthode kNN, une préoccupation est que les données d’apprentissage imprécises dans les régions où les classes de chevauchent peuvent affecter ses performances de manière importante. Une méthode d’édition a été développée dans le cadre de la théorie des fonctions de croyance pour modéliser l’information imprécise apportée par les échantillons dans les régions qui se chevauchent. Une autre considération est que, parfois, seul un ensemble de données d’apprentissage incomplet est disponible, auquel cas les performances de la méthode kNN se dégradent considérablement. Motivé par ce problème, nous avons développé une méthode de fusion efficace pour combiner un ensemble de classifieurs kNN couplés utilisant des métriques couplées apprises localement. Pour la méthode à base de règles, afin d’améliorer sa performance dans les applications complexes, nous étendons la méthode traditionnelle dans le cadre des fonctions de croyance. Nous développons un système de classification fondé sur des règles de croyance pour traiter des informations incertains dans les problèmes de classification complexes. En outre, dans certaines applications, en plus de données d’apprentissage, des connaissances expertes peuvent également être disponibles. Nous avons donc développé un système de classification hybride fondé sur des règles de croyance permettant d’utiliser ces deux types d’information pour la classification. / In many classification problems, data are inherently uncertain. The available training data might be imprecise, incomplete, even unreliable. Besides, partial expert knowledge characterizing the classification problem may also be available. These different types of uncertainty bring great challenges to classifier design. The theory of belief functions provides a well-founded and elegant framework to represent and combine a large variety of uncertain information. In this thesis, we use this theory to address the uncertain data classification problems based on two popular approaches, i.e., the k-nearest neighbor rule (kNN) andrule-based classification systems. For the kNN rule, one concern is that the imprecise training data in class over lapping regions may greatly affect its performance. An evidential editing version of the kNNrule was developed based on the theory of belief functions in order to well model the imprecise information for those samples in over lapping regions. Another consideration is that, sometimes, only an incomplete training data set is available, in which case the ideal behaviors of the kNN rule degrade dramatically. Motivated by this problem, we designedan evidential fusion scheme for combining a group of pairwise kNN classifiers developed based on locally learned pairwise distance metrics.For rule-based classification systems, in order to improving their performance in complex applications, we extended the traditional fuzzy rule-based classification system in the framework of belief functions and develop a belief rule-based classification system to address uncertain information in complex classification problems. Further, considering that in some applications, apart from training data collected by sensors, partial expert knowledge can also be available, a hybrid belief rule-based classification system was developed to make use of these two types of information jointly for classification.
|
10 |
Exploitation of map data for the perception of intelligent vehicles / Exploitation des données cartographiques pour la perception de véhicules intelligentsKurdej, Marek 05 February 2015 (has links)
La plupart des logiciels contrôlant les véhicules intelligents traite de la compréhension de la scène. De nombreuses méthodes existent actuellement pour percevoir les obstacles de façon automatique. La majorité d’entre elles emploie ainsi les capteurs extéroceptifs comme des caméras ou des lidars. Cette thèse porte sur les domaines de la robotique et de la fusion d’information et s’intéresse aux systèmes d’information géographique. Nous étudions ainsi l’utilité d’ajouter des cartes numériques, qui cartographient le milieu urbain dans lequel évolue le véhicule, en tant que capteur virtuel améliorant les résultats de perception. Les cartes contiennent en effet une quantité phénoménale d’information sur l’environnement : sa géométrie, sa topologie ainsi que d’autres informations contextuelles. Dans nos travaux, nous avons extrait la géométrie des routes et des modèles de bâtiments afin de déduire le contexte et les caractéristiques de chaque objet détecté. Notre méthode se base sur une extension de grilles d’occupations : les grilles de perception crédibilistes. Elle permet de modéliser explicitement les incertitudes liées aux données de cartes et de capteurs. Elle présente également l’avantage de représenter de façon uniforme les données provenant de différentes sources : lidar, caméra ou cartes. Les cartes sont traitées de la même façon que les capteurs physiques. Cette démarche permet d’ajouter les informations géographiques sans pour autant leur donner trop d’importance, ce qui est essentiel en présence d’erreurs. Dans notre approche, le résultat de la fusion d’information contenu dans une grille de perception est utilisé pour prédire l’état de l’environnement à l’instant suivant. Le fait d’estimer les caractéristiques des éléments dynamiques ne satisfait donc plus l’hypothèse du monde statique. Par conséquent, il est nécessaire d’ajuster le niveau de certitude attribué à ces informations. Nous y parvenons en appliquant l’affaiblissement temporel. Étant donné que les méthodes existantes n’étaient pas adaptées à cette application, nous proposons une famille d’opérateurs d’affaiblissement prenant en compte le type d’information traitée. Les algorithmes étudiés ont été validés par des tests sur des données réelles. Nous avons donc développé des prototypes en Matlab et des logiciels en C++ basés sur la plate-forme Pacpus. Grâce à eux nous présentons les résultats des expériences effectués en conditions réelles. / This thesis is situated in the domains of robotics and data fusion, and concerns geographic information systems. We study the utility of adding digital maps, which model the urban environment in which the vehicle evolves, as a virtual sensor improving the perception results. Indeed, the maps contain a phenomenal quantity of information about the environment : its geometry, topology and additional contextual information. In this work, we extract road surface geometry and building models in order to deduce the context and the characteristics of each detected object. Our method is based on an extension of occupancy grids : the evidential perception grids. It permits to model explicitly the uncertainty related to the map and sensor data. By this means, the approach presents also the advantage of representing homogeneously the data originating from various sources : lidar, camera or maps. The maps are handled on equal terms with the physical sensors. This approach allows us to add geographic information without imputing unduly importance to it, which is essential in presence of errors. In our approach, the information fusion result, stored in a perception grid, is used to predict the stateof environment on the next instant. The fact of estimating the characteristics of dynamic elements does not satisfy the hypothesis of static world. Therefore, it is necessary to adjust the level of certainty attributed to these pieces of information. We do so by applying the temporal discounting. Due to the fact that existing methods are not well suited for this application, we propose a family of discoun toperators that take into account the type of handled information. The studied algorithms have been validated through tests on real data. We have thus developed the prototypes in Matlab and the C++ software based on Pacpus framework. Thanks to them, we present the results of experiments performed in real conditions.
|
Page generated in 0.1062 seconds