• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 3
  • 2
  • Tagged with
  • 9
  • 9
  • 6
  • 6
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modèles de précaution en économie: introduction aux probabilités imprécises

Ha-Duong, Minh 07 December 2005 (has links) (PDF)
Ce mémoire présente une recherche pour mieux traiter les problèmes d'environnement globaux en améliorant la prise en compte du risque et de l'incertitude dans les modèles numériques interdisciplinaires. La revue des approches de la décision ---utilisant ou non les probabilités subjectives--- montre que la première représentation de la précaution est le modèle de décision séquentielle. Dans ce cadre, ce texte présente les résultats du modèle intégré DIAM résolu en programmation dynamique stochastique concernant la question du tempo de l'action contre le changement climatique. La seconde partie de l'ouvrage propose une vision alternative de la précaution, basée sur le rejet de l'axiome de complétude des préférences de Savage. Cela conduit à définir un critère de décision rationnel en situation d'information imprécise. Ce critère est discuté avec la théorie des probabilités imprécises, en visant à unifier les différentes approches proposées dans la littérature (Shackle et Zadeh, Dempster et Shafer, Smets, Gilboa et Schmeidler, Walley). Les applications présentées en troisième partie concernent la causalité en épidémiologie, l'élicitation et la fusion des opinions d'experts ainsi que les règles de la prospective.
2

Estimation du mouvement apparent majoritaire dans une séquence d'images vidéo par accumulation de votes bimodaux sur un histogramme approché

Comby, Frédéric 19 December 2001 (has links) (PDF)
Ce manuscrit présente une approche particulièrement novatrice du problème d'estimation du mouvement apparent dominant dans une séquence d'images. Elle se démarque des approches classiques apparentées à la corrélation ou au flot optique par le fait que les hypothèses sur les relations entre le mouvement apparent et les variations du niveau de gris des pixels de l'image influent peu sur la robustesse du procédé. L'originalité de ce travail repose sur l'utilisation d'un ensemble de techniques de représentation de l'imprécis et de l'incertain permettant de minimiser l'a priori dans le processus d'estimation. L'estimation du mouvement majoritaire fait appel à l'estimation de la densité de probabilité du mouvement puis à la recherche du mode principal de cette distribution. Ces deux étapes sont réalisées grâce à une extension de la technique des histogrammes que nous avons appelée histogrammes approchés. Ces derniers permettent de prendre en compte les défauts de type imprécision et incertitude des données accumulées et de minimiser l'influence du partitionnement de l'espace paramétrique de ces données. La validité de notre approche est établie par des expérimentations sur des séquences d'images synthétiques et réelles. Celles-ci permettent de tester le comportement de notre méthode vis-à-vis de perturbations usuelles en traitement d'images telles que des variations d'illumination, des mouvements parasites ou des occlusions. Nous proposons deux applications à notre méthode d'estimation qui sont : la construction de mosaïque d'images et la stabilisation de séquences vidéo. Les résultats présentés permettent d'illustrer les performances satisfaisantes de notre approche en termes de robustesse et de précision.
3

Représentation et combinaison d'informations incertaines : nouveaux résultats avec applications aux études de sûreté nucléaires

Sebastien, Destercke 29 October 2008 (has links) (PDF)
Souvent, les valeurs de certains paramètres ou variables d'un système ne sont connues que de façon imparfaite, soit du fait de la variabilité des phénomènes physiques que l'on cherche à représenter,soit parce que l'information dont on dispose est imprécise, incomplète ou pas complètement fiable.<br>Usuellement, cette incertitude est traitée par la théorie classique des probabilités. Cependant, ces dernières années ont vu apparaître des arguments indiquant que les probabilités classiques sont inadéquates lorsqu'il faut représenter l'imprécision présente dans l'information. Des cadres complémentaires aux probabilités classiques ont donc été proposés pour remédier à ce problème : il s'agit, principalement, des ensembles de probabilités, des ensembles aléatoires et des possibilités. Beaucoup de questions concernant le traitement des incertitudes dans ces trois cadres restent ouvertes. En particulier, il est nécessaire d'unifier ces approches et de comprendre les liens existants entre elles, et de proposer des méthodes de traitement permettant d'utiliser ces approches parfois cher en temps de calcul. Dans ce travail, nous nous proposons d'apporter des réponses à ces deux besoins pour une série de problème de traitement de l'incertain rencontré en analyse de sûreté. En particulier, nous nous concentrons sur les problèmes suivants :<br>- Représentation des incertitudes<br>- Fusion/évaluation de données venant de sources multiples<br>- Modélisation de l'indépendance<br><br>L'objectif étant de fournir des outils, à la fois théoriques et pratiques, de traitement d'incertitude. Certains de ces outils sont ensuite appliqués à des problèmes rencontrés en sûreté nucléaire.
4

Evaluation de la performance des Systèmes Instrumentés de Sécurité à paramètres imprécis

Mechri, Walid 11 April 2011 (has links) (PDF)
Dans ce travail, le problème d'imprécision dans l'évaluation de la performance des systèmes instrumentés de sécurité est traité. Deux méthodes d'évaluation sont appliquées à un SIS. La première méthode d'évaluation utilise les arbres de défaillances, la seconde se base sur les chaînes de Markov. L'imperfection des données concerne les paramètres caractéristiques des SIS, tels que le taux de défaillance et le facteur de défaillance de cause commune. Les probabilités élémentaires sont remplacées par des modèles mathématiques permettant aux experts fiabilistes d'exprimer leur incertitude dans l'énoncé des valeurs de probabilités de défaillances et d'autres paramètres des systèmes. Nous montrons comment l'imprécision sur la valeur de taux de défaillance induit des variations particulièrement significatives sur la qualification du niveau d'intégrité de sécurité du système. Ce travail peut avoir beaucoup d'intérêt pour le décideur de connaître l'imprécision sur les paramètres de performance des systèmes.
5

Techniques non-additives d'estimation de la densité de probabilité

Nehme, Bilal 20 December 2010 (has links) (PDF)
Dans cette thèse, nous proposons une nouvelle méthode d'estimation non-paramétrique de la densité de probabilité. Cette méthode d'estimation imprécise combine la théorie de distribution de Schwartz et la théorie de possibilité. La méthode d'estimation que nous proposons est une extension de la méthode d'estimation à noyau. Cette extension est basée sur une nouvelle méthode de représentation de la notion de voisinage sur laquelle s'appuie l'estimation à noyau. Cette représentation porte le nom de noyau maxitif. L'estimation produite est de nature intervalliste. Elle est une enveloppe convexe d'un ensemble d'estimation de Parzen-Rosenblatt obtenus avec un ensemble de noyaux contenus dans une famille particulière. Nous étudions un certain nombre des propriétés théoriques liées à cette nouvelle méthode d'estimation. Parmi ces propriétés, nous montrons un certain type de convergence de cet estimateur. Nous montrons aussi une aptitude particulière de ce type d'estimation à quantifier l'erreur d'estimation liée à l'aspect aléatoire de la distribution des observations. Nous proposons un certain nombre d'algorithmes de faible complexité permettant de programmer facilement les mathodes que nous proposons.
6

Management de l'incertitude pour les systèmes booléens complexes - Application à la maintenance préventive des avions / Uncertainty Management for Boolean Complex Systems Application to Preventive Maintenance of Aircrafts

Jacob, Christelle 25 February 2014 (has links)
Les analyses de sûreté de fonctionnement standards sont basées sur la représentation des événements redoutés par des arbres de défaillances, qui les décrivent à l'aide de combinaison logiques d'événements plus basiques (formules Booléennes complexes). Les analyses quantitatives se font avec l'hypothèse que les probabilités d'occurrence de ces événements basiques sont connues. Le but de cette thèse est d'étudier l'impact de l'incertitude épistémique sur les événements élémentaires, ainsi que la propagation de cette incertitude à de plus hauts niveaux. Le problème soulevé est comment calculer l'intervalle de probabilité dans lequel se trouvera l'occurrence d'un événement redouté, lorsque les événements basiques qui le décrivent ont eux-mêmes une probabilité imprécise. Lorsque l'indépendance stochastique est supposée, on se retrouve avec un problème NP-hard. Nous avons donc développé un algorithme permettant de calculer l'intervalle exact dans lequel se trouvera la probabilité d'occurrence d'un événement redouté, grâce à des techniques d'analyse par intervalles. Cet algorithme a également été étendu dans le cas où les probabilités des événements basiques évolueraient en fonction du temps. Nous avons également utilisé une approche par fonctions de croyance pour étudier le cas où l'indépendance stochastique des événements ne peut pas être démontrée : on suppose alors que les probabilités viennent de différentes sources d'information Indépendantes. Dans ce cas, les mesures de plausibilité et de nécessité d'une formule Booléenne complexe sont difficiles à calculer, néanmoins nous avons pu dégager des situations pratiques dans le cadre de leur utilisation pour les Arbres de défaillances pour lesquelles elles se prêtent aux calculs. / Standard approaches to reliability analysis relies on a probabilistic analysis of critical events based on fault tree representations. However in practice, and especially for preventive maintenance tasks, the probabilities ruling the occurrence of these events are seldom precisely known. The aim of this thesis is to study the impact of epistemic uncertainty on probabilities of elementary events such as failures over the probability of some higher level critical event. The fundamental problem addressed by the thesis is thus to compute the probability interval for a Boolean proposition representing a failure condition, given the probability intervals of atomic propositions. When the stochastic independence is assumed, we face a problem of interval analysis, which is NP-hard in general. We have provided an original algorithm that computes the output probability interval exactly, taking into account the monotonicity of the obtained function in terms of some variables so as to reduce the uncertainty. We have also considered the evolution of the probability interval with time, assuming parameters of the reliability function to be imprecisely known. Besides, taking advantage of the fact that a probability interval on a binary space can be modelled by a belief function, we have solved the same problem with a different assumption, namely information source independence. While the problem of computing the belief and plausibility of a Boolean proposition are even harder to compute, we have shown that in practical situations such as usual fault-trees, the additivity condition of probability theory is still valid, which simplifies this calculation. A prototype has been developed to compute the probability interval for a complex Boolean proposition.
7

Modèles prudents en apprentissage statistique supervisé / Cautious models in supervised machine learning

Yang, Gen 22 March 2016 (has links)
Dans certains champs d’apprentissage supervisé (e.g. diagnostic médical, vision artificielle), les modèles prédictifs sont non seulement évalués sur leur précision mais également sur la capacité à l'obtention d'une représentation plus fiable des données et des connaissances qu'elles induisent, afin d'assister la prise de décisions de manière prudente. C'est la problématique étudiée dans le cadre de cette thèse. Plus spécifiquement, nous avons examiné deux approches existantes de la littérature de l'apprentissage statistique pour rendre les modèles et les prédictions plus prudents et plus fiables: le cadre des probabilités imprécises et l'apprentissage sensible aux coûts. Ces deux domaines visent tous les deux à rendre les modèles d'apprentissage et les inférences plus fiables et plus prudents. Pourtant peu de travaux existants ont tenté de les relier, en raison de problèmes à la fois théorique et pratique. Nos contributions consistent à clarifier et à résoudre ces problèmes. Sur le plan théorique, peu de travaux existants ont abordé la manière de quantifier les différentes erreurs de classification quand des prédictions sous forme d'ensembles sont produites et quand ces erreurs ne se valent pas (en termes de conséquences). Notre première contribution a donc été d'établir des propriétés générales et des lignes directrices permettant la quantification des coûts d'erreurs de classification pour les prédictions sous forme d'ensembles. Ces propriétés nous ont permis de dériver une formule générale, le coût affaiblie généralisé (CAG), qui rend possible la comparaison des classifieurs quelle que soit la forme de leurs prédictions (singleton ou ensemble) en tenant compte d'un paramètre d'aversion à la prudence. Sur le plan pratique, la plupart des classifieurs utilisant les probabilités imprécises ne permettent pas d'intégrer des coûts d'erreurs de classification génériques de manière simple, car la complexité du calcul augmente de magnitude lorsque des coûts non unitaires sont utilisés. Ce problème a mené à notre deuxième contribution, la mise en place d'un classifieur qui permet de gérer les intervalles de probabilités produits par les probabilités imprécises et les coûts d'erreurs génériques avec le même ordre de complexité que dans le cas où les probabilités standards et les coûts unitaires sont utilisés. Il s'agit d'utiliser une technique de décomposition binaire, les dichotomies emboîtées. Les propriétés et les pré-requis de ce classifieur ont été étudiés en détail. Nous avons notamment pu voir que les dichotomies emboîtées sont applicables à tout modèle probabiliste imprécis et permettent de réduire le niveau d'indétermination du modèle imprécis sans perte de pouvoir prédictif. Des expériences variées ont été menées tout au long de la thèse pour appuyer nos contributions. Nous avons caractérisé le comportement du CAG à l’aide des jeux de données ordinales. Ces expériences ont mis en évidence les différences entre un modèle basé sur les probabilités standards pour produire des prédictions indéterminées et un modèle utilisant les probabilités imprécises. Ce dernier est en général plus compétent car il permet de distinguer deux sources d'indétermination (l'ambiguïté et le manque d'informations), même si l'utilisation conjointe de ces deux types de modèles présente également un intérêt particulier dans l'optique d'assister le décideur à améliorer les données ou les classifieurs. De plus, des expériences sur une grande variété de jeux de données ont montré que l'utilisation des dichotomies emboîtées permet d'améliorer significativement le pouvoir prédictif d'un modèle imprécis avec des coûts génériques. / In some areas of supervised machine learning (e.g. medical diagnostics, computer vision), predictive models are not only evaluated on their accuracy but also on their ability to obtain more reliable representation of the data and the induced knowledge, in order to allow for cautious decision making. This is the problem we studied in this thesis. Specifically, we examined two existing approaches of the literature to make models and predictions more cautious and more reliable: the framework of imprecise probabilities and the one of cost-sensitive learning. These two areas are both used to make models and inferences more reliable and cautious. Yet few existing studies have attempted to bridge these two frameworks due to both theoretical and practical problems. Our contributions are to clarify and to resolve these problems. Theoretically, few existing studies have addressed how to quantify the different classification errors when set-valued predictions are produced and when the costs of mistakes are not equal (in terms of consequences). Our first contribution has been to establish general properties and guidelines for quantifying the misclassification costs for set-valued predictions. These properties have led us to derive a general formula, that we call the generalized discounted cost (GDC), which allow the comparison of classifiers whatever the form of their predictions (singleton or set-valued) in the light of a risk aversion parameter. Practically, most classifiers basing on imprecise probabilities fail to integrate generic misclassification costs efficiently because the computational complexity increases by an order (or more) of magnitude when non unitary costs are used. This problem has led to our second contribution, the implementation of a classifier that can manage the probability intervals produced by imprecise probabilities and the generic error costs with the same order of complexity as in the case where standard probabilities and unitary costs are used. This is to use a binary decomposition technique, the nested dichotomies. The properties and prerequisites of this technique have been studied in detail. In particular, we saw that the nested dichotomies are applicable to all imprecise probabilistic models and they reduce the imprecision level of imprecise models without loss of predictive power. Various experiments were conducted throughout the thesis to illustrate and support our contributions. We characterized the behavior of the GDC using ordinal data sets. These experiences have highlighted the differences between a model based on standard probability framework to produce indeterminate predictions and a model based on imprecise probabilities. The latter is generally more competent because it distinguishes two sources of uncertainty (ambiguity and the lack of information), even if the combined use of these two types of models is also of particular interest as it can assist the decision-maker to improve the data quality or the classifiers. In addition, experiments conducted on a wide variety of data sets showed that the use of nested dichotomies significantly improves the predictive power of an indeterminate model with generic costs.
8

Représentation et propagation de connaissances imprécises et incertaines: Application à l'évaluation des risques liés aux sites et sols pollués.

Baudrit, Cédric 19 October 2005 (has links) (PDF)
Actuellement, les choix relatifs à la gestion des sites potentiellement pollués s'appuient, notamment,<br />sur une évaluation des risques pour l'homme et l'environnement. Cette évaluation est effectuée à l'aide de modèles qui simulent le transfert de polluant depuis une source de pollution vers une cible vulnérable, pour différents scénarii d'exposition. La sélection des valeurs des paramètres de ces modèles s'appuie autant que possible sur les données recueillies lors des investigations de terrain (phase de diagnostic de site). Or pour des raisons de délais et de coûts, l'information recueillie lors de cette phase de diagnostic est toujours incomplète; elle est donc entachée d'incertitude. De même, les modèles de transferts et d'exposition présentent également des incertitudes à intégrer dans les procédures. Cette notion globale d'incertitude doit être prise en compte dans l'évaluation du risque pour que les résultats soient utiles lors la phase décisionnelle.<br /><br />L'incertitude sur les paramètres peut avoir deux origines. La première provient du caractère aléatoire de l'information due à une variabilité naturelle résultant de phénomènes stochastiques. On parle alors d'incertitudes de variabilité ou d'incertitudes stochastiques. La seconde est liée au caractère imprécis de l'information lié à un manque de connaissance et qui résulte par exemple d'erreurs systématiques lors de mesures ou d'avis d'experts.<br />On parle alors d'incertitudes épistémiques. Dans le calcul de risque, ces deux notions sont souvent confondues alors qu'elles devraient être traitées de manière différente.<br /><br />L'incertitude en évaluation des risques a surtout été appréhendée dans un cadre purement probabiliste.<br />Cela revient à supposer que la connaissance sur les paramètres des modèles est toujours de nature aléatoire (variabilité). Cette approche consiste à représenter les paramètres incertains par des distributions de probabilité uniques et à transmettre l'incertitude relative à ces paramètres sur celle du risque encouru par la cible, en appliquant en général la technique dite Monte Carlo. Si cette approche est bien connue, toute la difficulté tient à une définition cohérente des distributions de probabilité affectées aux paramètres par rapport à la connaissance disponible. En effet dans un contexte d'évaluation des risques liés à l'exposition aux polluants, l'information dont on dispose concernant certains paramètres est souvent de nature imprécise. Le calage d'une distribution de probabilité unique sur ce type de<br />connaissance devient subjectif et en partie arbitraire. <br /><br />L'information dont on dispose réellement est souvent plus riche qu'un intervalle mais moins riche qu'une distribution de probabilité. En pratique, l'information de nature aléatoire est traitée de manière rigoureuse par les distributions de probabilité classiques. Celle de nature imprécise est traitée de manière rigoureuse par des familles de distributions de probabilité définies au moyen de paires de probabilités cumulées hautes et basses ou, à l'aide de théories plus récentes, au moyen de distributions de possibilité (aussi appelées intervalles flous) ou encore au moyen d'intervalles aléatoires utilisant les fonctions de croyance de Dempster-Shafer.<br /><br />Un des premiers objectifs de ce travail est de promouvoir la cohérence entre la manière dont on représente la connaissance sur les paramètres<br />des modèles du risque et la connaissance dont on dispose réellement. Le deuxième objectif est de proposer différentes méthodes pour propager l'information de nature aléatoire et l'information de nature imprécise à travers les modèles du risque tout en essayant de tenir compte des dépendances entre les paramètres. Enfin, ces méthodes alternatives ont été testées sur des cas synthétiques puis sur des cas réels simplifiés, notamment pour proposer des moyens de présenter les résultats pour une phase décisionnelle:<br /> - Calcul de dose : Transfert d'un polluant radioactif (le strontium) depuis le dépôt jusqu'à<br />l'homme, au travers de la consommation d'un aliment (le lait de vache).<br /> - Risque toxique après un déversement accidentel de trichloréthylène (TCE) au dessus d'une nappe d'eau (modèle semi analytique).<br /><br /> - Risque pour la santé liée aux sols pollués par des retombées de plomb.
9

De l'utilisation des noyaux maxitifs en traitement de l'information

Loquin, Kevin 03 November 2008 (has links) (PDF)
Dans cette thèse, nous proposons et développons de nouvelles méthodes en statistiques et en traitement du signal et des images basées sur la théorie des possibilités. Ces nouvelles méthodes sont des adaptations d'outils usuels de traitement d'information dont le but est de prendre en compte les défauts dus à la méconnaissance de l'utilisateur sur la modélisation du phénomène observé. Par cette adaptation, on passe de méthodes dont les sorties sont précises, ponctuelles, à des méthodes dont les sorties sont intervallistes et donc imprécises. Les intervalles produits reflètent, de façon cohérente, l'arbitraire dans le choix des paramètres lorsqu'une méthode classique est utilisée.<br />Beaucoup d'algorithmes en traitement du signal ou en statistiques utilisent, de façon plus ou moins explicite, la notion d'espérance mathématique associée à une représentation probabiliste du voisinage d'un point, que nous appelons noyau sommatif. Nous regroupons ainsi, sous la dénomination d'extraction sommative d'informations, des méthodes aussi diverses que la modélisation de la mesure, le filtrage linéaire, les processus d'échantillonnage, de reconstruction et de dérivation d'un signal numérique, l'estimation de densité de probabilité et de fonction de répartition par noyau ou par histogramme,...<br />Comme alternative à l'extraction sommative d'informations, nous présentons la méthode d'extraction maxitive d'informations qui utilise l'intégrale de Choquet associée à une représentation possibiliste du voisinage d'un point, que nous appelons noyau maxitif. La méconnaissance sur le noyau sommatif est prise en compte par le fait qu'un noyau maxitif représente une famille de noyaux sommatifs. De plus, le résultat intervalliste de l'extraction maxitive d'informations est l'ensemble des résultats ponctuels des extractions sommatives d'informations obtenues avec les noyaux sommatifs de la famille représentée par le noyau maxitif utilisé. En plus de cette justification théorique, nous présentons une série d'applications de l'extraction maxitive d'informations en statistiques et en traitement du signal qui constitue une boîte à outils à enrichir et à utiliser sur des cas réels.

Page generated in 0.1008 seconds