• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 23
  • 5
  • 4
  • Tagged with
  • 32
  • 32
  • 11
  • 10
  • 10
  • 10
  • 8
  • 8
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

From possibilistic similarity measures to possibilistic decision trees. / Mesures de similarité et arbres de décision possibilistes

Jenhani, Ilyes 01 February 2010 (has links)
Cette thèse traite deux problèmes importants dans les domaine de l'apprentissage automatique et du raisonnement dans l'incertain : comment évaluer une relation de similarité entre deux informations incertaines et comment assurer la classification \`a partir de données incertaines. Notre première principale contribution est de proposer une approche, appelée arbre de décision possibiliste, qui permet de construire des arbres de décision à partir de données d'apprentissage imparfaites. Plus précisément, elle traite des données caractérisées par des classes incertaines o\`u l'incertitude est modélisée avec la théorie des possibilités quantitative. Nous avons développé trois approches d'arbres de décision possibilistes. Pour chacune des approches, nous avons été confrontés à résoudre plusieurs problèmes pour pouvoir construire des arbres de décision possibilistes, tels que, comment définir une mesure de sélection d'attributs quand les classes sont représentes par des distributions de possibilité, comment trouver les critères d'arrêt et comment les feuilles vont être étiquetées dans ce contexte incertain. La première approche, appelée arbre de décision possibiliste basée sur la non- spécificité, utilise le concept de non-spécificité relatif à la théorie des possibilités dans la définition de sa mesure de sélection d'attributs. Cette approche maintient les distributions de possibilité durant toutes les étapes de la procédure de construction et ce particulièrement, au moment de l'évaluation de la quantité d'information apportée par chaque attribut. En revanche, la deuxième et la troisième approches, appelées arbre de décision possibiliste basé sur la similarité et arbre de décision possibiliste basé sur le clustering, éliminent automatiquement les distributions de possibilité dans leurs mesures de sélection d'attributs. Cette stratégie a permis d'étendre le ratio de gain et, par conséquent, d'étendre l'algorithme C4.5 pour qu'il puisse traiter des données libellées par des classes possibilistes. Ces deux dernières approches sont principalement basées sur le concept de similarité entre les distributions de possibilité étudié dans la thèse.La deuxième principale contribution de cette thèse concerne l'analyse des mesures de similarité en théorie des possibilités. En effet, un challenge important était de fournir une analyse des mesures de similarité possibiliste conduite par les propriétés qu'elles doivent satisfaire. Après avoir montré le rôle important de la notion d'incohérence dans l'évaluation de la similarité en théorie des possibilités, une nouvelle mesure, appelée affinité de l'information a été proposée. Cette mesure satisfait plusieurs propriétés que nous avons établies. A la fin de cette thèse, nous avons proposé des expérimentations pour comparer et montrer la faisabilité des approches d'arbres de décision possibilistes que nous avons développées. / This thesis concerns two important issues in machine learning and reasoning under uncertainty: how to evaluate a similarity relation between two uncertain pieces of information, and how to perform classification from uncertain data. Our first main contribution is to propose a so-called possibilistic decision tree which allows to induce decision trees from training data afflicted with imperfection. More precisely, it handles training data characterized by uncertain class labels where uncertainty is modeled within the quantitative possibility theory framework. We have developed three possibilistic decision tree approaches. For each approach, we were faced and solved typical questions for inducing possibilistic decision trees such as how to define an attribute selection measure when classes are represented by possibility distributions, how to find the stopping criteria and how leaves should be labeled in such uncertain context. The first approach, so-called, non-specificity-based possibilistic decision tree uses the concept of non-specificity relative to possibility theory in its attribute selection measure component. This approach keeps up the possibility distributions within all the stages of the building procedure and especially when evaluating the informativeness of the attributes in the attribute selection step. Conversely, the second and the third approaches, so-called similarity-based possibilistic decision tree and clustering-based possibilistic decision tree, automatically, get rid of possibility distributions in their attribute selection measure. This strategy has allowed them to extend the gain ratio criterion and hence to extend the C4.5 algorithm to handle possibilistic labeled data. These two possibilistic decision tree approaches are mainly based on the concept of similarity between possibility distributions.This latter issue constitutes our second main contribution in this thesis. In fact, an important challenge was to provide a property-based analysis of possibilistic similarity measures. After showing the important role that inconsistency could play in assessing possibilistic similarity, a new inconsistency-based possibilistic similarity measure, so-called information affinity has been proposed. This measure satisfies a set of natural properties that we have established. Finally, we have conducted experiments to show the feasibility and to compare the different possibilistic decision tree approaches developed in this thesis.
2

Segmentation itérative d'images par propagation de connaissances dans le domaine possibiliste : application à la détection de tumeurs en imagerie mammographique

EZIDDIN, Wael 14 June 2012 (has links) (PDF)
La phase de segmentation constitue un point central dans les processus d'interprétation et d'analyse d'images. Bien que la segmentation ait déjà fait l'objet de nombreux travaux, elle reste en général très dépendante de la nature et du contexte d¿exploitation de l'image. Notons que l'application de différentes méthodes de segmentation à une même image produit souvent des résultats différents. Dans le but d'obtenir une segmentation fiable et robuste, nous mettons dans ce travail l'accent sur la question de l'espace de représentation des connaissances issues de l'image, afin d'exploiter le maximum d'information disponible, en termes de caractéristiques et de structure spatiale. Dans ce contexte, nous présentons une approche de segmentation basée sur la théorie des possibilités. Cette approche permet de représenter les mesures numériques issues des capteurs en prenant en compte les ambiguïtés inhérentes à cette information, sur la base des connaissances descriptives exprimées par l'expert. De plus, l'approche proposée modélise un aspect important du raisonnement humain dans le processus de classification des pixels, en exploitant l'information issue du contexte spatial de ces éléments. Ce processus cognitif, la focalisation progressive de l'attention, est ici représenté par la diffusion itérative des connaissances acquises, dans le voisinage des pixels, notamment des germes possibilistes, qui représentent les points appartenant à une classe thématique donnée avec un fort degré de certitude. Plusieurs stratégies de diffusion des connaissances, ainsi que deux modes d'intégration des germes au processus (statiquement ou dynamiquement), sont proposés et évalués de manière qualitative et quantitative. La validation globale de la méthode est réalisée en utilisant un ensemble représentatif d'images mammographiques. Ces résultats, ainsi que leur comparaison aux résultats de méthodes plus classiques, montrent le fort potentiel de l'approche proposée en termes de spécificité et de précision des régions segmentées.
3

Evaluation de la performance des barrages en service basée sur une formalisation et une agrégation des connaisssances. Application aux barrages en remblai

Curt, Corinne 21 January 2008 (has links) (PDF)
Dans ce mémoire, des approches contribuant à l'évaluation de la performance d'un barrage sont proposées. Les développements portent sur : -une méthode d'évaluation déterministe de la performance des barrages par recueil, formalisation et agrégation de différentes sources de connaissances ; -une base de connaissances sur les phénomènes de dégradation des barrages permettant la capitalisation des connaissances du domaine ; -une méthode d'analyse des imperfections ; -une méthode non déterministe d'évaluation de la performance qui procède par représentation des imperfections et leur propagation dans le modèle. Ces différentes méthodes ont conduit à trois outils informatiques : une interface d'aide à l'évaluation de la performance, un système de traçabilité des données et une base de connaissances sur les phénomènes de dégradation. Ces approches sont illustrées sur les barrages en remblai et plus spécifiquement le mécanisme d'érosion interne
4

Une nouvelle approche de mise en correspondance stéréoscopique dense par méthodes possibilistes

Rabaud, Christophe 15 July 2005 (has links) (PDF)
Ce manuscrit présente une approche novatrice du problème de la mise en correspondance dense de pixel dans les images stéréoscopiques. L'originalité de ce tra- vail repose sur l'utilisation d'un ensemble de techniques de représentation de l'imprécis et de l'incertain permettant de minimiser l'a-priori dans le processus de mise en corres- pondance. Ces techniques s'appuient sur une représentation par une partition floue de l'imprécision de la mesure de luminance induite par l'échantillonnage spatial et sur une classification duale de l'information de luminance associée à chaque pixel. Nous avons associé, à cette représentation, une modélisation de la contrainte épipolaire propre aux capteurs stéréoscopiques étalonnés permettant de prendre en compte l'imprécision des paramètres d'étalonnage. Cette représentation permet d'associer, à chaque pixel d'une des images, un domaine pondéré discret des pixels de l'autre image pouvant lui corres- pondre géométriquement et chromatiquement.Nous proposons ensuite de modifier ces distributions de possibilité en utilisant des contraintes supplémentaires, telles que l'ordre ou l'unicité, pour en augmenter la spé- cificité. Nous utilisons, pour ce faire, un processus itératif et coopératif bipolaire. C'est l'ensemble de cette démarche qui permet de minimiser l'influence de la représentation du problème sur les mesures d'appariements. La validité de notre approche est établie par des expérimentations sur des images stéréo- scopiques de synthèses et réelles dont on connait la verité terrain. Celles-ci permettent de tester le comportement de notre méthode vis-à-vis des variations d'illumination et de disparité.
5

Surveillance et diagnostic des phases transitoires des systèmes hybrides basés sur l'abstraction des dynamiques continues par réseau de Petri temporel flou

Rocha Loures, Eduardo 18 January 2006 (has links) (PDF)
Les systèmes de surveillance et de supervision jouent un rôle majeur pour la sécurité des installations industrielles et la disponibilité des équipements. Signaler le plus tôt possible à l'opérateur les écarts détectés par rapport au comportement nominal prévu est fondamental pour la mise en œuvre des actions préventives et correctives sur le procédé. Certains types d'installations tels que les procédés chimiques et de traitement par lots (batch systems) présentent une grande complexité pour la commande/surveillance en raison de leur caractère hybride (aspects continus et discrets étroitement liés), du nombre de variables mis en jeu et de la complexité de leurs relations. Cette complexité est accentuée par la nécessité de nombreux changements de modes opératoires qui conduisent à de nombreuses phases transitoires. <br />La surveillance de ces phases transitoires est délicate. Le nombre élevé de variables à considérer rend difficile l'interprétation du comportement du procédé. En cas de défaut, un diagnostic devient alors une tâche complexe. Les écarts, même marginaux, par rapport au comportement nominal souhaité doivent être surveillés de façon à avertir l'opérateur sur des évolutions non prévues qui peuvent aboutir à une défaillance. Les écarts marginaux peuvent indiquer un dysfonctionnement qui dégénère lentement ou encore une conduite inadéquate de l'opérateur ou du système de pilotage. <br />Pour faire face à la complexité, le système de commande/surveillance est hiérarchisé selon la hiérarchie procédurale proposée par la norme ISA88. Notre démarche de surveillance et diagnostic se situe à deux niveaux hauts de cette hiérarchie procédurale : i) au niveau d'une opération et plus particulièrement lors du transitoire du mode opératoire (MOt) où les relations d'influence entre les variables sont faiblement connues ou non connues, ii) au sein d'une phase où les relations d'influence sont connues dans un intervalle de temps appartenant à l'horizon du mode opératoire.<br />Concernant la complexité des relations des variables mises en jeu, il n'est pas toujours facile et forcément nécessaire une modélisation précise de la dynamique du procédé. Dans ce cas, les approches qualitatives permettent une représentation avec un degré d'abstraction plus en adéquation avec le niveau haut de surveillance considéré. <br />Pour cela, nous proposons une abstraction des dynamiques continues basée sur un raisonnement temporel et événementiel compatibles avec les niveaux de la hiérarchie de surveillance. Cette abstraction est basée sur un partitionnement temporel flou de la dynamique des variables importantes définissant ainsi un ensemble d'états qualitatifs. Des mécanismes de vérification et de rétablissement de cohérence temporelle entre les variables sont proposés de façon à décrire les relations dynamiques locales existantes. Pour son pouvoir de représentation et pour rester cohérent avec une approche hiérarchique basée réseau de Petri, les Réseaux de Petri Temporels Flous ont été choisis.
6

Analyse formelle de concepts et fusion d'informations : application à l'estimation et au contrôle d'incertitude des indicateurs agri-environnementaux

Assaghir, Zainab 12 November 2010 (has links) (PDF)
La fusion d'informations consiste à résumer plusieurs informations provenant des différentes sources en une information exploitable et utile pour l'utilisateur. Le problème de la fusion est délicat surtout quand les informations délivrées sont incohérentes et hétérogènes. Les résultats de la fusion ne sont pas souvent exploitable et utilisables pour prendre une décision, quand ils sont imprécis. C'est généralement due au fait que les informations sont incohérentes. Plusieurs méthodes de fusion sont proposées pour combiner les informations imparfaites et elles appliquent l'opérateur de fusion sur l'ensemble de toutes les sources et considèrent le résultat tel qu'il est. Dans ce travail, nous proposons une méthode de fusion fondée sur l'Analyse Formelle de Concepts, en particulier son extension pour les données numériques : les structures de patrons. Cette méthode permet d'associer chaque sous-ensemble de sources avec son résultat de fusion. Toutefois l'opérateur de fusion est choisi, alors un treillis de concept est construit. Ce treillis fournit une classification intéressante des sources et leurs résultats de fusion. De plus, le treillis garde l'origine de l'information. Quand le résultat global de la fusion est imprécis, la méthode permet à l'utilisateur d'identifier les sous-ensemble maximaux de sources qui supportent une bonne décision. La méthode fournit une vue structurée de la fusion globale appliquée à l'ensemble de toutes les sources et des résultats partiels de la fusion marqués d'un sous-ensemble de sources. Dans ce travail, nous avons considéré les informations numériques représentées dans le cadre de la théorie des possibilités et nous avons utilisé trois sortes d'opérateurs pour construire le treillis de concepts. Une application dans le monde agricole, où la question de l'expert est d'estimer des valeurs des caractéristiques de pesticide provenant de plusieurs sources, pour calculer des indices environnementaux est détaillée pour évaluer la méthode de fusion proposée.
7

Inconsistency and uncertainty handling in lightweight description logics / Dynamique des croyances et gestion de l'incertitude dans des logiques de description légères DL-Lite

Bouraoui, Zied 05 June 2015 (has links)
Cette thèse étudie la dynamique des croyances et la gestion de l’incertitude dans DL-Lite, une des plus importantes familles des logiques de description légères. La première partie de la thèse porte sur la gestion de l’incertitude dans DL-Lite. En premier lieu, nous avons proposé une extension des principaux fragments de DL-Lite pour faire face à l’incertitude associée aux axiomes en utilisant le cadre de la théorie des possibilités. Cette extension est réalisée sans engendrer des coûts calculatoires supplémentaires. Nous avons étudié ensuite la révision des bases DL-Lite possibilistes en présence d’une nouvelle information. Enfin, nous avons proposé un opérateur de fusion lorsque les assertions de ABoxsont fournies par plusieurs sources d’information ayant différents niveaux de priorité. La deuxième partie de la thèse traite le problème de la gestion d’incohérence dans les bases de connaissances DL-Lite. Nous avons étudié, tout d’abord, comment raisonner à partir d’une base DL-Lite standard avec des ABox multiples en introduisant les notions de modificateurs et de stratégies d’inférence. La combinaison des modificateurs et de stratégies d’inférence fournit une liste exhaustive des principales techniques de gestion de l’incohérence. Nous avons proposé ensuite une approche, basée sur un critère de cardinalité, de sélection des réparations, et nous avons identifié les stratégies appropriées pour la gestion de l’incohérence pour les bases DL-Lite stratifiées. Enfin, nous avons effectué une analyse comparative, suivie par des étudesexpérimentales, des différentes techniques de gestion d’incohérence proposées. Finalement, un outil de représentation et de raisonnement à partir des bases DL-Lite possibiliste est réalisé. / This thesis investigates the dynamics of beliefs and uncertainty management in DL-Lite, one of the most important lightweight description logics. The first part of the thesis concerns the problem of handling uncertainty in DL-Lite. First, we propose an extension of the main fragments of DL-Lite to deal with the uncertainty associated with axioms using a possibility theory framework without additional extra computational costs. We then study the revision of possibilistic DL-Lite bases when a new piece of information is available. Lastly, we propose a min-based assertional merging operator when assertions of ABox are provided by several sources of information having different levels of priority. The second partof the thesis concerns the problem of inconsistency handling in flat and prioritized DL-Lite knowledge bases. We first propose how to reason from a flat DL-Lite knowledge base, with a multiple ABox, which can be either issued from multiple information sources or resulted from revising DL-Lite knowledge bases. This is done by introducing the notions of modifiers and inference strategies. The combination of modifiers plus inference strategies can be mapped out in order to provide a principled and exhaustive list of techniques for inconsistency management. We then give an approach based on selecting multiple repairs using a cardinality-based criterion, and we identified suitable strategies for handling inconsistencyin the prioritized case. Lastly, we perform a comparative analysis, followed by experimental studies, of the proposed inconsistency handling techniques. A tool for representing and reasoning in possibilistic DL-Lite framework is implemented.
8

Contribution au pronostic de défaillances par réseau neuro-flou : maîtrise de l'erreur de prédiction.

Vasile - Dragomir, Otilia Elena 24 October 2008 (has links) (PDF)
L'activité de "pronostic de défaillances" est aujourd'hui considérée comme un processus clef dans les stratégies de maintenance industrielle. Cependant, dans la pratique, les outils de pronostic sont encore rares. Les approches aujourd'hui stabilisées reposent sur un historique des incidents assez conséquent pour être représentatif des événements potentiellement prévisibles. L'objet de cette thèse est de proposer un "outil" permettant de prédire la dégradation d'un équipement sans connaissance a priori sur son comportement, et de générer les indicateurs de pronostic permettant d'optimiser les stratégies de maintenance. Dans cet objectif, notre contribution se décline en trois aspects complémentaires.<br>- Un premier volet de travail traite de la formalisation du processus de pronostic. Le concept de pronostic est défini et positionné par rapport aux stratégies de maintenance. Différents mesures typées pronostic sont proposées et les outils utilisables dans ce contexte sont étudiés (nature, applicabilité, guide de choix).<br>- Le coeur du travail porte ensuite sur la spécification d'un système neuro-flou permettant de reproduire l'évolution des propriétés d'un équipement, et de prédire un état de dégradation au cours du temps. Plus précisément les développements visent la proposition d'une architecture neuro-floue permettant de satisfaire un objectif de contrôle de l'erreur de prédiction, quel que soit l'horizon de prédiction.<br>- Nous développons finalement une approche floue/possibiliste d'adaptation des processus classiques d'évaluation prévisionnelle des grandeurs de sûreté de fonctionnement au cas prédictif (fiabilité, MTTF). Ces indicateurs doivent permettre in fine d'optimiser les stratégies de maintenance en tenant compte de l'incertitude inhérente à l'étape de prédiction des dégradations.
9

Traitements d'Images Omnidirectionnelles

Jacquey, Florence 21 December 2007 (has links) (PDF)
Ce manuscrit présente une approche novatrice au problème du traitement d'images omnidirectionnelles. Elle se démarque des autres approches par le fait que les traitements sont adaptés à la géométrie de l'image et effectués directement dans l'espace de l'image afin d'interpoler le moins possible les données originales de l'image. L'originalité de ce travail repose sur l'utilisation d'un ensemble de techniques de représentation de l'imprécision de la mesure de luminance induite par l'échantillonnage spatial de l'image. Ces techniques s'appuient sur une représentation par partition floue de l'image. Afin de traiter les images issues de capteurs omnidirectionnels catadioptriques, nous proposons une approche basée sur l'utilisation d'un espace projectif virtuel appelé le cylindre englobant. Ce cylindre nous permet de définir les différents opérateurs de convolution dans un espace quasi identique à celui de l'image perspective. Les opérateurs ainsi définis sont ensuite projetés sur l'image omnidirectionnelle pour tenir compte de la géométrie du capteur. Dans un premier temps, nous avons proposé une adaptation des masques de convolution aux images omnidirectionnelles prenant en compte les imprécisions sur la localisation du niveau de gris des pixels. Dans un second temps, nous nous sommes intéressés plus précisément aux détecteurs de contours. Nous avons développé une nouvelle approche d'estimation de gradient utilisant des noyaux possibilistes. L'estimation du gradient est fournie sous la forme d'un intervalle de valeurs. Cet intervalle permet de seuiller naturellement les valeurs de gradient obtenues. La validité de nos approches est établie par des expérimentations sur des images omnidirectionnelles synthétiques et réelles. Les images synthétiques sont utilisées afin de tester la robustesse de nos détecteurs de contours en présence de bruit et d'étudier la bonne détection, bonne localisation et réponse unique du contour. Les images réelles permettent d'observer le comportement de nos méthodes vis à vis des variations d'illumination et des bruits d'acquisition.
10

Modèles de précaution en économie: introduction aux probabilités imprécises

Ha-Duong, Minh 07 December 2005 (has links) (PDF)
Ce mémoire présente une recherche pour mieux traiter les problèmes d'environnement globaux en améliorant la prise en compte du risque et de l'incertitude dans les modèles numériques interdisciplinaires. La revue des approches de la décision ---utilisant ou non les probabilités subjectives--- montre que la première représentation de la précaution est le modèle de décision séquentielle. Dans ce cadre, ce texte présente les résultats du modèle intégré DIAM résolu en programmation dynamique stochastique concernant la question du tempo de l'action contre le changement climatique. La seconde partie de l'ouvrage propose une vision alternative de la précaution, basée sur le rejet de l'axiome de complétude des préférences de Savage. Cela conduit à définir un critère de décision rationnel en situation d'information imprécise. Ce critère est discuté avec la théorie des probabilités imprécises, en visant à unifier les différentes approches proposées dans la littérature (Shackle et Zadeh, Dempster et Shafer, Smets, Gilboa et Schmeidler, Walley). Les applications présentées en troisième partie concernent la causalité en épidémiologie, l'élicitation et la fusion des opinions d'experts ainsi que les règles de la prospective.

Page generated in 0.1048 seconds