• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 44
  • 11
  • 7
  • Tagged with
  • 63
  • 29
  • 19
  • 15
  • 15
  • 15
  • 15
  • 13
  • 12
  • 11
  • 11
  • 9
  • 9
  • 9
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Contribution à la Surveillance des Systèmes de Production en Utilisant l'Intelligence Artificielle

Racoceanu, Daniel 19 January 2006 (has links) (PDF)
En suivant les principales tendances d'évolution des systèmes automatisés et de la productique, nos travaux de recherche se positionnent dans l'optique des mutations induites par l'intégration des Sciences et Technologies de l'Information et de la Communication dans ces disciplines. Dans ce contexte, la décentralisation de l'intelligence et sa migration vers les niveaux bas, génèrent une évolution vers des services nouveaux, à même de permette non seulement de garder des positions privilégiées en terme de parts de marché, mais aussi d'en gagner de nouvelles. <br />Nos contributions se sont orientées précisément vers la mise au point de systèmes de surveillance dynamiques intelligents, en abordant des problématiques liées à la détection dynamique et au diagnostic curatif et préventif. Les techniques de l'intelligence artificielle ont ainsi constituées la colonne vertébrale de nos études, avec des travaux allant de la conception théorique et le test de nouveaux outils de surveillance dynamique, jusqu'à la validation, le prototypage et l'exploitation industrielle des concepts développés.<br />Dans le domaine de la surveillance dynamique, une de nos contributions majeures correspond à l'introduction d'un réseau de neurones dynamique innovant, le Réseau Récurrent à base de Fonctions radiales (RRFR). En faisant appel aux propriétés dynamiques des architectures localement récurrentes, le RRFR se caractérise par une approche de reconnaissance locale – essentielle en surveillance industrielle –, tout en permettant – de part ses caractéristiques dynamiques intrinsèques – une détection précoce des paliers de dégradation et une robustesse vis-à-vis des fausses alarmes. L'existence d'une mémoire statique et d'une mémoire dynamique facilement paramétrables au sein de la même structure, confère au réseau une souplesse d'utilisation très intéressante, ainsi qu'un accès à des techniques d'apprentissage allégées. Par ailleurs, dans le but d'augmenter la rapidité et l'efficacité de l'apprentissage, une version améliorée de l'algorithme des k-moyennes, permet d'améliorer la robustesse des algorithmes et de se situer dans la zone optimale de « bonne généralisation ».<br />La prise en compte de l'incertain fait l'objet d'une deuxième partie de nos travaux, située dans la continuité de la première. Dans ce sens, l'utilisation de la logique floue en surveillance dynamique se montre très intéressante de part la proximité par rapport au raisonnement et à l'expérience des opérateurs et ingénieurs, ainsi que de part la possibilité d'assurer une traçabilité essentielle pour le retour d'expérience en maintenance. Un outil de type réseau de Petri flou dédié à la surveillance (RdPFS) des systèmes de production a ainsi constitué l'objet de cette étude. Cet outil, basé essentiellement sur la modélisation floue de la variable "instant d'apparition" de l'événement discret, est muni d'un mécanisme d'interfaçage intégré, inspiré des réseaux de Petri à synchronisations internes, permettant la communication entre les outils de modélisation, de surveillance et de reprise. Dans un tel système, l'utilisation de la logique floue offre une souplesse d'utilisation et une dimension prédictive très intéressante. Basé sur un modèle RdPFS construit à partir des règles logiques induites par l'arbre de défaillance du système surveillé, nous avons montré sa capacité d'analyse dynamique des défauts, en utilisant une approche temporelle floue. <br />Dans nos travaux les plus récents, les avantages des outils neuronaux dynamiques et de la logique floue ont été mis à l'œuvre conjointement dans le cadre de systèmes hybrides neuro-flous d'aide à la surveillance. L'outil hybride ainsi proposé comporte deux parties, une première pour la détection dynamique – utilisant le RRFR amélioré essentiellement au niveau des algorithmes d'apprentissage dynamiques – et une deuxième pour le diagnostic curatif et prédictif, utilisant un réseau neuro-flou construit à partir de l'arbre de défaillance et de l'AMDEC du système / sous-système surveillé. Il est à noter que ce type de système de surveillance dynamique utilise l'approche abductive de recherche de cause – élément indispensable pour un diagnostic efficace. Par ailleurs, l'apprentissage dynamique permet de commencer l'activité de surveillance dynamique même en l'absence de données très consistantes, en enrichissant et affinant les symptômes et les causes associées (respectivement les degrés de crédibilité de celles-ci) au fur et à mesure du fonctionnement du système, grâce aux algorithmes neuronaux incorporés. <br />Parmi les verrous technologiques abordés lors de nos contributions, une place importante est accordée à la surveillance dynamique par apprentissage en ligne, en traitant des problèmes liés à la rapidité et la flexibilité de l'apprentissage, au temps de réponse, au traitement de grands flux de données, ainsi qu'aux méthodes de validation utilisant le test sur des benchmarks et le prototypage industriel. <br />Dans ce sens, l'exploitation industrielle du réseau récurrent à fonctions de base radiales a représenté une étape importante de nos travaux. Elle nous a permis la mise en œuvre d'une application de surveillance dynamique en temps réel d'un système, en utilisant l'apprentissage dynamique distant via le web. Mettant en évidence l'intérêt des techniques développées dans la réorganisation de l'activité de surveillance grâce aux nouvelles technologies, cette exploitation industrielle a donné lieu à un brevet d'invention, déposé en collaboration avec une SSII bisontine. <br />La conception de l'outil de surveillance neuro-flou a été menée en utilisant des spécifications UML. Cette approche a été initiée (étude, normalisation, spécification) dans le cadre du projet Européen PROTEUS/ITEA et finalisée (prototypage) dans le cadre d'un projet financé par l'ANVAR. Essentiels pour l'industrialisation des systèmes proposés, l'information de départ est considérée sous un format industriel classique (ADD, AMDEC, ...) et la mise à jour est assurée par une réelle ouverture du système traduite par des liens permanents avec les systèmes d'acquisition (capteurs, SCADA, ...) et les systèmes de gestion (GMAO, ...). <br />Dans le domaine de la e-maintenance, un défi considérable est constitué par le besoin de normalisation des plates-formes de e-maintenance, dans l'objectif d'arriver à terme à une génération automatique de ces plateformes, et à un standard qui pourra constituer un guide pour tous les constructeurs d'équipement soucieux d'intégrer leur produit dans une plate-forme de ce type. Du point de vue scientifique, il s'agit d'arriver à une génération automatique ou interactive d'une telle plate-forme, en fonction des services participants et du contexte d'utilisation. L'objectif est très ambitieux, car générateur de nouveaux services et de nouvelles opportunités commerciales. Il constitue l'objectif principal du projet européen SHIVA, dans lequel se retrouvent les partenaires les plus actifs de PROTEUS, avec – mise a part des partenaires déjà existants comme Cegelec et Schneider – des partenaires industriels nouveaux, tout aussi prestigieux, comme la Division des Constructions Navales et Airbus. <br />Concernant les perspectives de nos travaux, s'inscrivant dans le cadre des mêmes tendances de décentralisation et de migration de l'intelligence vers les niveaux opérationnels, une direction d'étude intéressante est constituée par le domaine des réseaux de capteurs intelligents. Cette perspective pourra ainsi intégrer des tendances technologiques liées aux connecteurs intelligents (« smart connectors ») basés sur le multiplexage et sur les courants porteurs, afin de réduire le volume de câblage, des points de connexion et afin de mieux prendre en considération les contraintes de sûreté de fonctionnement de ce type de réseaux, contraintes qui – dans un avenir très proche – seront vraisemblablement déterminantes.<br />Par ailleurs, dans un contexte régional, lié à la création du pôle de compétitivité « microtechniques », la problématique de la fabrication des microsystèmes est une problématique présentant un intérêt croissant. En effet, de nombreux prototypes de microsystèmes sont proposés en phase de prototype, avec une création liée à une manière plutôt artisanale, tout à fait compréhensible – vu les technologies innovantes utilisées -, mais qui ne se prête pas à une commercialisation de ces produits. De ce fait, l'étude des microsystèmes de production semble être un domaine porteur et permettant de garder des emplois européens – souvent menacés par la délocalisation.<br />Enfin, le diagnostic à partir de l'imagerie médicale en utilisant les techniques de l'intelligence artificielle me semble un domaine où mes compétences en recherche (surveillance par IA) et en enseignement (traitement de l'image) peuvent se donner la main pour aborder une thématique nouvelle, présentant un grand intérêt dans le domaine des biotechnologies, dans lequel la France est bien engagée depuis un certain nombre d'années. Cette perspective correspond au projet de recherche propose dans le cadre de ma délégation CNRS au laboratoire IPAL – Image Perception, Access and Learning (actuellement FRE, UMI-CNRS a partir de 2006) de Singapour.
12

Reconnaissance de formes basée sur l'approche possibiliste dans les images mammographiques / Shape recognition based on possibilistic approach in mammographic images

Hmida, Marwa 09 December 2017 (has links)
Face à l'augmentation significative du taux de mortalité par cancer du sein chez les femmes ainsi que la croissance continue du nombre de mammographies réalisées chaque année, le diagnostic assisté par ordinateur devient de plus en plus impératif pour les experts. Dans notre travail de thèse, une attention particulière est accordée aux masses mammaires vu qu'elles représentent le signe de cancer du sein le plus couramment observé en mammographies. Néanmoins, ces images présentent un très faible contraste, ce qui fait que les frontières entre les tissus sains et les masses sont mal définies. C'est ainsi qu'il est difficile de pouvoir discerner avec précision ces masses et de leur définir un contour unique. En outre, la complexité et la grande variabilité des formes des masses mammaires rendent les tâches de diagnostic et de classification difficiles. Dans ce cadre, nous proposons un système d'aide au diagnostic dont le but est la segmentation de masses dans les régions d'intérêt et par la suite la classification de ces masses en deux catégories : bénignes et malignes. La première étape de segmentation est une étape assez délicate vu que les étapes postérieures à savoir la caractérisation et la classification y sont dépendantes. En effet, une mauvaise segmentation peut entrainer une mauvaise prise de décision. Un tel cas peut survenir en raison de l'incertitude et l'imprécision émanant de l'image mammographique. C'est pour cette raison que nous proposons une définition de contours flous permettant de prendre en compte ces types d'imperfections. Ces contours flous sont introduits dans l'énergie d'un contour actif pour modifier son mouvement et aboutir à une délimitation exacte des masses. Une fois les régions d'intérêt sont segmentées, nous présentons une méthode de classification de masses basée sur la théorie des possibilités qui permet de modéliser les ambigüités inhérentes aux connaissances exprimées par l'expert. En outre, cette méthode utilise essentiellement les descripteurs de forme pour caractériser les masses et décider de leur degré de gravité vu que la forme des masses constitue un bon indicateur de gravité.La validation et l'évaluation de ces deux méthodes sont réalisées en utilisant les régions d'intérêt contenant des masses extraites de la base MIAS. Les résultats obtenus sont très intéressants et les comparaisons effectuées ont mis en évidence leurs performances. / In view of the significant increase in breast cancer mortality rate among women as well as the continuous growth in number of mammograms performed each year, computer-aided diagnosis is becoming more and more imperative for experts. In our thesis work, special attention is given to breast masses as they represent the most common sign of breast cancer in mammograms. Nevertheless, mammographic images have very low contrast and breast masses possess ambiguous margins. Thus, it is difficult to distinguish them from the surrounding parenchymal. Moreover, the complexity and the large variability of breast mass shapes make diagnostic and classification challenging tasks.In this context, we propose a computer-aided diagnosis system which firstly segments masses in regions of interests and then classifies them as benign or malignant. Mass segmentation is a critical step in a computer-aided diagnosis system since it affects the performance of subsequent analysis steps namely feature analysis and classification. Indeed, poor segmentation may lead to poor decision making. Such a case may occur due to two types of imperfection: uncertainty and imprecision. Therefore, we propose to deal with these imperfections using fuzzy contours which are integrated in the energy of an active contour to get a fuzzy-energy based active contour model that is used for final delineation of mass.After mass segmentation, a classification method is proposed. This method is based on possibility theory which allows modeling the ambiguities inherent to the knowledge expressed by the expert. Moreover, since shape and margin characteristics are very important for differentiating between benign and malignant masses, the proposed method is essentially based on shape descriptors.The evaluation of the proposed methods was carried out using the regions of interest containing masses extracted from the MIAS base. The obtained results are very interesting and the comparisons made have demonstrated their performances.
13

Application de la théorie des ensembles flous à l'élaboration d'un modèle pour prédire la réussite dans une école de génie à partir du score à une épreuve diagnostique

Martin, Paul January 2007 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
14

Vers une polyédrisation des objets discrets bruités 3D / Toward a polyhedrization process for 3D noisy digital objects

Provot, Laurent 02 December 2009 (has links)
Les travaux de cette thèse s'inscrivent dans le cadre de la géométrie discrète, une discipline ayant pour objectif de définir un cadre théorique pour transposer dans Z^n les bases de la géométrie euclidienne -- les notions discrètes définies étant le plus proche possible des notions continues que nous connaissons (telles que distance, droite, convexité, ...). De nombreuses études ont déjà été menées au sein de cette discipline, pour en définir l'espace de travail ainsi que les objets fondamentaux manipulés et en saisir leurs propriétés. Des algorithmes de reconnaissance pour ces primitives discrètes ont été développés et utilisés dans des problèmes comme la reconnaissance de formes, l'extraction de caractéristiques géométriques et bien d'autres encore. Néanmoins, la majorité des études ont été effectuées en se reposant sur la régularité des structures fondamentales de l'espace discret, souvent issues de définitions arithmétiques, et ces critères de régularité sont généralement essentiels aux différents algorithmes développés. Or, en pratique, les objets manipulés sont très souvent bruités par les méthodes d'acquisition (scanners, IRM, ...) qui suppriment ce caractère régulier des objets. Dans cette thèse, nous nous intéressons aux objets discrets 3D et proposons une nouvelle primitive discrète, le morceau flou de plan discret, destinée à apporter plus de flexibilité dans les traitements, afin de proposer des algorithmes capables de fournir des résultats satisfaisants aussi bien sur des objets réguliers que non réguliers. Avec l'emploi de cette nouvelle primitive discrète, nous définissons différents estimateurs de caractéristiques géométriques au bord d'objets discrets et montrons comment les utiliser dans des problèmes de segmentation et de polyédrisation d'objets discrets possiblement bruités. / The context of this thesis is the digital geometry. An aim of this field is to develop a theoretical framework to implement in Z^n the basis of the Euclidean geometry. The discrete concepts are thus defined as close as possible to their continuous counterparts (such as distance, straight line, convexity, ...). Many studies have already been led within this research area to define the workspace, the fundamental objects and figure their properties out. Recognition algorithms have been designed for these discrete primitives and used in problems such as pattern recognition, geometric features estimation and many more. However, most of these studies rely on the regularity of fundamental structures of the digital space, that usually comes from their arithmetical definitions. But in practice, objects may be corrupted by the acquisition devices (like scanners or MRI) which eliminate this regularity. This thesis is focused on 3D digital objects. We introduce a new discrete primitive: the blurred piece of a discrete plane. Its aim is to bring some flexibility in treatments in order to design algorithms that yield statisfying results on both noisy and non-noisy digital objects. Relying on this new primtive, we define different geometric feature estimators on the border of such objects and show how to use them to guide the segmentation and polyhedrization processes of this border.
15

EVOLUTIONARY DESIGN OF GEOMETRIC-BASED FUZZY SYSTEMS

Kavka, Carlos 06 July 2006 (has links) (PDF)
The main contribution of this thesis is the definition of a new model of fuzzy system where the exponential growth of the number of rules with respect to the number of input variables is reduced, with an efficient representation for the design, using evolutionary algorithms. In the proposed model, the partition of the input space is not defined as a regular structure built as the intersection of the linguistic labels of input variables, as usual in fuzzy systems, but in terms of multidimensional regions, each one associated with a single fuzzy rule.<br /><br />The partition is defined based on well known concepts of computational geometry: the Voronoi diagrams and the Delaunay triangulations. The fuzzy system defined in terms of this partition has a clear and appealing structure. The representation of the individuals for evolutionary algorithms is simple, since each region in the multidimensional input space is represented with a single point. This geometric representation allows the use of geometric based operators for evolution. As an added advantage, the model allows an interesting approach for the inclusion of a priori knowledge about the solution of the problem in the individuals before and during the evolution.<br /><br />Experimental results on evolutionary design of Voronoi based fuzzy systems are presented in two control problems: an inverted cart pole system and a typical robot control application. The approach is extended to the design of recurrent Voronoi-based fuzzy systems. This extension is evaluated in two other control problems: a system identification problem, where the outputs are defined in terms of past inputs and outputs, and a problem from evolutionary robotics, where the ability to introduce a priori knowledge in the form of recursive rules is demonstrated.
16

Visualisation et classification de données multidimensionnelles Application aux images multicomposantes /

Blanchard, Frédéric Herbin, Michel. January 2005 (has links) (PDF)
Reproduction de : Thèse de doctorat : Informatique : Reims : 2005. / Titre provenant de l'écran titre. Bibliogr. f. 143-156.
17

Prétopologie et reconnaissances des formes

Bouayad, Mohammed Emptoz, Hubert January 2006 (has links)
Thèse de doctorat : Automatique Industrielle : Villeurbanne, INSA : 1998. / Titre provenant de l'écran-titre. Bibliogr. p. 155-165.
18

Etude et Extraction de règles graduelles floues : définition d'algorithmes efficaces. / Survey and Extraction of Fuzzy gradual rules : Definition of Efficient algorithms

Ayouni, Sarra 09 May 2012 (has links)
L'Extraction de connaissances dans les bases de données est un processus qui vise à extraire un ensemble réduit de connaissances à fortes valeurs ajoutées à partir d'un grand volume de données. La fouille de données, l'une des étapes de ce processus, regroupe un certain nombre de taches, telles que : le clustering, la classification, l'extraction de règles d'associations, etc.La problématique d'extraction de règles d'association nécessite l'étape d'extraction de motifs fréquents. Nous distinguons plusieurs catégories de motifs : les motifs classiques, les motifs flous, les motifs graduels, les motifs séquentiels. Ces motifs diffèrent selon le type de données à partir desquelles l'extraction est faite et selon le type de corrélation qu'ils présentent.Les travaux de cette thèse s'inscrivent dans le contexte d'extraction de motifs graduels, flous et clos. En effet, nous définissons de nouveaux systèmes de clôture de la connexion de Galois relatifs, respectivement, aux motifs flous et graduels. Ainsi, nous proposons des algorithmes d'extraction d'un ensemble réduit pour les motifs graduels et les motifs flous.Nous proposons également deux approches d'extraction de motifs graduels flous, ceci en passant par la génération automatique des fonctions d'appartenance des attributs.En se basant sur les motifs flous clos et graduels clos, nous définissons des bases génériques de toutes les règles d'association graduelles et floues. Nous proposons également un système d'inférence complet et valide de toutes les règles à partir de ces bases. / Knowledge discovery in databases is a process aiming at extracting a reduced set of valuable knowledge from a huge amount of data. Data mining, one step of this process, includes a number of tasks, such as clustering, classification, of association rules mining, etc.The problem of mining association rules requires the step of frequent patterns extraction. We distinguish several categories of frequent patterns: classical patterns, fuzzy patterns, gradual patterns, sequential patterns, etc. All these patterns differ on the type of the data from which the extraction is done and the type of the relationship that represent.In this thesis, we particularly contribute with the proposal of fuzzy and gradual patterns extraction method.Indeed, we define new systems of closure of the Galois connection for, respectively, fuzzy and gradual patterns. Thus, we propose algorithms for extracting a reduced set of fuzzy and gradual patterns.We also propose two approaches for automatically defining fuzzy modalities that allow obtaining relevant fuzzy gradual patterns.Based on fuzzy closed and gradual closed patterns, we define generic bases of fuzzy and gradual association rules. We thus propose a complet and valid inference system to derive all redundant fuzzy and gradual association rules.
19

Towards development of fuzzy spatial datacubes : fundamental concepts with example for multidimensional coastal erosion risk assessment and representation

Jadidi Mardkheh, Amaneh 20 April 2018 (has links)
Les systèmes actuels de base de données géodécisionnels (GeoBI) ne tiennent généralement pas compte de l'incertitude liée à l'imprécision et le flou des objets; ils supposent que les objets ont une sémantique, une géométrie et une temporalité bien définies et précises. Un exemple de cela est la représentation des zones à risque par des polygones avec des limites bien définies. Ces polygones sont créés en utilisant des agrégations d'un ensemble d'unités spatiales définies sur soit des intérêts des organismes responsables ou les divisions de recensement national. Malgré la variation spatio-temporelle des multiples critères impliqués dans l’analyse du risque, chaque polygone a une valeur unique de risque attribué de façon homogène sur l'étendue du territoire. En réalité, la valeur du risque change progressivement d'un polygone à l'autre. Le passage d'une zone à l'autre n'est donc pas bien représenté avec les modèles d’objets bien définis (crisp). Cette thèse propose des concepts fondamentaux pour le développement d'une approche combinant le paradigme GeoBI et le concept flou de considérer la présence de l’incertitude spatiale dans la représentation des zones à risque. En fin de compte, nous supposons cela devrait améliorer l’analyse du risque. Pour ce faire, un cadre conceptuel est développé pour créer un model conceptuel d’une base de donnée multidimensionnelle avec une application pour l’analyse du risque d’érosion côtier. Ensuite, une approche de la représentation des risques fondée sur la logique floue est développée pour traiter l'incertitude spatiale inhérente liée à l'imprécision et le flou des objets. Pour cela, les fonctions d'appartenance floues sont définies en basant sur l’indice de vulnérabilité qui est un composant important du risque. Au lieu de déterminer les limites bien définies entre les zones à risque, l'approche proposée permet une transition en douceur d'une zone à une autre. Les valeurs d'appartenance de plusieurs indicateurs sont ensuite agrégées basées sur la formule des risques et les règles SI-ALORS de la logique floue pour représenter les zones à risque. Ensuite, les éléments clés d'un cube de données spatiales floues sont formalisés en combinant la théorie des ensembles flous et le paradigme de GeoBI. En plus, certains opérateurs d'agrégation spatiale floue sont présentés. En résumé, la principale contribution de cette thèse se réfère de la combinaison de la théorie des ensembles flous et le paradigme de GeoBI. Cela permet l’extraction de connaissances plus compréhensibles et appropriées avec le raisonnement humain à partir de données spatiales et non-spatiales. Pour ce faire, un cadre conceptuel a été proposé sur la base de paradigme GéoBI afin de développer un cube de données spatiale floue dans le system de Spatial Online Analytical Processing (SOLAP) pour évaluer le risque de l'érosion côtière. Cela nécessite d'abord d'élaborer un cadre pour concevoir le modèle conceptuel basé sur les paramètres de risque, d'autre part, de mettre en œuvre l’objet spatial flou dans une base de données spatiales multidimensionnelle, puis l'agrégation des objets spatiaux flous pour envisager à la représentation multi-échelle des zones à risque. Pour valider l'approche proposée, elle est appliquée à la région Perce (Est du Québec, Canada) comme une étude de cas. / Current Geospatial Business Intelligence (GeoBI) systems typically do not take into account the uncertainty related to vagueness and fuzziness of objects; they assume that the objects have well-defined and exact semantics, geometry, and temporality. Representation of fuzzy zones by polygons with well-defined boundaries is an example of such approximation. This thesis uses an application in Coastal Erosion Risk Analysis (CERA) to illustrate the problems. CERA polygons are created using aggregations of a set of spatial units defined by either the stakeholders’ interests or national census divisions. Despite spatiotemporal variation of the multiple criteria involved in estimating the extent of coastal erosion risk, each polygon typically has a unique value of risk attributed homogeneously across its spatial extent. In reality, risk value changes gradually within polygons and when going from one polygon to another. Therefore, the transition from one zone to another is not properly represented with crisp object models. The main objective of the present thesis is to develop a new approach combining GeoBI paradigm and fuzzy concept to consider the presence of the spatial uncertainty in the representation of risk zones. Ultimately, we assume this should improve coastal erosion risk assessment. To do so, a comprehensive GeoBI-based conceptual framework is developed with an application for Coastal Erosion Risk Assessment (CERA). Then, a fuzzy-based risk representation approach is developed to handle the inherent spatial uncertainty related to vagueness and fuzziness of objects. Fuzzy membership functions are defined by an expert-based vulnerability index. Instead of determining well-defined boundaries between risk zones, the proposed approach permits a smooth transition from one zone to another. The membership values of multiple indicators (e.g. slop and elevation of region under study, infrastructures, houses, hydrology network and so on) are then aggregated based on risk formula and Fuzzy IF-THEN rules to represent risk zones. Also, the key elements of a fuzzy spatial datacube are formally defined by combining fuzzy set theory and GeoBI paradigm. In this regard, some operators of fuzzy spatial aggregation are also formally defined. The main contribution of this study is combining fuzzy set theory and GeoBI. This makes spatial knowledge discovery more understandable with human reasoning and perception. Hence, an analytical conceptual framework was proposed based on GeoBI paradigm to develop a fuzzy spatial datacube within Spatial Online Analytical Processing (SOLAP) to assess coastal erosion risk. This necessitates developing a framework to design a conceptual model based on risk parameters, implementing fuzzy spatial objects in a spatial multi-dimensional database, and aggregating fuzzy spatial objects to deal with multi-scale representation of risk zones. To validate the proposed approach, it is applied to Perce region (Eastern Quebec, Canada) as a case study.
20

Combinaison d'informations hétérogènes dans le cadre unificateur des ensembles aléatoires : approximations et robustesse

Florea, Mihai Cristian 13 April 2018 (has links)
Dans ce travail nous nous intéressons aux problèmes liés à la combinaison d'informations en provenance de sources multiples. Nous proposons de représenter les informations en provenance de la théorie des ensembles flous (FST) et de la théorie de l'évidence (DST) dans le cadre unificateur des ensembles aléatoires (RST). Le processus de combinaison fait face à deux problématiques majeures : (1) une explosion du temps de calcul dû au grand nombre d'éléments focaux, et (2) la combinaison d'informations en conflit total. Nous proposons dans un premier temps de réduire le temps de calcul du processus de combinaison, en appliquant une approximation directe aux informations de la FST qui s'avère très efficace lorsque la cardinalité du cadre de discernement est élevée. Dans un deuxième temps nous proposons une formulation générale pour les règles de combinaison de la RST, ainsi qu'une nouvelle classe de règles adaptatives qui a l'avantage de (a) prendre en compte de manière automatique la fiabilité des sources, (b) combiner des informations définies sur des cadres de discernement différents et homogènes. Elle possède un comportement similaire à la règle conjonctive lorsque les sources sont en accord et un comportement similaire à la règle disjonctive lorsque les sources sont en désaccord.

Page generated in 0.0443 seconds