• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 158
  • 43
  • 15
  • 1
  • 1
  • Tagged with
  • 220
  • 152
  • 73
  • 67
  • 60
  • 50
  • 35
  • 34
  • 33
  • 29
  • 27
  • 26
  • 25
  • 24
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Contribution à la synthèse de lois de commande pour les descripteurs de type Takagi-Sugeno incertains et perturbés

Tahar, Bouarar 08 December 2009 (has links) (PDF)
Les travaux de recherche présentés dans cette thèse portent sur la stabilisation des systèmes descripteurs non linéaires représentés par des multi-modèles flous de type Takagi-Sugeno incertains et/ou perturbés. Dans ce cadre, des approches basées sur une fonction candidate quadratique de Lyapunov ont tout d'abord été développées. Celles-ci permettent la synthèse de lois de commande par la résolution d'un ensemble de contraintes LMIs (Inégalités Linéaires Matricielles). Les résultats de ces premières approches restent toutefois pessimistes vis-à-vis de l'ensemble des solutions accessible au problème de synthèse de lois de commande. Afin de réduire ce conservatisme, de nouvelles approches basées sur une fonction candidate non quadratique de Lyapunov et une loi de commande non PDC (Compensation Parallèle Distribuée) ont été proposées. Une autre source de conservatisme a ensuite été abordée. En effet, l'écriture classique de la dynamique de la boucle fermée introduit des termes croisés entre la commande et le modèle au sein des conditions LMIs à résoudre. L'utilisation de la propriété de redondance des descripteurs a alors permis de pallier cette source de conservatisme. En effet, l'écriture redondante de la dynamique de la boucle fermée permet de découpler les matrices du système à piloter de celles des gains de commande par retour d'état. Tirant parti de cette propriété, des problèmes réputés complexes en terme de formulation LMI ont étés traites tels que la synthèse de lois de commande robustes par retour de sortie dynamique et statique pour les systèmes standard de type Takagi-Sugeno incertains et/ou perturbés.
192

Gestion optimale de l'énergie thermique dans un procédé hybride : solaire/géothermie pour le chauffage de bâtiments

Nou, Julien 13 December 2011 (has links) (PDF)
Les enjeux environnementaux, énergétiques et économiques actuels, nous amènent à proposer de nouvelles solutions de gestion énergétique afin d'éviter d'entrer dans une ère de récession énergétique brutale. À partir des constats établis par les institutions mondiales, telles que le GIEC, il est aujourd'hui admis par la communauté scientifique internationale, que la température moyenne de la Terre est en augmentation et que l'activité anthropique en est une des causes, sinon la plus importante. Les travaux réalisés et présentés dans ce manuscrit visent à répondre, en partie, à ces problématiques par la mise en place d'un système de contrôle supervisé permettant l'optimisation de la gestion énergétique d'un procédé hybride alliant l'énergie solaire à la géothermie, et destiné au chauffage dans le secteur du bâtiment. L'utilisation des méthodologies de l'intelligence artificielles telles que le neuroflou et la logique floue nous a permis de développer une plateforme de simulation d'un système énergétique hybride et d'en réaliser la gestion à l'aide de contrôleurs flous. Les résultats obtenus, par l'utilisation de ces contrôleurs, montrent qu'un choix judicieux des périodes et durées de marche du système d'extraction permet d'améliorer de façon significative le fonctionnement du procédé. La consommation électrique et le coût de fonctionnement de l'installation sont donc diminués, tout en respectant les contraintes techniques de fonctionnement et le confort thermique des habitants.
193

Extraction de séquences fréquentes : des données numériques aux valeurs manquantes

Fiot, Céline 28 September 2007 (has links) (PDF)
La quantité de données aujourd'hui emmagasinées dans tous les domaines ainsi que leur diversité d'origines et de formats rendent impossibles l'analyse, le résumé ou l'extraction manuelle de connaissances. Pour répondre à ces besoins, diverses communautés se sont intéressées à la conception et au développement d'outils permettant d'extraire automatiquement de la connaissance de ces grandes bases. Désormais ces travaux visent à prendre en compte l'hétérogénéité de ces données, de leur format et de leur qualité. Notre travail s'inscrit dans cet axe de recherche et, plus précisément, dans le contexte de la découverte de schémas fréquents à partir de données regroupées sous la forme de séquences ordonnées. Ces schémas, appelés motifs séquentiels, n'étaient jusqu'alors extraits que sur des bases de données de séquences symboliques et parfaites, c'est-à-dire des bases ne contenant que des informations binaires ou pouvant être traitées comme telles et ne contenant aucun enregistrement incomplet. Nous avons donc proposé plusieurs améliorations des techniques d'extraction de séquences fréquentes afin de prendre en compte des données hétérogènes, incomplètes, incertaines ou mal connues de leur utilisateur, tout en minimisant les pertes éventuelles d'informations. Ainsi, le travail présenté dans cette thèse comporte la mise en oeuvre d'un cadre pour l'extraction de motifs séquentiels en présence de données numériques quantitatives, la définition de contraintes temporelles relâchées autorisant l'utilisateur à spécifier des contraintes temporelles approximatives et permettant un tri des résultats obtenus selon un indice de précision temporelle, enfin, le développement de deux approches pour l'extraction de motifs séquentiels sur des données symboliques incomplètes.
194

Approche de modélisation approximative pour des systèmes à événements discrets : Application à l'étude de propagation de feux de forêt

Bisgambiglia, Paul-Antoine 05 December 2008 (has links) (PDF)
Ce rapport présente les différentes étapes suivies afin de définir une nouvelle approche de modélisation et de simulation à évènements discrets pour les systèmes à paramètres imprécis. Cette étude a débuté avec des travaux sur la formalisation d'un système de production de fromage Corse. Suite à ces recherches, et en particulier, suite à la phase de modélisation du processus, nous avons pu constater l'influence de paramètres imparfaitement définis. Ces paramètres entrent en compte au cours des différentes phases de conception, et sont difficiles à représenter et surtout à manipuler. Dans le but de les prendre en compte de manière générique, nous nous sommes naturellement tournés vers l'utilisation de la Logique Floue. En effet, elle permet de représenter des informations imprécises (théorie des sous ensembles flous), incertaines (théorie des possibilités), et inexacte (raisonnement approximatif). Son avantage principal est de fournir un grand nombre d'outils mathématiques afin de manipuler de telles informations sous forme numérique ou linguistique, c'est-à-dire de manière relativement proche du mode de représentation, et surtout d'expression utilisé par l'homme. A partir des théories du flou, nous pouvons donc user de concepts mathématiques complexes tout en conservant un rapport privilégié (lien) entre représentation numérique et mode de description humain. Nous avons choisi d'intégrer ces différents outils dans un multi formalisme de modélisation et de simulation afin de pouvoir spécifier de manière générique n'importe quel type de système à paramètres imprécis. Le formalisme employé est nommé DEVS (Discrete EVents system Specification). Ses principaux avantages sont : sa capacité à être étendu à de nouveaux domaines d'étude, dans notre cas les systèmes flous ; la séparation des phases de modélisation et de simulation, de ce fait, lors de la conception d'un modèle DEVS les algorithmes de simulation sont automatiquement générés en fonction du modèle ; enfin, il permet de représenter un système sous sa forme fonctionnelle et structurelle. Notre but est d'associer le formalisme DEVS et une partie des théories du flou afin de définir une nouvelle approche de modélisation approximative.
195

Extraction de séquences inattendues : des motifs séquentiels aux règles d'implication

Li, Haoyuan 10 September 2009 (has links) (PDF)
Les motifs séquentiels peuvent être vus comme une extension de la notion d'itemsets fréquents intégrant diverses contraintes temporelles. La recherche de tels motifs consiste ainsi à extraire des enchaînements d'ensembles d'items, couramment associés sur une période de temps bien spécifiée. La construction de règles à partir de ces motifs séquentiels permet d'étendre la notion de règles d'association pour la pris en compte de la temporalité. En fait, cette recherche met en évidence des associations inter-transactions, contrairement à celle des règles d'association qui extrait des combinaisons intra-transactions. Ce problème, posé à l'origine dans un contexte de marketing, intéresse à présent des domaines aussi variés que les télécommunications, la finance, ou encore la médecine et la bioinformatique. Même s'il existe aujourd'hui de très nombreuses approches efficaces pour extraire des motifs, ces derniers ne sont pas forcément adaptés aux besoins des applications réelles. En fait, les résultats obtenus sont basés sur une mesure statistique et ne tiennent pas compte de la connaissance du domaine. De plus, ces approches sont principalement axées sur la recherche de tendances et ne permettent pas d'extraire des connaissances sur les éléments atypiques ou inattendus. Dans le cadre de cette thèse, nous nous intéressons donc à la problématique de l'extraction de motifs séquentiels et règles inattendus en intégrant la connaissance du domaine. Le travail présenté dans cette thèse comporte la mise en œuvre d'un cadre MUSE pour l'extraction de séquences inattendues par rapport à un système de croyances, des extensions avec la théorie de logique floue, l'intégration des données hiérarchisées, la définition des motifs séquentiels et règles inattendus et, enfin, l'extraction de phrases inattendues dans des documents textes. Des expérimentations menées sur des données synthétiques et sur des données réelles sont rapportées et montrent l'intérêt de nos propositions.
196

Planification et ordonnancement de projet sous incertitudes : application à la maintenance d'hélicoptères

Masmoudi, Malek 22 November 2011 (has links) (PDF)
Cette thèse entre dans le cadre du projet Hélimaintenance ; un project labellisé par le pôle de compétitivité Français Aérospace-Valley, qui vise à construire un centre dédié à la maintenance des hélicoptères civils qui soit capable de lancer des travaux en R&D dans le domaine. Notre travail consiste à prendre en considération les incertitudes dans la planification et l'ordonnancement de projets et résoudre les problèmes Rough Cut Capacity Planning, Resource Leveling Problem et Resource Constraint Project Scheduling Problem sous incertitudes. L'incertitude est modélisée avec l'approche floue/possibiliste au lieu de l'approche stochastique ce qui est plus adéquat avec notre cas d'étude. Trois types de problèmes ont été définis dans cette étude à savoir le Fuzzy Rough Cut Capacity Problem (FRCCP), le Fuzzy Resource Leveling Problem (FRLP) et le Fuzzy Resource Constraint Project Scheduling Problem (RCPSP). Un Algorithme Génétique et un Algorithme "Parallel SGS" sont proposés pour résoudre respectivement le FRLP et le FRCPSP et un Recuit Simulé est proposé pour résoudre le problème FRCCP.
197

Développement d'une approche floue multicritères pour une planification intégrée couplant la gestion de la performance et du risque / Development of a fuzzy multi-criteria approach for managing performance and risk in integrated procurement–production planning

Khemiri, Rihab 27 November 2017 (has links)
Le présent travail s’intéresse à la prise en compte de l’incertitude et du risque pour l’optimisation de la planification de production au niveau tactique d’une entreprise multi-sites d’une chaîne logistique. La méthode proposée permet d’assurer une planification des opérations de production et d’approvisionnement tout en intégrant au sein de son processus décisionnel un mécanisme de gestion de risque, en présence de diverses sources d’incertitude et d’ambigüité. Pour cela, une «bibliothèque» de critères structurés en deux classes indépendantes : critères de performance et critères de risque a été proposée, dans laquelle le décideur peut sélectionner ceux qui sont en cohérence avec ses préférences et sa stratégie de planification. La méthode doit chercher le bon compromis entre les performances et les risques prédéfinis par le décideur. Pour cela, nous nous somme dirigés dans un premier temps sur le développement d’une approche d’aide à la décision multicritères floue couplant un modèle analytique et la méthode TOPSIS floue. Cette approche consiste à générer un éventail de plans réalisables, caractérisés par leur performance et leur résistance aux risques. Le décideur peut alors choisir le plan qui reflète le compromis le plus adapté à sa stratégie de décision. Une deuxième approche d’optimisation multi-objectifs floue a été proposée dans un deuxième temps pour faire face à des problèmes de planification de grande taille au sein des chaînes logistiques opérant dans un environnement dynamique et incertain. Cette approche combine la méthode TOPSIS Floue, la programmation multi-objectifs possibiliste et la méthode du Goal Programming. L’objectif est de déterminer un plan jugé de bon compromis vis-à- vis des préférences du décideur par rapport aux objectifs de performance et de résistance aux risques. L’instanciation des deux approches proposées sur un exemple numérique a montré leur applicabilité et leur efficacité pour faire face à des problèmes de planification des chaînes logistiques utilisant des données incertaines et des préférences subjectives. Les expérimentations des deux approches permettant de tirer un ensemble d’enseignements utiles. / The work reported in this dissertation deals with risk-oriented integrated procurement–production approaches for tactical planning in a multi-echelon supply chain network presenting various sources of uncertainty and ambiguity. The proposed method allows planning of production and supply operations while integrating a risk management mechanism into its decision-making process, in the presence of various sources of uncertainty and ambiguity. So, a library" of criteria structured into two independent classes: Performance-based and risk-based decision criteria were proposed, in which the decision-maker can select those that are consistent with his preferences and his planning strategy. The method must seek the right compromise between performance and risk predefined by the decision-maker. To reach this goal, we initially focused on the development of a fuzzy multi-criteria decision making approach coupling an analytical model and the fuzzy TOPSIS method. This approach generates a range of feasible plans, characterized by their performance and their resistance to risks. The decision-maker can then choose the plan that reflects the compromise that best suits its decision strategy. Afterwards, a fuzzy multi-objective optimization approach was proposed to deal with large-scale planning problems within supply chains operating in a dynamic and uncertain environment. This approach second combines the Fuzzy TOPSIS method, the possibilistic multi-objective programming and the Goal Programming method. The objective is to determine a plan that is judged to be a good compromise compared to the decision maker's preferences regarding the performance and risk objectives. The instantiation of the two proposed approaches on a numerical example has shown their applicability and tractability to deal with supply chain planning problems in the presence of uncertain data and subjective preferences. The experiments of the two approaches make it possible to draw a useful set of lessons. The experiments of the two approaches show a set of useful issues.
198

Fuzzy multilevel graph embedding for recognition, indexing and retrieval of graphic document images / Apport des modèles graphiques à l'analyse et à l'indexation d'images de documents

Luqman, Muhammad Muzzamil 02 March 2012 (has links)
Cette thèse aborde le problème du manque de performance des outils exploitant des représentationsà base de graphes en reconnaissance des formes. Nous proposons de contribuer aux nouvellesméthodes proposant de tirer partie, à la fois, de la richesse des méthodes structurelles et de la rapidité des méthodes de reconnaissance de formes statistiques. Deux principales contributions sontprésentées dans ce manuscrit. La première correspond à la proposition d'une nouvelle méthode deprojection explicite de graphes procédant par analyse multi-facettes des graphes. Cette méthodeeffectue une caractérisation des graphes suivant différents niveaux qui correspondent, selon nous,aux point-clés des représentations à base de graphes. Il s'agit de capturer l'information portéepar un graphe au niveau global, au niveau structure et au niveau local ou élémentaire. Ces informationscapturées sont encapsulés dans un vecteur de caractéristiques numériques employantdes histogrammes flous. La méthode proposée utilise, de plus, un mécanisme d'apprentissage nonsupervisée pour adapter automatiquement ses paramètres en fonction de la base de graphes àtraiter sans nécessité de phase d'apprentissage préalable. La deuxième contribution correspondà la mise en place d'une architecture pour l'indexation de masses de graphes afin de permettre,par la suite, la recherche de sous-graphes présents dans cette base. Cette architecture utilise laméthode précédente de projection explicite de graphes appliquée sur toutes les cliques d'ordre 2pouvant être extraites des graphes présents dans la base à indexer afin de pouvoir les classifier.Cette classification permet de constituer l'index qui sert de base à la description des graphes etdonc à leur indexation en ne nécessitant aucune base d'apprentissage pré-étiquetées. La méthodeproposée est applicable à de nombreux domaines, apportant la souplesse d'un système de requêtepar l'exemple et la granularité des techniques d'extraction ciblée (focused retrieval). / This thesis addresses the problem of lack of efficient computational tools for graph based structural pattern recognition approaches and proposes to exploit computational strength of statistical pattern recognition. It has two fold contributions. The first contribution is a new method of explicit graph embedding. The proposed graph embedding method exploits multilevel analysis of graph for extracting graph level information, structural level information and elementary level information from graphs. It embeds this information into a numeric feature vector. The method employs fuzzy overlapping trapezoidal intervals for addressing the noise sensitivity of graph representations and for minimizing the information loss while mapping from continuous graph space to discrete vector space. The method has unsupervised learning abilities and is capable of automatically adapting its parameters to underlying graph dataset. The second contribution is a framework for automatic indexing of graph repositories for graph retrieval and subgraph spotting. This framework exploits explicit graph embedding for representing the cliques of order 2 by numeric feature vectors, together with classification and clustering tools for automatically indexing a graph repository. It does not require a labeled learning set and can be easily deployed to a range of application domains, offering ease of query by example (QBE) and granularity of focused retrieval.
199

Gestion du Handover dans les réseaux hétérogènes mobiles et sans fil / Handover management in heterogenous mobile and wireless networks

Rahil, Ahmad 12 March 2015 (has links)
Depuis les années 90, la technologie réseau et radio mobile a fait l'objet de progrès phénoménaux. Cette avancée technologique s'est faite en parallèle du côté réseau, du côté application et du coté besoin de l’utilisateur. L’évolution rapide de la technologie a eu pour conséquence l’existence d’un environnement hétérogène où la couverture est assurée par la coexistence de plusieurs types de réseaux. Le défi soulevé par cette architecture est de pouvoir naviguer entre plusieurs réseaux d’une façon transparente. La navigation entre réseaux de types différents est connue sous le nom du Handover vertical. Le standard IEEE 802.21 offre une composante appelée Media Independent Handover (MIH) qui contient une fonction capable de transmettre l’état des liens du nœud mobile depuis les couches inférieures vers les couches supérieures. MIH s’intercale entre le niveau 2 et le niveau 3 dans la pile protocolaire. Le rôle principal de MIH est d’aider le nœud mobile à faire un transfert sans coupure entre des réseaux de types différents, mais la logique de sélection est laissée sans implémentation.Dans ce contexte nous avons travaillé sur l’amélioration de la gestion du Handover en proposant une nouvelle architecture appelée VHMC et basée sur MIH offrant des nouvelles méthodes de sélection du réseau destination. La première proposition est un nouvel algorithme nommé Multiple Criteria Selection Algorithm (MCSA) basé sur plusieurs paramètres de qualité du service. Nous avons utilisé le simulateur Network Simulator (NS2) pour évaluer nos propositions en étudiant le nombre de paquets perdus et le temps de latence du Handover durant la période du transfert. La deuxième contribution est un nouveau modèle de sélection du réseau destination basé sur la technique de la logique floue. La base d’inférence, qui est l’élément central de la décision de ce modèle, est déduit grâce à une étude basée sur un nombre élevé de cas de Handover réels collectés des serveurs de la compagnie de télécommunication libanaise "Alfa". Une troisième solution est proposée à travers un nouveau modèle de sélection du réseau destination basé sur la théorie de la régression linéaire multiple. / Since 1990, networking and mobile technologies have made a phenomenal unprecedented progress. This progress has been experienced on multiple fronts in parallel; especially on the application level and the user's needs one. This rapid evolution of the technology imposed a need for the existence of heterogeneous environments where the coverage is ensured throughout the different available networks. The challenge with such architecture would be to provide the user with the ability to navigate through the different available networks in a transparent and seamless fashion. However, the navigation among different types of networks is commonly referred to as vertical Handover. The IEEE 802.21 standard offers a component that is called Media Independent Handover (MIH) which has a function that provides the capability of transmitting the state of the connection of the mobile nodes from the lower to upper layers. This layer would exist between layer 2 and layer 3 within the protocol architecture. The main role of MIH is to help the mobile node transfer without interrupt among different types of networks, but the logic of selection is left without implementation. In this context, we worked on the improvement of the Handover management by proposing a new architecture, called VHMC and based on MIH by offering new methods for selecting the destination network. The first solution is a new algorithm called Multiple Criteria Selection Algorithm (MCSA) based on multiple parameters of the quality of service. We used Network Simulator (NS2) for testing our approach and study the number of lost packets and lost time during Handover. The second solution is a new model for selecting the destination network based on fuzzy logic techniques. The distinctive characteristic of this model lies in the study of genuine Handover records taken from a Lebanese mobile operator called "Alfa". A third proposed solution for network selection is based on multiple linear regression theory.
200

Application of hybrid uncertainty-clustering approach in pre-processing well-logs / Application de l'approche hybride incertitude-partitionnement pour le prétraitement des données de diagraphie

Masoudi, Pedram 16 May 2017 (has links)
La thèse est principalement centrée sur l'étude de la résolution verticale des diagraphies. On outre, l'arithmétique floue est appliquée aux modèles expérimentaux pétrophysiques en vue de transmettre l'incertitude des données d'entrée aux données de sortie, ici la saturation irréductible en eau et la perméabilité. Les diagraphies sont des signaux digitaux dont les données sont des mesures volumétriques. Le mécanisme d'enregistrement de ces données est modélisé par des fonctions d'appartenance floues. On a montré que la Résolution Verticale de la Fonction d'Appartenance (VRmf) est supérieur d'espacement. Dans l'étape suivante, la fréquence de Nyquist est revue en fonction du mécanisme volumétrique de diagraphie ; de ce fait, la fréquence volumétrique de Nyquist est proposée afin d'analyser la précision des diagraphies. Basé sur le modèle de résolution verticale développée, un simulateur géométrique est conçu pour générer les registres synthétiques d'une seule couche mince. Le simulateur nous permet d'analyser la sensibilité des diagraphies en présence d'une couche mince. Les relations de régression entre les registres idéaux (données d'entrée de ce simulateur) et les registres synthétiques (données de sortie de ce simulateur) sont utilisées comme relations de déconvolution en vue d'enlever l'effet des épaules de couche d'une couche mince sur les diagraphies GR, RHOB et NPHI. Les relations de déconvolution ont bien été appliquées aux diagraphies pour caractériser les couches minces. Par exemple, pour caractériser une couche mince poreuse, on a eu recours aux données de carottage qui étaient disponibles pour la vérification : NPHI mesuré (3.8%) a été remplacé (corrigé) par 11.7%. NPHI corrigé semble être plus précis que NPHI mesuré, car la diagraphie a une valeur plus grande que la porosité de carottage (8.4%). Il convient de rappeler que la porosité totale (NPHI) ne doit pas être inférieure à la porosité effective (carottage). En plus, l'épaisseur de la couche mince a été estimée à 13±7.5 cm, compatible avec l'épaisseur de la couche mince dans la boite de carottage (<25 cm). Normalement, l'épaisseur in situ est inférieure à l'épaisseur de la boite de carottage, parce que les carottes obtenues ne sont plus soumises à la pression lithostatique, et s'érodent à la surface du sol. La DST est appliquée aux diagraphies, et l'intervalle d'incertitude de DST est construit. Tandis que la VRmf des diagraphies GR, RHOB, NPHI et DT est ~60 cm, la VRmf de l'intervalle d'incertitude est ~15 cm. Or, on a perdu l'incertitude de la valeur de diagraphie, alors que la VRmf est devenue plus précise. Les diagraphies ont été ensuite corrigées entre l'intervalle d'incertitude de DST avec quatre simulateurs. Les hautes fréquences sont amplifiées dans les diagraphies corrigées, et l'effet des épaules de couche est réduit. La méthode proposée est vérifiée dans les cas synthétiques, la boite de carottage et la porosité de carotte. L'analyse de partitionnement est appliquée aux diagraphies NPHI, RHOB et DT en vue de trouver l'intervalle d'incertitude, basé sur les grappes. Puis, le NPHI est calibré par la porosité de carottes dans chaque grappe. Le √MSE de NPHI calibré est plus bas par rapport aux cinq modèles conventionnels d'estimation de la porosité (au minimum 33% d'amélioration du √MSE). Le √MSE de généralisation de la méthode proposée entre les puits voisins est augmenté de 42%. L'intervalle d'incertitude de la porosité est exprimé par les nombres flous. L'arithmétique floue est ensuite appliquée dans le but de calculer les nombres flous de la saturation irréductible en eau et de la perméabilité. Le nombre flou de la saturation irréductible en eau apporte de meilleurs résultats en termes de moindre sous-estimation par rapport à l'estimation nette. Il est constaté que lorsque les intervalles de grappes de porosité ne sont pas compatibles avec la porosité de carotte, les nombres flous de la perméabilité ne sont pas valables. / In the subsurface geology, characterization of geological beds by well-logs is an uncertain task. The thesis mainly concerns studying vertical resolution of well-logs (question 1). In the second stage, fuzzy arithmetic is applied to experimental petrophysical relations to project the uncertainty range of the inputs to the outputs, here irreducible water saturation and permeability (question 2). Regarding the first question, the logging mechanism is modelled by fuzzy membership functions. Vertical resolution of membership function (VRmf) is larger than spacing and sampling rate. Due to volumetric mechanism of logging, volumetric Nyquist frequency is proposed. Developing a geometric simulator for generating synthetic-logs of a single thin-bed enabled us analysing sensitivity of the well-logs to the presence of a thin-bed. Regression-based relations between ideal-logs (simulator inputs) and synthetic-logs (simulator outputs) are used as deconvolution relations for removing shoulder-bed effect of thin-beds from GR, RHOB and NPHI well-logs. NPHI deconvolution relation is applied to a real case where the core porosity of a thin-bed is 8.4%. The NPHI well-log is 3.8%, and the deconvolved NPHI is 11.7%. Since it is not reasonable that the core porosity (effective porosity) be higher than the NPHI (total porosity), the deconvolved NPHI is more accurate than the NPHI well-log. It reveals that the shoulder-bed effect is reduced in this case. The thickness of the same thin-bed was also estimated to be 13±7.5 cm, which is compatible with the thickness of the thin-bed in the core box (<25 cm). Usually, in situ thickness is less than the thickness of the core boxes, since at the earth surface, there is no overburden pressure, also the cores are weathered. Dempster-Shafer Theory (DST) was used to create well-log uncertainty range. While the VRmf of the well-logs is more than 60 cm, the VRmf of the belief and plausibility functions (boundaries of the uncertainty range) would be about 15 cm. So, the VRmf is improved, while the certainty of the well-log value is lost. In comparison with geometric method, DST-based algorithm resulted in a smaller uncertainty range of GR, RHOB and NPHI logs by 100%, 71% and 66%, respectively. In the next step, cluster analysis is applied to NPHI, RHOB and DT for the purpose of providing cluster-based uncertainty range. Then, NPHI is calibrated by core porosity value in each cluster, showing low √MSE compared to the five conventional porosity estimation models (at least 33% of improvement in √MSE). Then, fuzzy arithmetic is applied to calculate fuzzy numbers of irreducible water saturation and permeability. Fuzzy number of irreducible water saturation provides better (less overestimation) results than the crisp estimation. It is found that when the cluster interval of porosity is not compatible with the core porosity, the permeability fuzzy numbers are not valid, e.g. in well#4. Finally, in the possibilistic approach (the fuzzy theory), by calibrating α-cut, the right uncertainty interval could be achieved, concerning the scale of the study.

Page generated in 0.3829 seconds