11 |
Modélisation et apprentissage des préférences par réseaux de neurones pour l'aide à la décision multicritèreFrämling, Kary 15 March 1996 (has links) (PDF)
La modélisation des préférences des décideurs pour des problèmes de choix est l'objet principal de ce travail de thèse. Afin d'obtenir des modèles plus réalistes, des fonctions de préférence contextuelle sont présentées dans ce mémoire de thèse. La complexité d'expression de telles fonctions est réduite par le recours à des techniques d'apprentissage automatique à partir de réseaux de neurones. L'identification des fonctions de préférence est réalisée par des réseaux de neurones, fondés sur les principes de la régression non-linéaire, à partir d'exemples de décision. Une telle technique n'est pas toujours applicable en pratique à cause du nombre élevé d'exemples nécessaire. Le réseau neuronal INKA, développé dans le cadre de ce travail, effectue la régression avec un nombre d'exemples relativement petit. INKA offre également des temps d'apprentissage courts par rapport à d'autres techniques, ce qui est nécessaire pour une acquisition interactive de la fonction de préférence. INKA est utilisé dans le système interactif d'aide à la décision (SIAD) présenté, qui est un des premiers à mettre en oeuvre un apprentissage automatique d'une fonction de préférence globale. La visualisation de la fonction apprise et les indicateurs de précision et de sensibilité permettent au décideur d'estimer le moment d'arrêter la recherche de solutions. Ceci est particulièrement utile pour apprendre les préférences des décideurs " abstraits " (acteurs sociaux, systèmes naturels, ...), qui ne peuvent pas utiliser directement le système. Les fonctionnalités d'explication développées dans ce travail permettent de justifier les recommandations des SIAD, ce qui a constitué un des grands défis du domaine de l'aide à la décision multicritère et des réseaux neuronaux. Il est donc possible d'expliquer, de comprendre et d'analyser les préférences même pour des décideurs abstraits. L'intérêt de telles explications est de faciliter la prise de décisions négociées dans le cadre de projets d'aménagement complexes ou pour améliorer des produits dont les ventes dépendent des préférences des clients.
|
12 |
Systèmes d'aide à la décision pour le traitement des déchets industriels spéciauxDebray, Bruno 01 July 1997 (has links) (PDF)
Les déchets industriels spéciaux constituent une source potentielle de pollution importante. A ce titre il est nécessaire de les traiter en vue d'aboutir soit à une valorisation soit à un rejet écocompatible et au stockage d'un déchet ultime. La mise en oeuvre pratique de ces traitements fait intervenir une grande variété de filières et de procédés suivant la nature et les caractéristiques du déchet. Le choix d'une solution de traitement est une opération délicate qui implique la connaissance de toutes les options disponibles et de leurs critères de choix. Pour aider les producteurs de déchets, nous avons identifié dans deux contextes différents, les raisonnements et les données qui permettent d'aboutir à la liste des solutions applicables : centres et filières de traitement dans le cas du traitement externe, procédés de traitement et position dans l'unité productrice du déchet pour le traitement interne. Ce travail méthodologique, dont l'objectif est la proposition d'outils pour aider les industriels dans le choix de solutions de traitement, a débouché sur deux systèmes informatiques d'aide à la décision : * le premier pour l'orientation des déchets industriels spéciaux vers des solutions externes de traitement, * le second pour l'identification de solutions de traitement interne pour les ateliers de traitement de surface. A travers le développement de ces outils, nous avons pu mettre en évidence l'importance des systèmes d'identification et de caractérisation des déchets et proposer une méthode générale pour l'identification de solutions de traitement.
|
13 |
Un modèle computationnel d'intelligence culturelle ouvert et extensibleWu, Zhao Xin 02 1900 (has links) (PDF)
Avec le phénomène de la globalisation qui prend de l'ampleur, les différences culturelles, dans les communications interculturelles, amènent leur lot de problèmes inévitables. Geet Hofstede a exprimé de manière représentative ce phénomène : "Culture is more often a source of conflict than of synergy. Cultural differences are a nuisance at best and often a disaster." (Geert Hofstede, Emeritus Professor, Maastricht University.) Dans la revue de la littérature, jusqu'à ce jour, les recherches relatives à l'intelligence culturelle (IC) utilisent les méthodes traditionnelles pour mesurer l'IC et trouver des solutions aux problèmes relatifs à l'IC. Ces méthodes dépendent essentiellement de questionnaires évaluant des aspects distincts, de documents (Ng et Earley, 2006) et d'évaluations variées, guidées par les connaissances spécialisées et des qualités psychologiques d'experts de l'IC. Ces façons de faire réduisent le nombre de solutions possibles. À notre connaissance, aucune recherche au sujet de l'IC n'a été empiriquement informatisée jusqu'à maintenant. En conséquence, l'intégration de l'IC dans le domaine de l'intelligence artificielle (IA) reste absente. L'objectif principal de la recherche est donc de créer un modèle computationnel de l'IC et de l'implémenter dans un système expert. Ce système se nomme Système Expert Neuro-Flou d'Intelligence Culturelle (SENFIC). Il intègre l'expertise d'experts de l'IC en intégrant le fruit des études à propos des quatre dimensions de l'IC comme un tout intégré et s'influençant les unes des autres. Il devrait permettre éventuellement d'atteindre un meilleur niveau de performance que celui des experts de l'IC. Comme un système intelligent efficace, il fournit une recommandation globale au problème et une forme de système de règles permettant l'adaptabilité des individus et des organisations à un environnement interculturel. C'est dans ce contexte que le SENFIC a vu le jour. Nous combinons deux techniques intelligentes dans le cadre du système. La technique d'hybride neuro-floue intégrant la logique floue et le réseau de neurones artificiels, et la technique du système expert. La technique de logique floue est une bonne solution pour exprimer des problèmes originalement en langue imprécise et naturelle, comme ceux soulevés dans les recherches relatives à l'IC. La technique du réseau de neurones artificiels aide le système à atteindre un niveau d'autorégulation, d'auto-adaptation et d'autoapprentissage. Le système expert utilise des connaissances et des procédures d'inférence dans le but de résoudre des problèmes difficiles, requérant normalement une expertise humaine dans le domaine d'IC. Ainsi, le SENFIC exprime des connaissances sous une forme facilement comprise par les utilisateurs, et traite les demandes simples en langage naturel plutôt qu'en langage de programmation. En utilisant une nouvelle approche pour la technique de soft-computing en concevant la technique hybride comme le cœur du système, notre SENFIC devient alors capable de raisonner et d'apprendre dans un environnement culturel incertain et imprécis. Ce SENFIC est ouvert et extensible, autant au niveau interne qu'externe. Au niveau interne, le modèle computationnel de l'IC fournit une interface standard pouvant faciliter le développement secondaire et la mise en pratique du système. Au niveau externe, le SENFIC a la capacité de se présenter comme un agent d'extension permettant l'intégration à n'importe quel système intelligent existant, pour que ce système devienne culturellement intelligent. Le SENFIC est « conscient de l'intelligence culturelle ». Cela représente une percée amenant son lot de contributions dans les domaines de l'IC et de l'IA.
______________________________________________________________________________
MOTS-CLÉS DE L’AUTEUR : intelligence culturelle, logique floue, réseaux de neurones artificiels, soft-computing, hybride neuro-floue, système expert
|
14 |
Système intelligent de détection et diagnostic de fautes en tomographie d'émission par positronsCharest, Jonathan January 2017 (has links)
La tomographie d'émission par positrons (TEP) est un outil de choix en imagerie moléculaire grâce à sa capacité à quantifier certains métabolismes et à porter des diagnostics précis sur l'évolution de pathologies. Cependant, la qualité du diagnostic est dépendante de la qualité de l'image obtenue. La complexité des appareils TEP fait en sorte que ceux-ci nécessitent des calibrations fréquentes demandant un professionnel qualifié dans le domaine que très peu de laboratoires pourvus d'un scanner possèdent.
Conséquemment, ce projet vise à concevoir un système intelligent pouvant détecter des fautes et porter un diagnostic sur un scanner TEP de façon automatique dans le but de maximiser la qualité des images produites. Le système intelligent développé permettra alors de pallier à la surcharge ou à l'absence d'un professionnel en laboratoire puisqu'il automatisera le contrôle de qualité de l'appareil. Le projet englobe donc: l'identification de données permettant de détecter et diagnostiquer les fautes, l'implantation de système intelligent par module et de façon hiérarchique, la validation de l'exactitude des diagnostics et finalement l'évaluation de l'impact du système sur la qualité des images produites par le scanner. Pour arriver à son but, le système intelligent met en oeuvre différentes méthodes d'intelligence artificielle comprenant des réseaux de neurones artificiels, un système expert à base de règles et diverses méthodes de traitement de signal.
Ce projet se penche plus spécifiquement sur le scanner LabPET, un scanner TEP pour petits animaux développé à Sherbrooke. LabPET est un bon candidat car il comporte un nombre élevé de canaux non interdépendants accentuant ainsi les bénéfices de la parallélisation apportés par le système proposé. Ainsi, les travaux ont permis de réaliser un système ayant une efficacité de détection et une exactitude de diagnostic dépassant les attentes et, une étude de l'impact du système sur la qualité des images a démontré une amélioration significative des paramètres de qualité d'image. Il en découle que le système est bien en mesure d'aider les professionnels dans l'entretien du scanner LabPET.
Les résultats devraient permettre de promouvoir le développement de systèmes intelligents de détection et de diagnostic de fautes d'appareils TEP. Des systèmes similaires seront certainement nécessaires au bon fonctionnement des prochaines générations d'appareils TEP, et les résultats de ce projet pourront alors servir de référence.
|
15 |
Automated test generation for production systems with a model-based testing approach / Génération de tests automatisés pour des systèmes de production avec une approche basée modèleDurand, William 04 May 2016 (has links)
Ce manuscrit de thèse porte sur le problème du test basé modèle de systèmes de production existants, tels ceux de notre partenaire industriel Michelin, l’un des trois plus grands fabricants de pneumatiques au monde. Un système de production est composé d’un ensemble de machines de production contrôlées par un ou plusieurs logiciels au sein d’un atelier dans une usine. Malgré les nombreux travaux dans le domaine du test basé modèle, l’écriture de modèles permettant de décrire un système sous test ou sa spécification reste un problème récurrent, en partie à cause de la complexité d’une telle tâche. De plus, un modèle est utile lorsqu’il est à jour par rapport à ce qu’il décrit, ce qui implique de le maintenir dans le temps. Pour autant, conserver une documentation à jour reste compliqué puisqu’il faut souvent le faire manuellement. Dans notre contexte, il est important de souligner le fait qu’un système de production fonctionne en continu et ne doit être ni arrêté ni perturbé, ce qui limite l’usage des techniques de test classiques. Pour pallier le problème de l’écriture de modèles, nous proposons une approche pour construire automatiquement des modèles depuis des séquences d’événements observés (traces) dans un environnement de production. Pour se faire, nous utilisons les informations fournies par les données échangées entre les éléments qui composent un système de production. Nous adoptons une approche boîte noire et combinons les notions de système expert, inférence de modèles et machine learning, afin de créer des modèles comportementaux. Ces modèles inférés décrivent des comportements complets, enregistrés sur un système analysé. Ces modèles sont partiels, mais également très grands (en terme de taille), ce qui les rend difficilement utilisable par la suite. Nous proposons une technique de réduction spécifique à notre contexte qui conserve l’équivalence de traces entre les modèles de base et les modèles fortement réduits. Grâce à cela, ces modèles inférés deviennent intéressant pour la génération de documentation, la fouille de données, mais également le test. Nous proposons une méthode passive de test basé modèle pour répondre au problème du test de systèmes de production sans interférer sur leur bon fonctionnement. Cette technique permet d’identifier des différences entre deux systèmes de production et réutilise l’inférence de modèles décrite précédemment. Nous introduisons deux relations d’implantation : une relation basée sur l’inclusion de traces, et une seconde relation plus faible proposée, pour remédier au fait que les modèles inférés soient partiels. Enfin, ce manuscrit de thèse présente Autofunk, un framework modulaire pour l’inférence de modèles et le test de systèmes de production qui aggrège les notions mentionnées précédemment. Son implémentation en Java a été appliquée sur différentes applications et systèmes de production chez Michelin dont les résultats sont donnés dans ce manuscrit. Le prototype développé lors de la thèse a pour vocation de devenir un outil standard chez Michelin. / This thesis tackles the problem of testing (legacy) production systems such as those of our industrial partner Michelin, one of the three largest tire manufacturers in the world, by means of Model-based Testing. A production system is defined as a set of production machines controlled by a software, in a factory. Despite the large body of work within the field of Model-based Testing, a common issue remains the writing of models describing either the system under test or its specification. It is a tedious task that should be performed regularly in order to keep the models up to date (which is often also true for any documentation in the Industry). A second point to take into account is that production systems often run continuously and should not be disrupted, which limits the use of most of the existing classical testing techniques. We present an approach to infer exact models from traces, i.e. sequences of events observed in a production environment, to address the first issue. We leverage the data exchanged among the devices and software in a black-box perspective to construct behavioral models using different techniques such as expert systems, model inference, and machine learning. It results in large, yet partial, models gathering the behaviors recorded from a system under analysis. We introduce a context-specific algorithm to reduce such models in order to make them more usable while preserving trace equivalence between the original inferred models and the reduced ones. These models can serve different purposes, e.g., generating documentation, data mining, but also testing. To address the problem of testing production systems without disturbing them, this thesis introduces an offline passive Model-based Testing technique, allowing to detect differences between two production systems. This technique leverages the inferred models, and relies on two implementation relations: a slightly modified version of the existing trace preorder relation, and a weaker implementation proposed to overcome the partialness of the inferred models.Overall, the thesis presents Autofunk, a modular framework for model inference and testing of production systems, gathering the previous notions. Its Java implementation has been applied to different applications and production systems at Michelin, and this thesis gives results from different case studies. The prototype developed during this thesis should become a standard tool at Michelin.
|
16 |
Développement d’un système d’administration de l’anesthésie en boucle ferméeCharabati, Samer 03 1900 (has links)
En salle d’opération, les tâches de l’anesthésiste sont nombreuses. Alors que l’utilisation de nouveaux outils technologiques l’informe plus fidèlement sur ce qui se passe pour son patient, ces outils font que ses tâches deviennent plus exigeantes. En vue de diminuer cette charge de travail, nous avons considérer l’administration automatique d’agents anesthésiques en se servant de contrôle en boucle fermée.
À cette fin, nous avons développé un système d’administration d’un agent anesthésique (le propofol) visant à maintenir à un niveau optimal la perte de conscience du patient pendant toute la durée d’une chirurgie. Le système comprend un ordinateur, un moniteur d’anesthésie et une pompe de perfusion. L’ordinateur est doté d’un algorithme de contrôle qui, à partir d’un indice (Bispectral IndexTM ou BIS) fournit par le moniteur d’anesthésie détermine le taux d’infusion de l’agent anesthésiant. Au départ, l’anesthésiste choisit une valeur cible pour la variable de contrôle BIS et l’algorithme, basé sur système expert, calcule les doses de perfusion de propofol de sorte que la valeur mesurée de BIS se rapproche le plus possible de la valeur cible établie.
Comme interface-utilisateur pour un nouveau moniteur d’anesthésie, quatre sortes d’affichage ont été considérés: purement numérique, purement graphique, un mélange entre graphique et numérique et un affichage graphique intégré (soit bidimensionnel). À partir de 20 scenarios différents où des paramètres normaux et anormaux en anesthésie étaient présentés à des anesthésistes et des résidents, l’étude des temps de réaction, de l’exactitude des réponses et de la convivialité (évaluée par le NASA-TLX) a montré qu’un affichage qui combine des éléments graphiques et numériques était le meilleur choix comme interface du système.
Une étude clinique a été réalisée pour comparer le comportement du système d’administration de propofol en boucle fermée comparativement à une anesthésie contrôlée de façon manuelle et conventionnelle où le BIS était aussi utilisé. Suite à l’approbation du comité d’éthique et le consentement de personnes ayant à subir des chirurgies générales et orthopédiques, 40 patients ont été distribués également et aléatoirement soit dans le Groupe contrôle, soit dans le Groupe boucle fermée. Après l’induction manuelle de propofol (1.5 mg/kg), le contrôle en boucle fermée a été déclenché pour maintenir l’anesthésie à une cible de BIS fixée à 45. Dans l’autre groupe, le propofol a été administré à l’aide d’une pompe de perfusion et l’anesthésiste avait aussi à garder manuellement l’indice BIS le plus proche possible de 45. En fonction du BIS mesuré, la performance du contrôle exercé a été définie comme excellente pendant les moments où la valeur du BIS mesurée se situait à ±10% de la valeur cible, bonne si comprise de ±10% à ±20%, faible si comprise de ±20% à ±30% ou inadéquate lorsque >±30%.
Dans le Groupe boucle fermée, le système a montré un contrôle excellent durant 55% du temps total de l’intervention, un bon contrôle durant 29% du temps et faible que pendant 9% du temps. Le temps depuis l’arrêt de la perfusion jusqu’à l’extubation est de 9 ± 3.7 min. Dans le Groupe contrôle, un contrôle excellent, bon, et faible a été enregistré durant 33%, 33% et 15% du temps respectivement et les doses ont été changées manuellement par l’anesthésiste en moyenne 9.5±4 fois par h. L’extubation a été accomplie après 11.9 ± 3.3 min de l’arrêt de la perfusion. Dans le Groupe boucle fermée, un contrôle excellent a été obtenu plus longtemps au cours des interventions (P<0.0001) et un contrôle inadéquat moins longtemps (P=0.001) que dans le Groupe contrôle.
Le système en boucle fermée d’administration de propofol permet donc de maintenir plus facilement l’anesthésie au voisinage d’une cible choisie que l’administration manuelle. / In the operating room, the anaesthetist performs numerous tasks. New technological tools better inform him about the state of the patient but render his task more demanding. To alleviate the anaesthetist workload, we have considered the automatic administration of anesthetic drugs using closed-loop control.
In this respect, we have developed a system for the administration of an anesthetic agent (propofol) in order to maintain loss of consciousness at an optimal level throughout a surgery. The system comprises a computer, an anaesthesia monitor and an infusion pump. A control algorithm installed on the computer determines the infusion rate of the hypnotic drug based on the Bispectral IndexTM (BIS) provided by the monitor. At first, the anaesthetist chooses a target value for the control variable BIS and the algorithm, which consists of an expert system, calculates the infusion doses of propofol in order to steer the measured BIS value closer to the target value.
For the user-interface of a novel anaesthesia monitor, four display types were considered: purely numeric, purely graphical, a mixed graphical and numerical and a bi-dimensional integrated graphical display. Based on 20 different scenarios where normal and abnormal anaesthesia parameters were presented to anaesthetists and residents, the study of the reaction time, response accuracy and user-friendliness (assessed by the NASA-TLX) showed that a mixed graphical and numerical display is the best preferred for the interface of the system.
A clinical study was conducted in order to compare the behaviour of the system of administering propofol in closed-loop to manually controlled anaesthesia guided by BIS. After Institutional Review Board approval and written consent, 40 patients undergoing orthopaedic or general surgery were randomly assigned to 2 groups of equal size. After manual propofol induction (1.5 mg/kg), closed loop control was used to maintain anesthesia at a target BIS of 45 (Closed-loop group); in the other group, propofol was administered manually using a syringe pump by an experienced anaesthesiologist in order to maintain a target BIS of 45 as closely as possible (Control group). The performance of the system was defined as excellent, good, poor or inadequate, when the BIS was within 10%, between 10 and 20%, between 20 and 30% or outside 30% of the target BIS, respectively.
In the Closed-loop group, the system showed excellent control during 55% of the total anaesthesia time, good control during 29% of the time and poor control during 9% of the time. The time from the end of infusion to extubation was 9 ± 3.7 min. In the Control group, excellent, good and poor control were noted during 33%, 33% and 15% of the time, respectively and doses were changed 9.5 ± 4 times per h. Extubation was achieved after 11.9 ± 3.3 min from the end of infusion. In the Closed-loop group, excellent control of anesthesia occurred significantly more often (P<0.0001) and inadequate control less often than in the Control group (P=0.001).
The present system of administering propofol in closed-loop maintains the anesthesia level closer to a given target than manual administration.
|
17 |
Vérification automatique des montages d'usinage par vision : application à la sécurisation de l'usinage / Vision-based automatic verification of machining setup : application to machine tools safetyKarabagli, Bilal 06 November 2013 (has links)
Le terme "usinage à porte fermée", fréquemment employé par les PME de l’aéronautique et de l’automobile, désigne l’automatisation sécurisée du processus d’usinage des pièces mécaniques. Dans le cadre de notre travail, nous nous focalisons sur la vérification du montage d’usinage, avant de lancer la phase d’usinage proprement dite. Nous proposons une solution sans contact, basée sur la vision monoculaire (une caméra), permettant de reconnaitre automatiquement les éléments du montage (brut à usiner, pions de positionnement, tiges de fixation,etc.), de vérifier que leur implantation réelle (réalisée par l’opérateur) est conforme au modèle 3D numérique de montage souhaité (modèle CAO), afin de prévenir tout risque de collision avec l’outil d’usinage. / In High Speed Machining it is of key importance to avoid any collision between the machining tool and the machining setup. If the machining setup has not been assembled correctly by the operator and is not conform to the 3D CAD model sent to the machining unit, such collisions can occur. We have developed a vision system, that utilizes a single camera, to automatically check the conformity of the actual machining setup within the desired 3D CAD model, before launching the machining operation. First, we propose a configuration of the camera within the machining setup to ensure a best acquisition of the scene. In the aim to segmente the image in regions of interest, e.g. regions of the clamping elements and piece, based-on 3D CAD model, we realise a matching between graphes, theorical and real graphe computed from theorical image of 3D-CAD model and real image given by real camera. The graphs are constructed from a simple feature, such as circles and lines, that are manely present in the machining setup. In the aim to define the regions of interest (ROI) in real image within ROI given by 3D CAD model, we project a 3D CAD model in the real image, e.g. augmented reality. To automatically check the accordance between every region defined, we propose to compute three parametres, such as skeleton to represente the form, edges to represent a geometry and Area to represent dimension. We compute a score of accordance between three parameters that will be analyzed in fuzzy system to get a decision of conformity of the clamping element within it definition given in the CAD model. Some cases of machining setup configurations require 3D information to test the trajectory of the machine tool. To get out this situation, we have proposed a new depth from defocus based-method to compute a depth map of the scene. Finally, we present the result of our solution and we show the feasibility and robustness of the proposed solution in differents case of machining setup.
|
18 |
Harmonisation de l'information géo-scientifique de bases de données industrielles par mesures automatiques de ressemblance / Harmonization of geo-scientific information in industrial data bases, thanks to automatic similarity metricsFuga, Alba 05 January 2017 (has links)
Pour automatiser l’harmonisation des bases de données industrielles de navigation sismique, une méthodologie et un logiciel ont été mis en place. La méthodologie d’Automatisation des Mesures de Ressemblance (AMR), permet de modéliser et hiérarchiser les critères de comparaison servant de repères pour l’automatisation. Accompagné d’un ensemble de seuils de tolérance, le modèle hiérarchisé a été utilisé comme filtre à tamis dans le processus de classification automatique permettant de trouver rapidement les données fortement similaires. La similarité est mesurée par un ensemble de métriques élémentaires, aboutissant à des scores numériques, puis elle est mesurée de manière plus globale et contextuelle, notamment suivant plusieurs échelles : entre les attributs, entre les données, et entre les groupes. Ces évaluations de la similarité permettent à la fois au système expert de présenter des analyses précises automatisées et à l’expert géophysicien de réaliser des interprétations multicritères en faisant en environ deux jours le travail qu’il faisait en trois semaines. Les stratégies de classification automatique sont quant à elles adaptables à différentes problématiques, à l’harmonisation des données, mais aussi à la réconciliation des données ou au géo-référencement de documents techniques. Le Logiciel Automatique de Comparaisons (LAC) est une implantation de l’AMR réalisée pour les services de Data Management et de Documentation Technique de TOTAL. L’outil industrialisé est utilisé depuis trois ans, mais n’est plus en maintenance informatique aujourd’hui malgré son usage. Les nouvelles fonctionnalités d'imagerie de base de données qui ont été développées dans cette thèse n'y sont pas encore intégrées, mais devraient permettre une meilleure visualisation des phénomènes. Cette dernière manière de représenter les données, fondée sur la mesure de similarité, permet d’avoir une image assez claire de données lourdes car complexes tout en permettant de lire des informations nécessaires à l’harmonisation et à l’évaluation de la qualité des bases. Ne pourrait-on pas chercher à caractériser, comparer, analyser, gérer les flux entrants et sortants des bases de données, suivre leurs évolutions et tirer des modes d’apprentissage automatique à partir du développement de cette imagerie ? / In order to harmonize industrial seismic navigation data bases, a methodology and a software have been developed. The methodology of Similarity Measurement Automation provides protocols to build a model and a hierarchy for the comparison criteria that shall be used as points of reference for the automation. With its tolerance set of thresholds, the model has been used as a scaled filter within the automatic classification process which aim is to find as quickly as possible very similar data. Similarity is measured by combinations of elementary metrics giving scores, and also by a global and contextual procedure, giving access to three levels of results: similarity between attributes, between individuals, and between groups. Accurate automated analyses of the expert system as well as human interpretations on multiple criteria are now possible thanks to these similarity estimations, reducing to two days instead of three weeks the work of a geophysicist. Classification strategies have been designed to suit the different data management issues, as well as harmonization, reconciliation or geo-referencing. The methodology has been implemented in software for automatic comparisons named LAC, and developed for Data Management and Technical Documentation services in TOTAL. The software has been industrialized and has been used for three years, even if now there is no technical maintenance anymore. The last data base visualization functionalities that have been developed have not been integrated yet to the software, but shall provide a better visualization of the phenomena. This latest way to visualize data is based on similarity measurement and obtains an image of complex and voluminous data clear enough. It also puts into relief information useful for harmonization and data quality evaluation. Would it be possible to characterize, compare, analyze and manage data flows, to monitor their evolution and figure out new machine learning methods by developing further this kind of data base imaging?
|
19 |
Classification floue et modélisation IRM: Application à la quantification de la graisse pour une évaluation optimale des risques pathologiques associés à l'obésité.Roullier, Vincent 17 June 2008 (has links) (PDF)
Les travaux présentés dans cette thèse traitent de l'apport de l'incertitude, de l'imprécision et de l'a priori en traitement d'images médicales, dans le cadre d'outils d'aide au diagnostic des pathologies conséquentes de l'obésité et du surpoids. Deux parties composent ce travail : une modélisation du signal IRM d'une séquence prototype fournie par GE, et une méthode de classification floue adaptée pour répondre aux attentes des experts radiologistes et anatomopathologistes. Le signal IRM est issu des différents constituants du voxel. Afin de déterminer la proportion de graisse dans le tissu, les signaux issus de l'eau et de la graisse sont déterminées par régression à partir des images IRM obtenues en prenant en compte un a priori sur le bruit présent sur les images. Considéré de Gauss sur les images réelles et imaginaires, et de Rice sur les images amplitudes, cet a priori sur le bruit a permis de mettre en évidence l'apport de l'utilisation des données brutes lors de la quantification de la proportion de graisse et d'eau par rapport à une quantification uniquement effectuée sur les données amplitudes. La méthode de classification présentée ici permet une dépendance à longue distance lors du calcul des centroïdes. Cette méthode combinée à un algorithme de connectivité floue est adaptée à la mesure de la graisse viscérale et souscutanée. Elle fut également utilisée pour la quantification des vacuoles de triglycérides présentes sur des biopsies hépatiques. De part la proportion très hétérogène des vacuoles de stéatose, fonction du degré de la pathologie, nous avons amélioré l'algorithme de classification par une supervision permettant d'orienter la classification afin de se dédouaner de cette hétérogénéité. La classification est ensuite combinée à un système expert permettant d'éliminer les erreurs de classification survenues. L'ensemble des méthodes fut évalué dans le cadre d'expérimentations animales et de différents protocoles de recherche clinique.
|
20 |
Construction hypothétique d'objets complexesGirard, Pierre 26 October 1995 (has links) (PDF)
Dans les modèles à objets distinguant la notion de classe (ensemble d'individus) de celle d'instance (individu particulier), la classe peut jouer deux rôles fondamentalement différents. Les modèles qui mettent en œuvre des mécanismes de classification d'instances, présentent la classe comme une unité d'identification caractérisant les propriétés que doivent posséder toutes ses instances. Ces propriétés sont alors utilisées pour établir l'appartenance d'une instance à une classe. D'autres modèles utilisent la classe comme unité de construction, ou de gestion, d'instances. Ils laissent alors toutes libertés dans la description de la classe pour introduire des informations procédurales qui sont utilisées pour modifier ou compléter une instance qui lui a été explicitement rattachée. Notre travail consiste à mettre en place un mécanisme capable de trouver les différentes solutions que peut proposer une hiérarchie de classes à un problème de construction d'instance. Schématiquement, un tel problème se caractérise par la donnée d'une instance pour laquelle subsistent des possibilités de raffinement dans la hiérarchie de classes et dont la valeur de certains attributs reste inconnue. La solution proposée prend place dans un modèle à objets, appelé TROPES, défini pour accueillir un raisonnement classificatoire. La mise en place du mécanisme de construction d'instance par exploration d'une hiérarchie est assurée par un système, dit d'assistance hypothétique, couplé au système TROPES. Ce système d'assistance est chargé de produire et de gérer les hypothèses permettant de prolonger l'exploration d'une hiérarchie de classes au delà des limites atteintes par la classification d'instances. Les différentes combinaisons d'hypothèses pouvant ainsi être formées sont validées par TROPES sur des versions différentes de l'instance. Lorsque le mécanisme est appliqué à un objet composite, le partage de valeurs d'attributs entre composants et composite permet la propagation du processus de construction du composite vers les composants
|
Page generated in 0.0237 seconds