• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 9
  • 2
  • 1
  • Tagged with
  • 12
  • 12
  • 6
  • 5
  • 5
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Evaluation de la performance des barrages en service basée sur une formalisation et une agrégation des connaisssances. Application aux barrages en remblai

Curt, Corinne 21 January 2008 (has links) (PDF)
Dans ce mémoire, des approches contribuant à l'évaluation de la performance d'un barrage sont proposées. Les développements portent sur : -une méthode d'évaluation déterministe de la performance des barrages par recueil, formalisation et agrégation de différentes sources de connaissances ; -une base de connaissances sur les phénomènes de dégradation des barrages permettant la capitalisation des connaissances du domaine ; -une méthode d'analyse des imperfections ; -une méthode non déterministe d'évaluation de la performance qui procède par représentation des imperfections et leur propagation dans le modèle. Ces différentes méthodes ont conduit à trois outils informatiques : une interface d'aide à l'évaluation de la performance, un système de traçabilité des données et une base de connaissances sur les phénomènes de dégradation. Ces approches sont illustrées sur les barrages en remblai et plus spécifiquement le mécanisme d'érosion interne
2

Contribution à l'intégration produit : processus de fabrication, application au domaine de la forge

Thibault, Alexandre 20 June 2008 (has links) (PDF)
Plusieurs raisons conduisent aujourd'hui à la nécessité de concevoir une pièce «fabricable» avec le moins de modification et le plus rapidement possible. Nous pouvons citer l'évolution et la mondialisation du marché, la réduction de la taille des séries et des délais de conception comme de réalisation, le fait que le coût d'un produit soit engagé à 80 % au niveau de la conception. C'est dans ce cadre qu'interviennent les outils et les méthodes de l'ingénierie intégrée. Les travaux de cette thèse se positionnent plus précisément au niveau de la formalisation et de l'exploitation des liens qui existent entre le produit et le processus de fabrication. Une démarche a été définie afin d'encadrer la conception progressive de la pièce et de son processus de fabrication. Un outil venant en support à cette démarche a été spécifié. Deux pistes ont été abordées lors du développement de l'outil pour la façon de représenter et d'exploiter les connaissances : un premier formalisme utilisant une ontologie associée à un traitement par classification ou bien un second formalisme basé sur une représentation arborescente des processus de fabrication associée à un traitement par élagage. Cette dernière représentation est nommée « schéma de processus de fabrication ». Un cas d'étude est présenté afin de valider la démarche proposée en utilisant l'outil support. Ces travaux ont été appliqués à la forge en tenant compte des spécificités de ce domaine de fabrication (notamment la nécessité d'une considération plus globale de la pièce par rapport à l'usinage)
3

Méthodologie d’élaboration d’un bilan de santé de machines de production pour aider à la prise de décision en exploitation : application à un centre d’usinage à partir de la surveillance des composants de sa cinématique / Machine health check methodology to help maintenance in operational condition : application to machine tool from its kinematic monitoring

Laloix, Thomas 11 December 2018 (has links)
Ce travail de thèse a été initié par Renault, en collaboration avec le Centre de Recherche en Automatique de Nancy (CRAN), dans le but de poser les bases d'une méthodologie générique permettant d'évaluer l'état de santé de moyens de production. Cette méthodologie est issue d’une réflexion conjointe machine - produit en lien avec les exigences industrielles. La méthodologie proposée est basée sur une approche PHM (Prognostics and Health Management) et est structurée en cinq étapes séquentielles. Les deux premières étapes sont développées dans ce travail de thèse et en constituent les contributions scientifiques majeures. La première originalité représente la formalisation des connaissance issues de la relation machine-produit. Cette connaissance est basée sur l'extension de méthodes existantes telle que l’AMDEC et l’HAZOP. La formalisation des concepts de connaissance et de leurs interactions est matérialisée au moyen d'une méta-modélisation basée sur une modélisation UML (Unified Modelling Language). Cette contribution conduit à l'identification de paramètres pertinents à surveiller, depuis le niveau du composant jusqu'au niveau de la machine. Ces paramètres servent ensuite d’entrée au processus d'élaboration du bilan de santé machine, qui représente la deuxième originalité de la thèse. L'élaboration de ces indicateurs de santé est basée sur des méthodes d’agrégation, telle que l'intégrale de Choquet, soulevant la problématique de l'identification des capacités. De cette façon, il est proposé un modèle global d'optimisation de l'identification des capacités multi-niveaux du système à travers l’utilisation d’Algorithmes Génétiques. La faisabilité et l'intérêt d'une telle démarche sont démontrés sur le cas de la machine-outil située à l'usine RENAULT de Cléon / This PhD work has been initiated by Renault, in collaboration with Nancy Research Centre in Automatic Control (CRAN), with the aim to propose the foundation of a generic PHM-based methodology leading to machine health check regarding machine-product joint consideration and facing industrial requirements. The proposed PHM-based methodology is structured in five steps. The two first steps are developed in this PhD work and constitute the major contributions. The first originality represents the formalization of machine-product relationship knowledge based on the extension of well-known functioning/dysfunctioning analysis methods. The formalization is materialized by means of meta-modelling based on UML (Unified Modelling Language). This contribution leads to the identification of relevant parameters to be monitored, from component up to machine level. These parameters serve as a basis of the machine health check elaboration. The second major originality of the thesis aims at the definition of health check elaboration principles from the previously identified monitoring parameters and formalized system knowledge. Elaboration of such health indicators is based on Choquet integral as aggregation method, raising the issue of capacity identification. In this way, it is proposed a global optimization model of capacity identification according to system multi-level, by the use of Genetic Algorithms. Both contributions are developed with the objective to be generic (not only oriented on a specific class of equipment), according to industrial needs. The feasibility and the interests of such approach are shown on the case of machine tool located in RENAULT Cléon Factory
4

Formalisation et gestion des connaissances dans la modélisation du comportement des incendies de forêt

Napoli, Aldo 13 December 2001 (has links) (PDF)
Nous proposons de traiter dans cette thèse, une partie du vaste domaine de la recherche dans le domaine des incendies de forêt. Nous nous intéressons plus particulièrement à la formalisation des connaissances (structuration des connaissances et de leurs interrelations) pour l'analyse du comportement des feux de forêt et plus précisément pour la modélisation de la vitesse de propagation d'un front de flammes. Le système incendie de forêt, de par sa complexité, doit être appréhendé par une démarche modélisatrice du phénomène (expérimentation, modélisation et validation). Nous proposons dans cette thèse, par la formalisation du corpus de connaissances issues d'expérimentations en milieu naturel, d'apporter une aide à la modélisation du comportement des incendies de forêt. Un prototype de système de gestion des connaissances est élaboré afin d'assister les scientifiques chargés de conduire des expérimentations en milieu naturel. Ce système de gestion des connaissances étant partie intégrante des outils informatiques à mettre en œuvre dans une zone atelier, nous nous permettrons d'imaginer ce que pourrait être une zone atelier pour la modélisation du comportement des incendies de forêt en France. La première partie de la thèse a pour objet de présenter le système incendie de forêt, la démarche de modélisation pour l'analyser ainsi que le recours à la démarche de formalisation de connaissance pour assister le modélisateur. La deuxième partie présente l'acquisition des connaissances dans le domaine de l'expérimentation en milieu naturel pour l'étude du comportement d'un incendie de forêt et leur formalisation à l'aide du langage de modélisation UML. La troisième partie présente, un prototype d'un système de gestion des connaissances issues d'expérimentations en milieu naturel : MODELLIS (MODELLed-Information System). Nous voyons comment celui-ci pourrait être intégré à ce que pourrait être une zone atelier pour l'étude du comportement des incendies de forêt dans le Sud de la France.
5

Contribution à la quantification des programmes de maintenance complexes

Ruin, Thomas 09 December 2013 (has links) (PDF)
Face aux nouveaux cadres législatifs ou environnementaux dans lesquels ils doivent évoluer, les systèmes industriels actuels sont, en plus d'être contraints par des exigences classiques de productivité et de cout, sujets au respect de nouvelles exigences relatives à la sûreté, la sécurité ou au développement durable notamment. Pour répondre à ces exigences et améliorer la maitrise des performances de ses systèmes, EDF souhaite faire évoluer sa démarche d'Optimisation de la Maintenance Basée sur la Fiabilité vers une nouvelle méthode. Cette méthode nécessite en autre la proposition d'une approche outillée permettant de quantifier a priori les programmes de maintenance (CMPQ) sur ses systèmes par rapport aux indicateurs de performance attendus (KPIs). Cet outillage fait l'objet de cette thèse financée dans le cadre du GIS 3SGS - projet DEPRADEM 2. Après avoir généralisé les besoins d'EDF en regard de la CMPQ, nous proposons une identification de la connaissance générique nécessaire pour évaluer les KPI. Afin d'aboutir à un outil permettant l'automatisation de ces études de CMPQ, cette connaissance générique est ensuite modélisée sur la base de deux langages : le langage semi-formel SysML capitalisant, par l'intermédiaire de différents diagrammes, la connaissance statique, interactionnelle et comportementale ; et le langage AltaRicaDF, supportant un modèle dynamique permettant d'évaluer les KPIs par simulation stochastique. La création de ce modèle dynamique à partir des différents diagrammes est basée sur un mapping entre les concepts d'intérêt des deux langages. La démarche dans sa globalité est validée à la CMPQ d'un cas d'étude fourni par EDF : le système ARE.
6

Contribution à la quantification des programmes de maintenance complexes / Contribution to complex maintenance program quantification

Ruin, Thomas 09 December 2013 (has links)
Face aux nouveaux cadres législatifs ou environnementaux dans lesquels ils doivent évoluer, les systèmes industriels actuels sont, en plus d'être contraints par des exigences classiques de productivité et de cout, sujets au respect de nouvelles exigences relatives à la sûreté, la sécurité ou au développement durable notamment. Pour répondre à ces exigences et améliorer la maitrise des performances de ses systèmes, EDF souhaite faire évoluer sa démarche d'Optimisation de la Maintenance Basée sur la Fiabilité vers une nouvelle méthode. Cette méthode nécessite en autre la proposition d'une approche outillée permettant de quantifier a priori les programmes de maintenance (CMPQ) sur ses systèmes par rapport aux indicateurs de performance attendus (KPIs). Cet outillage fait l'objet de cette thèse financée dans le cadre du GIS 3SGS - projet DEPRADEM 2. Après avoir généralisé les besoins d'EDF en regard de la CMPQ, nous proposons une identification de la connaissance générique nécessaire pour évaluer les KPI. Afin d'aboutir à un outil permettant l'automatisation de ces études de CMPQ, cette connaissance générique est ensuite modélisée sur la base de deux langages : le langage semi-formel SysML capitalisant, par l'intermédiaire de différents diagrammes, la connaissance statique, interactionnelle et comportementale ; et le langage AltaRicaDF, supportant un modèle dynamique permettant d'évaluer les KPIs par simulation stochastique. La création de ce modèle dynamique à partir des différents diagrammes est basée sur un mapping entre les concepts d'intérêt des deux langages. La démarche dans sa globalité est validée à la CMPQ d'un cas d'étude fourni par EDF : le système ARE / To face with new legislatives and environmental contexts in which they have to operate, it is needed now that the industrials systems have to satisfy to many different requirements and constraints. Thus, these requirements are not only conventional ones such as availability and costs, but also emergent ones such as safety and sustainability. This report implies for the specific French company EDF (energy power supplier) to evolve from its usual approach of reliability centered maintenance (RCM) to a new approach. It is consisting mainly in developing a tool able to support the Complex Maintenance Programs Quantification (CMPQ). This Ph.D. is dealing with this the engineering and deployment of this tool in the frame of the GIS 3SGS - DEPRADEM 2 project. The first step of the work is to generalize EDF needs, then to propose a framework enabling to identify required generic knowledge needed to assess the Key Performances Indicators (KPIs) for supporting quantification. The next step is to model the generic knowledge in two complementary ways: a formalization of the static, interactional and behavioral knowledge based on different SysML diagrams; and a formalization of the dynamic and executable knowledge formalized by AltaRicaDF (ADF) language, allowing to perform stochastic simulation and to assess required KPIs. The path to elaborate dynamic executable vision from SysML diagrams is released by means of rules between each element of interest of both languages. All this approach/tool is applied to a specific EDF case study: the ARE system
7

Identification des paramètres clés du laminage transversal : vers la formalisation des connaissances scientifiques et technologiques

Mangin, Philippe 22 June 2012 (has links) (PDF)
Le laminage transversal, procédé de mise en forme des métaux essentiellement développé " à chaud ", permet d'obtenir des bruts de haut niveau de qualité en réalisant un gain notoire sur l'engagement matière face à d'autres procédés. Les travaux de thèse dressent l'état de l'art de cette technologie complexe et mal connue en France ; ils s'appuient sur une bibliographie dense et diversifiée pour synthétiser les lois qui régissent ce procédé et identifier les paramètres significatifs. Les conditions du contact pièce/outil étant prépondérantes, la mesure de la pression de contact est développée sur des matrices instrumentées afin de caractériser la sévérité des efforts. Des préformes en acier, titane et alliage base cuivre-aluminium avec simple réduction de diamètre sont fabriquées pour mettre en évidence les spécificités du contact pièce-matrice au niveau tribologique et rhéologique. En vue de démontrer que la condition d'entrainement en rotation des pièces est un facteur clé de pilotage du procédé, de nombreux essais expérimentaux pointent le rôle de la texture de surface pour l'obtention de pièces sans défaut, ainsi que son influence sur l'histoire thermomécanique interne. Les nombreuses difficultés liées à la mise au point d'outillages sont identifiées sur la base d'observations expérimentales et ensuite intégrées dans une démarche de conception d'outillage. Une procédure de conception d'outillage est ainsi proposée en s'appuyant sur une synthèse de règles issues de la bibliographie ainsi que de règles déterminées par les travaux expérimentaux. Une étude de cas sur une préforme " balustre " est traitée ; elle intègre la conception des matrices, la simulation numérique avec le logiciel FORGE© ainsi que les essais de mise au point d'outillage sur un banc développé à l'ENSAM. Une vision d'ensemble sur le procédé et les paramètres qui le gouvernent est finalement proposée.
8

Supervision de mission pour une équipe de véhicules autonomes hétérogènes / Mission supervision for a team of autonomous heterogeneous vehicles

Gateau, Thibault 11 December 2012 (has links)
Ces dernières années, les engins robotisés n’ont cessé d’améliorer leur autonomie dans le domaine de la décision. Désormais, pour ne citer que l’exemple de véhicules aériens, nombre de drones sont largement capables, sans intervention d’un opérateur humain, de décoller, suivre un itinéraire en activant divers capteurs à des moments précis, atterrir en un lieu spécifié, suivre une cible, patrouiller sur une zone... Une des étapes suivantes consiste à faire collaborer une équipe de véhicules autonomes, de nature hétérogène (aériens, terrestres, marins...) afin de leur permettre d’accomplir des missions plus complexes. L’aspect dynamique de l’environnement réel, la non disponibilité à tout instant des moyens de communication, la coordination nécessaire des véhicules,de conceptions parfois différentes, dans l’exécution de certaines parties d’un plan de mission, sont autant d’obstacles à surmonter. Ce travail tente non seulement d’apporter quelques éléments de réponse face à ces difficultés, mais consiste aussi en la mise en place concrète d’un superviseur haut niveau, capable de gérer l’exécution d’une mission par une équipe de véhicules autonomes hétérogènes, où le rôle de l’opérateur humain est volontairement réduit. Nous décrivons dans ce mémoire l’architecture distribuée que nous avons choisi de mettre en œuvre pour répondre à ce problème. Il s’agit d’un superviseur, réparti à bord des véhicules autonomes, interfacé avec leur architecture locale et en charge de l’exécution de la mission d’équipe. Nous nous intéressons également à la formalisation des connaissances nécessaires au déroulement de cette mission, afin d’améliorer l’interopérabilité des véhicules de l’équipe, mais aussi pour expliciter les relations entre modèles décisionnels abstraits et réalité d’exécution concrète. Le superviseur est capable de réagir face aux aléas qui vont se produire dans un environnement dynamique. Nous présentons ainsi dans un second temps les stratégies mises en place pour parvenir à les détecter au mieux, ainsi que la façon dont nous procédons pour réparer partiellement ou totalement le plan de mission initial, afin de remplir les objectifs initiaux. Nous nous basons notamment sur la nature hiérarchique du plan de mission, mais aussi sur celle de la structure de sous-équipes que nous proposons de construire. Enfin, nous présentons quelques résultats obtenus expérimentalement, sur des missions simulées et des scénarios réels, notamment ceux du Programme d’Etudes Amont Action dans lequel s’inscrivent ces travaux de thèse. / Many autonomous robots with specific control oriented architectures have already been developed worldwide.The advance of the work in this field has led researchers wonder for many years to what extent robots would be able to be integrated into a team consisting of autonomous and heterogeneous vehicles with complementary functionalities. However, robot cooperation in a real dynamic environment under unreliable communication conditions remains challenging, especially if these autonomous vehicles have different individual control architectures.In order to address this problem, we have designed a decision software architecture, distributed on each vehicle.This decision layer aims at managing execution and at increasing the fault tolerance of the global system. The mission plan is assumed to be hierarchically structured. ln case of failure detection, the plan repair is done as locally as possible, based on the hierarchical organization.This allows us to restrict message exchange only between the vehicles concerned by the repair process. Knowledge formalisation is also a part of the study permitting the improvement of interoperability between team members. It also provides relevant information all along mission execution, from initial planning computation to plan repair in this multirobot context. The feasibility of the system has been evaluated by simulations and real experiments thanks to the Action project (http://action.onera.fr/welcome/).
9

Génération de connaissances à l’aide du retour d’expérience : application à la maintenance industrielle / Knowledge generation using experience feedback : application to industrial maintenance

Potes Ruiz, Paula Andrea 24 November 2014 (has links)
Les travaux de recherche présentés dans ce mémoire s’inscrivent dans le cadre de la valorisation des connaissances issues des expériences passées afin d’améliorer les performances des processus industriels. La connaissance est considérée aujourd'hui comme une ressource stratégique importante pouvant apporter un avantage concurrentiel décisif aux organisations. La gestion des connaissances (et en particulier le retour d’expérience) permet de préserver et de valoriser des informations liées aux activités d’une entreprise afin d’aider la prise de décision et de créer de nouvelles connaissances à partir du patrimoine immatériel de l’organisation. Dans ce contexte, les progrès des technologies de l’information et de la communication jouent un rôle essentiel dans la collecte et la gestion des connaissances. L’implémentation généralisée des systèmes d’information industriels, tels que les ERP (Enterprise Resource Planning), rend en effet disponible un grand volume d’informations issues des événements ou des faits passés, dont la réutilisation devient un enjeu majeur. Toutefois, ces fragments de connaissances (les expériences passées) sont très contextualisés et nécessitent des méthodologies bien précises pour être généralisés. Etant donné le potentiel des informations recueillies dans les entreprises en tant que source de nouvelles connaissances, nous proposons dans ce travail une démarche originale permettant de générer de nouvelles connaissances tirées de l’analyse des expériences passées, en nous appuyant sur la complémentarité de deux courants scientifiques : la démarche de Retour d’Expérience (REx) et les techniques d’Extraction de Connaissances à partir de Données (ECD). Le couplage REx-ECD proposé porte principalement sur : i) la modélisation des expériences recueillies à l’aide d’un formalisme de représentation de connaissances afin de faciliter leur future exploitation, et ii) l’application de techniques relatives à la fouille de données (ou data mining) afin d’extraire des expériences de nouvelles connaissances sous la forme de règles. Ces règles doivent nécessairement être évaluées et validées par les experts du domaine avant leur réutilisation et/ou leur intégration dans le système industriel. Tout au long de cette démarche, nous avons donné une place privilégiée aux Graphes Conceptuels (GCs), formalisme de représentation des connaissances choisi pour faciliter le stockage, le traitement et la compréhension des connaissances extraites par l’utilisateur, en vue d’une exploitation future. Ce mémoire s’articule en quatre chapitres. Le premier constitue un état de l’art abordant les généralités des deux courants scientifiques qui contribuent à notre proposition : le REx et les techniques d’ECD. Le second chapitre présente la démarche REx-ECD proposée, ainsi que les outils mis en œuvre pour la génération de nouvelles connaissances afin de valoriser les informations disponibles décrivant les expériences passées. Le troisième chapitre présente une méthodologie structurée pour interpréter et évaluer l’intérêt des connaissances extraites lors de la phase de post-traitement du processus d’ECD. Finalement, le dernier chapitre expose des cas réels d’application de la démarche proposée à des interventions de maintenance industrielle. / The research work presented in this thesis relates to knowledge extraction from past experiences in order to improve the performance of industrial process. Knowledge is nowadays considered as an important strategic resource providing a decisive competitive advantage to organizations. Knowledge management (especially the experience feedback) is used to preserve and enhance the information related to a company’s activities in order to support decision-making and create new knowledge from the intangible heritage of the organization. In that context, advances in information and communication technologies play an essential role for gathering and processing knowledge. The generalised implementation of industrial information systems such as ERPs (Enterprise Resource Planning) make available a large amount of data related to past events or historical facts, which reuse is becoming a major issue. However, these fragments of knowledge (past experiences) are highly contextualized and require specific methodologies for being generalized. Taking into account the great potential of the information collected in companies as a source of new knowledge, we suggest in this work an original approach to generate new knowledge based on the analysis of past experiences, taking into account the complementarity of two scientific threads: Experience Feedback (EF) and Knowledge Discovery techniques from Databases (KDD). The suggested EF-KDD combination focuses mainly on: i) modelling the experiences collected using a knowledge representation formalism in order to facilitate their future exploitation, and ii) applying techniques related to data mining in order to extract new knowledge in the form of rules. These rules must necessarily be evaluated and validated by experts of the industrial domain before their reuse and/or integration into the industrial system. Throughout this approach, we have given a privileged position to Conceptual Graphs (CGs), knowledge representation formalism chosen in order to facilitate the storage, processing and understanding of the extracted knowledge by the user for future exploitation. This thesis is divided into four chapters. The first chapter is a state of the art addressing the generalities of the two scientific threads that contribute to our proposal: EF and KDD. The second chapter presents the EF-KDD suggested approach and the tools used for the generation of new knowledge, in order to exploit the available information describing past experiences. The third chapter suggests a structured methodology for interpreting and evaluating the usefulness of the extracted knowledge during the post-processing phase in the KDD process. Finally, the last chapter discusses real case studies dealing with the industrial maintenance domain, on which the proposed approach has been applied.
10

Semantic modeling of an histopathology image exploration and analysis tool / Modélisation sémantique d'un outil d'analyse et d'exploration d'images histopathologiques

Traore, Lamine 08 December 2017 (has links)
La formalisation des données cliniques est réalisée et adoptée dans plusieurs domaines de la santé comme la prévention des erreurs médicales, la standardisation, les guides de bonnes pratiques et de recommandations. Cependant, la communauté n'arrive pas encore à tirer pleinement profit de la valeur de ces données. Le problème majeur reste la difficulté à intégrer ces données et des services sémantiques associés au profit de la qualité de soins. Objectif L'objectif méthodologique de ce travail consiste à formaliser, traiter et intégrer les connaissances d'histopathologie et d'imagerie basées sur des protocoles standardisés, des référentiels et en utilisant les langages du web sémantique. L'objectif applicatif est de valoriser ces connaissances dans une plateforme pour faciliter l'exploration des lames virtuelles (LV), améliorer la collaboration entre pathologistes et fiabiliser les systèmes d'aide à la décision dans le cadre spécifique du diagnostic du cancer du sein. Il est important de préciser que notre but n'est pas de remplacer le clinicien, mais plutôt de l'accompagner et de faciliter ses lourdes tâches quotidiennes : le dernier mot reste aux pathologistes. Approche Nous avons adopté une approche transversale pour la représentation formelle des connaissances d'histopathologie et d'imagerie dans le processus de gradation du cancer. Cette formalisation s'appuie sur les technologies du web sémantique. / Semantic modelling of a histopathology image exploration and analysis tool. Recently, anatomic pathology (AP) has seen the introduction of several tools such as high-resolution histopathological slide scanners, efficient software viewers for large-scale histopathological images and virtual slide technologies. These initiatives created the conditions for a broader adoption of computer-aided diagnosis based on whole slide images (WSI) with the hope of a possible contribution to decreasing inter-observer variability. Beside this, automatic image analysis algorithms represent a very promising solution to support pathologist’s laborious tasks during the diagnosis process. Similarly, in order to reduce inter-observer variability between AP reports of malignant tumours, the College of American Pathologists edited 67 organ-specific Cancer Checklists and associated Protocols (CAP-CC&P). Each checklist includes a set of AP observations that are relevant in the context of a given organ-specific cancer and have to be reported by the pathologist. The associated protocol includes interpretation guidelines for most of the required observations. All these changes and initiatives bring up a number of scientific challenges such as the sustainable management of the available semantic resources associated to the diagnostic interpretation of AP images by both humans and computers. In this context, reference vocabularies and formalization of the associated knowledge are especially needed to annotate histopathology images with labels complying with semantic standards. In this research work, we present our contribution in this direction. We propose a sustainable way to bridge the content, features, performance and usability gaps between histopathology and WSI analysis.

Page generated in 0.1637 seconds