• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 199
  • 187
  • 118
  • 26
  • 15
  • 8
  • 7
  • 7
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • Tagged with
  • 622
  • 167
  • 161
  • 159
  • 135
  • 116
  • 98
  • 96
  • 94
  • 87
  • 82
  • 70
  • 63
  • 62
  • 58
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Représentation sémantique des biomarqueurs d’imagerie dans le domaine médical / Semantic representation of imaging biomarkers in the medical field

Amdouni, Emna 07 December 2017 (has links)
En médecine personnalisée, les mesures et les descriptions radiologiques jouent un rôle important. En particulier, elles facilitent aux cliniciens l’établissement du diagnostic, la prise de décision thérapeutique ainsi que le suivi de la réponse au traitement. On peut citer à titre d’exemple, les critères d’évaluation RECIST (en anglais Response Evaluation Criteria in Solid Tumors). De nombreuses études de corrélation en radiologie-pathologie montrent que les caractéristiques d'imagerie quantitative et qualitative sont associées aux altérations génétiques et à l'expression des gènes. Par conséquent, une gestion appropriée des phénotypes d'imagerie est nécessaire pour faciliter leur utilisation et leur réutilisation dans de multiples études concernant les mesures radiologiques. En littérature, les mesures radiologiques qui caractérisent les processus biologiques des sujets imagés sont appelées biomarqueurs d'imagerie. L'objectif principal de cette thèse est de proposer une conceptualisation ontologique des biomarqueurs d'imagerie pour rendre leur sens explicite et formel, améliorer le reporting structuré des images. La première partie de la thèse présente une ontologie générique qui définit les aspects fondamentaux du concept de biomarqueur d'imagerie, à savoir : les caractéristiques biologiques mesurées, les protocoles de mesure et les rôles des biomarqueurs imagerie dans la prise de décision. La deuxième partie de la thèse traite des problèmes de modélisation sémantique liés à la description des données d’observation en neuro-imagerie en utilisant les connaissances biomédicales existantes. Ainsi, elle propose des solutions ''pertinentes'' aux situations les plus typiques qui doivent être modélisées dans le glioblastome. / In personalized medicine, radiological measurements and observations play an important role; in particular they help clinicians in making their diagnosis, selecting the appropriate treatment and monitoring the therapeutic response to an intervention as for example the Response Evaluation Criteria in Solid Tumors (RECIST). Many radiology-pathology correlation studies show that quantitative and qualitative imaging features are associated to genetic alterations and gene expression. Therefore, suitable management of imaging phenotypes is needed to facilitate their use and reuse in multiple studies regarding radiological measurements. In litterature, radiological measurements that characterize biological processes of imaged subjects are called imaging biomarkers. The main objective of this thesis is to propose an ontological conceptualisation of imaging biomarkers to make their meaning explicit and formal, improve structured reporting of images. The first part of the thesis presents a generic ontology that defines basic aspects of the imaging biomarker concept, namely; measured biological characteristic, measurement protocols and role in decision making application. The second part of the thesis adresses important semantic modeling challenges related to the description of neuro-imaging data using existing biomedical knowledge, as well as it proposes some “relevant” solutions to the most typical situations that need to be modeled in glioblastoma.
42

Intégration de connaissances biomédicales hétérogènes grâce à un modèle basé sur les ontologies de support / Integrating heterogeneous biomedical knowledge through a model based on pivot ontologies

Nikiema, Jean 10 October 2019 (has links)
Dans le domaine de la santé, il existe un nombre très important de sources de connaissances, qui vont de simples terminologies, classifications et vocabulaires contrôlés à des représentations très formelles, que sont les ontologies. Cette hétérogénéité des sources de connaissances pose le problème de l’utilisation secondaire des données, et en particulier de l’exploitation de données hétérogènes dans le cadre de la médecine personnalisée ou translationnelle. En effet, les données à utiliser peuvent être codées par des sources de connaissances décrivant la même notion clinique de manière différente ou décrivant des notions distinctes mais complémentaires.Pour répondre au besoin d’utilisation conjointe des sources de connaissances encodant les données de santé, nous avons étudié trois processus permettant de répondre aux conflits sémantiques (difficultés résultant de leur mise en relation) : (1) l’alignement qui consiste à créer des relations de mappings (équivalence et/ou subsumption) entre les entités des sources de connaissances, (2) l’intégration qui consiste à créer des mappings et à organiser les autres entités dans une même structure commune cohérente et, enfin, (3) l’enrichissement sémantique de l’intégration qui consiste à créer des mappings grâce à des relations transversales en plus de celles d’équivalence et de subsumption.Dans un premier travail, nous avons aligné la terminologie d’interface du laboratoire d’analyses du CHU de Bordeaux à la LOINC. Deux étapes principales ont été mises en place : (i) le prétraitement des libellés de la terminologie locale qui comportaient des troncatures et des abréviations, ce qui a permis de réduire les risques de survenue de conflits de nomenclature, (ii) le filtrage basé sur la structure de la LOINC afin de résoudre les différents conflits de confusion.Deuxièmement, nous avons intégré RxNorm à la sous-partie de la SNOMED CT décrivant les connaissances sur les médicaments afin d’alimenter la SNOMED CT avec les entités de RxNorm. Ainsi, les médicaments dans RxNorm ont été décrits en OWL grâce à leurs éléments définitionnels (substance, unité de mesure, dose, etc.). Nous avons ensuite fusionné cette représentation de RxNorm à la structure de la SNOMED CT, résultant en une nouvelle source de connaissances. Nous avons ensuite comparé les équivalences inférées (entre les entités de RxNorm et celles de la SNOMED CT) grâce à cette nouvelle structure avec les équivalences créées de manière morphosyntaxique. Notre méthode a résolu des conflits de nomenclature mais s’est confrontée à certains conflits de confusion et d’échelle, ce qui a mis en évidence le besoin d’améliorer RxNorm et SNOMED CT.Finalement, nous avons réalisé une intégration sémantiquement enrichie de la CIM10 et de la CIMO3 en utilisant la SNOMED CT comme support. La CIM10 décrivant des diagnostics et la CIMO3 décrivant cette notion suivant deux axes différents (celui des lésions histologiques et celui des localisations anatomiques), nous avons utilisé la structure de la SNOMED CT pour retrouver des relations transversales entre les concepts de la CIM10 et de la CIMO3 (résolution de conflits ouverts). Au cours du processus, la structure de la SNOMED CT a également été utilisée pour supprimer les mappings erronés (conflits de nomenclature et de confusion) et désambiguïser les cas de mappings multiples (conflits d’échelle). / In the biomedical domain, there are almost as many knowledge resources in health as there are application fields. These knowledge resources, described according to different representation models and for different contexts of use, raise the problem of complexity of their interoperability, especially for actual public health problematics such as personalized medicine, translational medicine and the secondary use of medical data. Indeed, these knowledge resources may represent the same notion in different ways or represent different but complementary notions.For being able to use knowledge resources jointly, we studied three processes that can overcome semantic conflicts (difficulties encountered when relating distinct knowledge resources): the alignment, the integration and the semantic enrichment of the integration. The alignment consists in creating a set of equivalence or subsumption mappings between entities from knowledge resources. The integration aims not only to find mappings but also to organize all knowledge resources’ entities into a unique and coherent structure. Finally, the semantic enrichment of integration consists in finding all the required mapping relations between entities of distinct knowledge resources (equivalence, subsumption, transversal and, failing that, disjunction relations).In this frame, we firstly realized the alignment of laboratory tests terminologies: LOINC and the local terminology of Bordeaux hospital. We pre-processed the noisy labels of the local terminology to reduce the risk of naming conflicts. Then, we suppressed erroneous mappings (confounding conflicts) using the structure of LOINC.Secondly, we integrated RxNorm to SNOMED CT. We constructed formal definitions for each entity in RxNorm by using their definitional features (active ingredient, strength, dose form, etc.) according to the design patterns proposed by SNOMED CT. We then integrated the constructed definitions into SNOMED CT. The obtained structure was classified and the inferred equivalences generated between RxNorm and SNOMED CT were compared to morphosyntactic mappings. Our process resolved some cases of naming conflicts but was confronted to confounding and scaling conflicts, which highlights the need for improving RxNorm and SNOMED CT.Finally, we performed a semantically enriched integration of ICD-10 and ICD-O3 using SNOMED CT as support. As ICD-10 describes diagnoses and ICD-O3 describes this notion according to two different axes (i.e., histological lesions and anatomical structures), we used the SNOMED CT structure to identify transversal relations between their entities (resolution of open conflicts). During the process, the structure of the SNOMED CT was also used to suppress erroneous mappings (naming and confusion conflicts) and disambiguate multiple mappings (scale conflicts).
43

Aligning and Merging Biomedical Ontologies

Tan, He January 2006 (has links)
<p>Due to the explosion of the amount of biomedical data, knowledge and tools that are often publicly available over the Web, a number of difficulties are experienced by biomedical researchers. For instance, it is difficult to find, retrieve and integrate information that is relevant to their research tasks. Ontologies and the vision of a Semantic Web for life sciences alleviate these difficulties. In recent years many biomedical ontologies have been developed and many of these ontologies contain overlapping information. To be able to use multiple ontologies they have to be aligned or merged. A number of systems have been developed for aligning and merging ontologies and various alignment strategies are used in these systems. However, there are no general methods to support building such tools, and there exist very few evaluations of these strategies. In this thesis we give an overview of the existing systems. We propose a general framework for aligning and merging ontologies. Most existing systems can be seen as instantiations of this framework. Further, we develop SAMBO (System for Aligning and Merging Biomedical Ontologies) according to this framework. We implement different alignment strategies and their combinations, and evaluate them in terms of quality and processing time within SAMBO. We also compare SAMBO with two other systems. The work in this thesis is a first step towards a general framework that can be used for comparative evaluations of alignment strategies and their combinations.</p> / Report code: LiU-Tek-Lic-2006:6.
44

Αξιοποίηση τεχνικών αντιστοίχισης οντολογιών σε συστήματα κωδικοποίησης υλικών : Εφαρμογή στην αντιστοίχιση συστημάτων κωδικοποίησης υλικών Μονάδων Υγείας του ΕΣΥ

Μπιτούνη, Αθανασία 09 October 2014 (has links)
Σε μία κοινωνία όπου η λήψη των σωστών αποφάσεων απαιτεί μεγάλη ταχύτητα, είναι γνωστό πως τα πληροφοριακά συστήματα παίζουν πολύ σημαντικό ρόλο. Ο νοσοκομειακός κλάδος, είναι ένας κλάδος που δεν αποτελεί εξαίρεση σε αυτό. Προκειμένου, λοιπόν, τα ενδιαφερόμενα μέρη ενός νοσοκομείου να μπορούν να παρακολουθήσουν τη λειτουργία του με στοιχεία τα οποία να ανταποκρίνονται στην πραγματικότητα, απαραίτητη προυπόθεση είναι τα δεδομένα που εξάγονται να είναι έγκυρα σε μορφή επεξεργασμένης πληροφορίας. Κατά συνέπεια, όσο πιο πλήρης είναι η ανάπτυξη της υποδομής των πληροφοριακών συστημάτων, τόσο πιο εύκολο είναι να διοικηθεί μία νοσοκομειακή μονάδα. Πιο συγκεκριμένα στην παρούσα εργασία θα ασχοληθούμε με τη διαχείριση των υλικών σε μία νοσοκομειακή μονάδα. Δυστυχώς, ακόμα και στις μέρες μας σε ένα νοσοκομείο παρόλο που τα πληροφοριακά συστήματα και οι τεχνολογία έχουν εξελιχθεί πάρα πολύ, καθώς υπάρχουν πολλές μέθοδοι ταξινόμισης και εξειδικευμένων εφαρμογών για την περιγραφή και τον εντοπισμό των υλικών του νοσοκομείου, τις περισσότερες φορές τα δεδομένα που παρέχονται μένουν ανεκμετάλλευτα τόσο από τη διοίκηση όσο και από τους επαγγελματίες υγείας. Στην παρούσα εργασία αρχικά αναφέρουμε την ανάγκη ταξινόμισης των υλικών των μονάδων υγείας του Ε.Σ.Υ., καθώς επίσης και την καταλληλότερη μέθοδο κωδικοπίησης που είναι η GMDN. Στη συνέχεια αναλύουμε τη δομή της κωδικοποίησης του Πανεπιστημιακού Γενικού Νοσοκομείου Πατρών (Π.Γ.Ν.Π.). Έπειτα αναλύουμε το γεγονός πως πολλά λάθη γίνονται κατά την παραγγελία των υλικών του νοσοκομείου, καθώς και τις αιτίες που προκαλλούν αυτά τα λάθη, θέτοντας έτσι το πρόβλημα με το οποίο θα ασχοληθούμε. Πιο συγκεκριμένα, σύμφωνα με τον Νόμο υπ’αρ. 2955/01 περί προμηθειών νοσοκομείων και λοιπών μονάδων υγείας του ΠΕ.Σ.Υ., τα υλικά του νοσοκομείου κατηγοριοποιούνται και κωδικοποιούνται κατά τρόπο συμβατό με τα διεθνή πρότυπα. Όλες οι εταιρείες που εμπορεύονται ιατροτεχνολογικά προϊόντα και επιθυμούν να είναι προμηθευτές των νοσοκομείων, υποχρεούνται να καταχωρήσουν τα προϊόντα που διακινούν στο κωδικολόγιο διακινούμενων ιατροτεχνολογικών προϊόντων που διατηρεί το ΕΚΕΒΥΛ. Το κωδικολόγιο αυτό χρησιμοποιεί το σύστημα ονοματολογίας που είναι συμβατό με το Ευρωπαϊκό πρότυπο EN ISO 15225, δηλαδή την GMDN. Το Η.ΔΙ.Κ.Α. όμως έχει ζητήσει από το νοσοκομείο να κωδικοποιεί τα υλικά του σε τέσσερα επίπεδα, κάτι το οποίο δε συνάδει με τις οδηγίες του ΕΚΕΒΥΛ. Ενώ η κωδικοποίηση της GMDN παραθέτει τα είδη σε πιο γενική μορφή, ίσως σε επί πεδο υποομάδας, η κωδικοποίηση του Π.Γ.Ν.Π. τα παραθέτει κατ’είδος. Αυτό σημαίνει πως θα πρέπει να γίνει αντιστοίχιση των κωδικών των υλικών που προμηθεύονται τα νοσοκομεία, με αυτούς της GMDN. Η λύση που προτείνουμε για αυτό το πρόβλημα είναι η αντιστοίχιση των οντολογιών. Για να γίνει κατανοητό περί τίνος πρόκειται, κάνουμε μία αναφορά στο τι είναι οντολογίες, το πώς αυτές δημιουργούνται και ποια είναι η χρήση τους. Οι οντολογίες συνδυάζουν τις δύο προηγούμενες κωδικοποιήσεις ώστε να βρεθεί μία λύση, αντιστοιχίζοντας το νοσοκομείο τους κωδικούς του με τους κωδικούς της GMDN. Η μέθοδος αντιστοίχισης οντολογιών που προτείνουμε είναι η ONARM. Η μεθοδολογία αυτή κινείται στο χώρο της έξυπνης εξόρυξης των δεδομένων από τον τομέα της τεχνητής νοημοσύνης data mining. Πιο συγκεκριμένα, είναι εξειδικευμένη σε δεδομένα με την μορφή εννοιών οι οποίες απεικονίζονται σε δενδρικές μορφές – γράφους, με το σχήμα των οντολογιών. Η μεθοδολογία ONARM είναι σε θέση να αξιοποιήσει τέτοιου είδους προσωπικούς γράφους χρηστών και να τους συσχετίζει, έτσι ώστε να βρεθούν κοινά ενδιαφέροντα απεικονισμένα με την μορφή εννοιών και έπειτα η συσχέτισή τους. Συνεχίζοντας κάνουμε μία ανάλυση αυτής της τεχνικής αντιστοίχισης οντολογιών, αναλύοντας τα βήματα με τα οποία πραγματοποιείται. Η παρούσα εργασία ολοκληρώνεται κάνοντας μία μελέτη περίπτωσης, εφαρμόζοντας τη μέθοδο αντιστοίχισης οντολογιών ONARM στις κωδικοποιήσεις που ήδη έχουν αναπτυχθεί παραπάνω. Τέλος παρουσιάζουμε τα αποτελέσματα καθώς και κάποια συμπεράσματα. / In a society where making the right decisions requires high speed, it is known that information systems play a very important role. The hospital industry is one industry that is no exception to this. In order, therefore, interested parties a hospital they can monitor the operation of the elements which correspond to the reality, it is required the data to be exported in the form of valid processed information. Consequently, the more complete is the infrastructure development of information systems, the easier it is to dioikithei one hospital unit. Specifically in this paper we will deal with the management of materials in a hospital unit. Unfortunately, even nowadays in a hospital although the information systems and technology have evolved too, as there are many methods of sorting and specialized applications for the description and identification of materials of the hospital, most of the times the data provided live unexploited by both the administration and from health professionals. In this paper initially mention the need for sorting of materials NHS health units, as well as the most appropriate method kodikopiisis that is GMDN. Then we analyze the structure of the coding of the University Hospital of Patras (PGNP). Then we analyze the fact that many mistakes made ​​when ordering materials hospital, and the causes prokalloun these errors, thus the problem with which we deal. More specifically, according to Law no. 2955/01 on procurement by hospitals and other health units PE.S.Y., materials hospital categorized and coded in a manner compatible with international standards. All companies who market medical devices and wish to be suppliers of hospitals, are required to register their products moving in kodikologio migrant medical devices that maintains EKEVYL. The kodikologio uses the nomenclature system that is compatible with the European standard EN ISO 15225, ie GMDN. The I.DI.K.A. but has asked the hospital to encode materials in four levels, which is consistent with the instructions EKEVYL. While coding GMDN lists the species in most general form, perhaps at a level subgroup, the codification of PGNP the lists by nature. This means that you should be reconciled codes of materials supplied hospitals with those of GMDN. Our solution to this problem is the matching of ontologies. To understand what is going on, make a reference to what ontologies are, how they are created and what is their use. Ontologies combine the previous two encodings to find a solution by assigning hospital codes with the codes of GMDN. The ontology mapping method we propose is ONARM. This methodology moves in the field of predictive data mining of the field of artificial intelligence data mining. More specifically, it is specialized in data in the form of concepts which are illustrated in arboreal forms - graphs, the shape of ontologies. The methodology ONARM be able to utilize such personal user graphs and tying in order to find common interests depicted in the form of concepts and then correlate them. Continuing do an analysis of this technique ontology matching, analyzing the steps which effected. This thesis concludes by making a case study applying the mapping method ontologies ONARM to encodings already developed above. Finally we present the results and some conclusions.
45

évaluation de la véracité des données : améliorer la découverte de la vérité en utilisant des connaissances a priori / data veracity assessment : enhancing truth discovery using a priori knowledge

Beretta, Valentina 30 October 2018 (has links)
Face au danger de la désinformation et de la prolifération de fake news (fausses nouvelles) sur le Web, la notion de véracité des données constitue un enjeu crucial. Dans ce contexte, il devient essentiel de développer des modèles qui évaluent de manière automatique la véracité des informations. De fait, cette évaluation est déjà très difficile pour un humain, en raison notamment du biais de confirmation qui empêche d’évaluer objectivement la fiabilité des informations. De plus, la quantité d'informations disponibles sur le Web rend cette tâche quasiment impossible. Il est donc nécessaire de disposer d'une grande puissance de calcul et de développer des méthodes capables d'automatiser cette tâche.Dans cette thèse, nous nous concentrons sur les modèles de découverte de la vérité. Ces approches analysent les assertions émises par différentes sources afin de déterminer celle qui est la plus fiable et digne de confiance. Cette étape est cruciale dans un processus d'extraction de connaissances, par exemple, pour constituer des bases de qualité, sur lesquelles pourront s'appuyer différents traitements ultérieurs (aide à la décision, recommandation, raisonnement…). Plus précisément, les modèles de la littérature sont des modèles non supervisés qui reposent sur un postulat : les informations exactes sont principalement fournies par des sources fiables et des sources fiables fournissent des informations exactes.Les approches existantes faisaient jusqu'ici abstraction de la connaissance a priori d'un domaine. Dans cette contribution, nous montrons comment les modèles de connaissance (ontologies de domaine) peuvent avantageusement être exploités pour améliorer les processus de recherche de vérité. Nous insistons principalement sur deux approches : la prise en compte de la hiérarchisation des concepts de l'ontologie et l'identification de motifs dans les connaissances qui permet, en exploitant certaines règles d'association, de renforcer la confiance dans certaines assertions. Dans le premier cas, deux valeurs différentes ne seront plus nécessairement considérées comme contradictoires ; elles peuvent, en effet, représenter le même concept mais avec des niveaux de détail différents. Pour intégrer cette composante dans les approches existantes, nous nous basons sur les modèles mathématiques associés aux ordres partiels. Dans le second cas, nous considérons des modèles récurrents (modélisés en utilisant des règles d'association) qui peuvent être dérivés à partir des ontologies et de bases de connaissances existantes. Ces informations supplémentaires peuvent renforcer la confiance dans certaines valeurs lorsque certains schémas récurrents sont observés. Chaque approche est validée sur différents jeux de données qui sont rendus disponibles à la communauté, tout comme le code de calcul correspondant aux deux approches. / The notion of data veracity is increasingly getting attention due to the problem of misinformation and fake news. With more and more published online information it is becoming essential to develop models that automatically evaluate information veracity. Indeed, the task of evaluating data veracity is very difficult for humans. They are affected by confirmation bias that prevents them to objectively evaluate the information reliability. Moreover, the amount of information that is available nowadays makes this task time-consuming. The computational power of computer is required. It is critical to develop methods that are able to automate this task.In this thesis we focus on Truth Discovery models. These approaches address the data veracity problem when conflicting values about the same properties of real-world entities are provided by multiple sources.They aim to identify which are the true claims among the set of conflicting ones. More precisely, they are unsupervised models that are based on the rationale stating that true information is provided by reliable sources and reliable sources provide true information. The main contribution of this thesis consists in improving Truth Discovery models considering a priori knowledge expressed in ontologies. This knowledge may facilitate the identification of true claims. Two particular aspects of ontologies are considered. First of all, we explore the semantic dependencies that may exist among different values, i.e. the ordering of values through certain conceptual relationships. Indeed, two different values are not necessary conflicting. They may represent the same concept, but with different levels of detail. In order to integrate this kind of knowledge into existing approaches, we use the mathematical models of partial order. Then, we consider recurrent patterns that can be derived from ontologies. This additional information indeed reinforces the confidence in certain values when certain recurrent patterns are observed. In this case, we model recurrent patterns using rules. Experiments that were conducted both on synthetic and real-world datasets show that a priori knowledge enhances existing models and paves the way towards a more reliable information world. Source code as well as synthetic and real-world datasets are freely available.
46

Modélisation de l'interopérabilité d'objets communicants et de leur coopération : application à la domotique / Modeling of interoperability of communicating object their cooperation : implementation to home automation

Sartor, Fabien 05 July 2012 (has links)
Dans le cadre des évolutions du bâtiment, il est de plus en plus nécessaire d'interconnecter des objets communicants. Cette démarche est cependant freinée du fait de l'absence d'un protocole de communication standard. La maison intelligente n'est pas un nouveau concept, et l'automatisation de la maison est devenue un sujet de recherche à la mode ces dernières années. La problématique de cette thèse se focalise sur l'interopérabilité de systèmes communicants. Plus précisément, nous nous intéressons à la manière de créer une coopération entre différents dispositifs d'un environnement, afin de masquer la complexité à l'usager. Dans un premier temps, l'interopérabilité entre ces objets est réalisée par la mise en place d'un écosystème virtuel où les dispositifs peuvent communiquer leurs états ou l'état de l'environnement. C'est l'abstraction des systèmes. Dans ce mémoire, nous abordons comment et pourquoi les systèmes sont nécessairement abstraits lorsque l'on s'intéresse à la prise en compte du contexte de l'installation. L'étude de la prise en compte du contexte à permis de procurer les données scientifiques à l'entreprise Overkiz afin qu'elle puisse réaliser l'abstraction des dispositifs domotiques. Ensuite, la coopération entre les objets communicants est mise en œuvre par un outil mathématique permettant de modéliser le comportement d'un environnement composé d'actionneurs, de capteurs et d'interfaces utilisateurs. Le comportement est formalisé au moyen de la théorie des automates étendus et plus particulièrement par la théorie des systèmes de transitions symboliques à entrées/sorties (IOSTS). Nous synthétisons alors le pilotage par un "contrôleur" du comportement global d'une installation, à partir de règles de contraintes ou de règles d'action. / In the context of the building developments, it is increasing necessary to interconnect communicating objects. This approach is slow down because of the lack of a standard communication protocol. The smart home is not a new concept, and home automation has become a fashion research topic in recent years. The problem of this thesis focuses on the interoperability of communicating systems. Specifically, we focus on how to establish cooperation between different devices of an environment in order to hide the complexity to a user. Initially, interoperability between these objects is achieved by the establishment of a virtual ecosystem where devices can communicate their states or the state of the environment. It is the abstraction of systems. In this paper, we discuss how and why systems are necessarily abstract when we are interested in taking into consideration the context of the installation. The study of consideration of context allowed to provide scientific data to the company Overkiz in order to realize abstraction of home automation devices. Second, cooperation among communicating objects is implemented by a mathematical tool to model the behavior of an environment cibsustubg of actuators, sensors and user interfaces. The behavior is formalized using the automata theory and more specificaly the automaton theory of Input/Output Symbolic Transition Systems (IOSTS). We synthesize then how to synthetise a "controller" of a global behavior of an installation, from constraint rules or rules of action.
47

Building and Using Knowledge Models for Semantic Image Annotation / Construction et utilisation de modèles à base de connaissance pour l’annotation sémantique des images

Bannour, Hichem 08 February 2013 (has links)
Cette thèse propose une nouvelle méthodologie pour la construction et l’utilisation de modèles à base de connaissances pour l'annotation automatique d'images. Plus précisément, nous proposons dans un premier lieu des approches pour la construction automatique de modèles de connaissances explicites et structurés, à savoir des hiérarchies sémantiques et des ontologies multimédia adaptées pour l'annotation d'images. Ainsi, nous proposons une approche pour la construction automatique de hiérarchies sémantiques. Notre approche est basée sur une nouvelle mesure « sémantico-visuelle » entre concepts et un ensemble de règles qui permettent de relier les concepts les plus apparentés jusqu'à l'aboutissement à la hiérarchie finale. Ensuite, nous proposons de construire des modèles de connaissances plus riches en terme de sémantique et qui modélisent donc d'autres types de relations entre les concepts de l’image. Par conséquent, nous proposons une nouvelle approche pour la construction automatique d'une ontologie multimédia qui modélise non seulement les relations de subsomption, mais aussi les relations spatiales et contextuelles entre les concepts de l'image. L'ontologie proposée est adaptée pour raisonner sur la cohérence de l’annotation d'images. Afin d'évaluer l'efficacité des modèles de connaissances construits, nous proposons de les utiliser par la suite dans un cadre d'annotation d'images. Nous proposons donc une approche, basée sur la structure des hiérarchies sémantiques, pour la classification hiérarchique d'images. Puis, nous proposons une approche générique, combinant des techniques d'apprentissage automatique et le raisonnement ontologique flou, afin de produire des annotations d’images sémantiquement pertinentes. Des évaluations empiriques de nos approches ont montré une amélioration significative de la précision des annotations d'images. / This dissertation proposes a new methodology for building and using structured knowledge models for automatic image annotation. Specifically, our first proposals deal with the automatic building of explicit and structured knowledge models, such as semantic hierarchies and multimedia ontologies, dedicated to image annotation. Thereby, we propose a new approach for building semantic hierarchies faithful to image semantics. Our approach is based on a new image-semantic similarity measure between concepts and on a set of rules that allow connecting the concepts with higher relatedness till the building of the final hierarchy. Afterwards, we propose to go further in the modeling of image semantics through the building of explicit knowledge models that incorporate richer semantic relationships between image concepts. Therefore, we propose a new approach for automatically building multimedia ontologies consisting of subsumption relationships between concepts, and also other semantic relationships such as contextual and spatial relations. Fuzzy description logics are used as a formalism to represent our ontology and to deal with the uncertainty and the imprecision of concept relationships. In order to assess the effectiveness of the built structured knowledge models, we propose subsequently to use them in a framework for image annotation. We propose therefore an approach, based on the structure of semantic hierarchies, to effectively perform hierarchical image classification. Furthermore, we propose a generic approach for image annotation combining machine learning techniques, such as hierarchical image classification, and fuzzy ontological-reasoning in order to achieve a semantically relevant image annotation. Empirical evaluations of our approaches have shown significant improvement in the image annotation accuracy.
48

UMA ABORDAGEM PARA A JUNÇÃO DE ONTOLOGIAS E SUA UTILIZAÇÃO NO DESENVOLVIMENTO DE ONTOLOGIAS DE APLICAÇÃO / AN APPROACH TO ONTOLOGY JUNCTION AND THEIR USE IN DEVELOPMENT APPLICATION ONTOLOGIES

Silva, Antonio Fhillipi Maciel 07 November 2014 (has links)
Made available in DSpace on 2016-08-17T14:52:37Z (GMT). No. of bitstreams: 1 Dissertacao_Antonio Fhillipi Maciel Silva.pdf: 1349205 bytes, checksum: 378ccd63a39eda537c5123a20fcd3948 (MD5) Previous issue date: 2014-11-07 / The reuse of ontologies is a process in which the existing ontological knowledge is used as input to generate new ontologies, in order to reduce costs and increase the quality of the final product. However, techniques for building ontologies do not address reuse satisfactorily, even though this is an indispensable phase in ontology engineering. This work presents OntoJoin, a process for joining ontologies which employs lexical, structural and relational similarity analysis as mapping mechanisms. These mechanisms are responsible for identifying correspondences between elements of two ontologies given as input. These mechanisms are used to match similar elements, thus resulting in a new ontology generated from reuse. The set of mechanisms use "Lexical Comparison", which performs a comparison between the labels of the terms of the ontology elements; "Structural Comparison", which performs an analysis of the concepts and their respective hierarchical structure; "Relational Comparison", which performs an analysis of concepts, their properties and non-taxonomic relationships; and "Index of Terms", which alter the concepts for their better representation, is the main feature that gives OntoJoin the potential to achieve greater effectiveness at the junction of ontologies compared with previously proposed techniques. An experimental evaluation has been performed according two procedures based on the principle of comparing the joint ontology against a reference one. This experiment consisted in measuring with recall and precision the effectiveness of the process for combining two ontologies in the tourism and sales domains. The preliminary results demonstrate the feasibility of the proposed process in joining ontologies. / O reúso de ontologias é um processo em que o conhecimento ontológico existente é usado como entrada para gerar novas ontologias, visando a redução de custos e o aumento da qualidade do produto final. No entanto, as técnicas para construção de ontologias não abordam de maneira satisfatória o reúso, mesmo este sendo uma fase indispensável para a engenharia de ontologias. O presente trabalho apresenta o OntoJoin, um processo para junção de ontologias, que emprega a análise de similaridade lexical, estrutural e relacional como mecanismos de mapeamento. Esses mecanismos são responsáveis por identificar correspondências entre elementos de duas ontologias dadas como entrada. Essa correspondência é utilizada para combinar os elementos similares, resultando assim, em uma nova ontologia gerada a partir do reúso. O uso conjunto dos mecanismos Comparação Lexical , que realiza uma comparação entre os rótulos dos termos dos elementos; Comparação Estrutural , que realiza uma análise dos conceitos e sua respectiva estrutura hierárquica; Comparação Relacional , que realiza uma análise dos conceitos, suas propriedades e relações não taxonômicas; e Indexação dos Termos , que altera a hierarquia dos conceitos para representar melhor semanticamente os termos a serem combinados, é a característica principal que confere ao OntoJoin o potencial de obter maior efetividade na junção de ontologias em relação a técnicas até então propostas. A avaliação experimental do processo foi realizada conforme dois procedimentos baseados no princípio de comparação da ontologia combinada com a de referência. Esse experimento consistiu em mensurar com as medidas de avaliação cobertura e precisão, a efetividade do processo em combinar duas ontologias nos domínio do turismo e vendas. Os resultados obtidos demonstram preliminarmente a viabilidade do processo proposto na junção de ontologias.
49

The Design and Implementation of Optimization Approaches for Large Scale Ontology Alignment in SAMBO

Li, Huanyu January 2017 (has links)
The current World Wide Web provides a convenient way for people to acquire information,but it does not have the ability to manipulate semantics. In other words, peoplecan access data from web pages efficiently but computer programs cannot satisfy effectivedata reuse and sharing. Tim Berners-Lee as the inventor ofWorldWideWeb together withJames Hendler and Ora Lassila, proposed the idea of Semantic Web that is expected as anevolution to existing Web. The knowledge representation for Semantic Web witnessed thedevelopment from extensible makeup language (XML) and resource description framework(RDF) to ontologies. A large quantity of researchers utilize ontologies to expressconcepts, relations and relevant semantics in specific domains. However, different researchersmay have diverse comprehension about knowledge that brings inconsistentinformation in same or similar ontologies. SAMBO is an ontology alignment system that was designed and implemented by ADITof Linköping University in 2005. Shortly after implementation, SAMBO could accomplishmost tasks of ontology alignment. Nevertheless, as the scale grows rapidly, SAMBO couldnot achieve large scale ontology alignment. The primary job of this thesis is to optimizeexisting SAMBO system to fulfill alignment of large scale ontologies. The principal parts of this thesis are as follows. First, we achieve an analysis on currenttop ontology alignment systems, AML and LogMap which are capable of aligning largescale ontologies. This analysis aims to obtain the features in the design of high-quality systems.Then, we analyze existing SAMBO to figure out which aspects need to be optimized.We obtain the result that SAMBO should be improved in data structure, database designand parallel matching. Thus, we propose the design of optimization approaches and givethe implementation. Finally, we evaluate the new system with large scale ontologies andacquire desired results.
50

Contribution à une modélisation ontologique des informations tout au long du cycle de vie du produit / Towards an ontology-based infomation modelling along product lifecycle

Fortineau, Virginie 18 November 2013 (has links)
Les travaux de recherche de cette thèse portent sur la modélisation sémantique des informations industrielles, dans une approche og cycle de vie fg , de gestion des informations. Dans ce type d'approche, lever le verrou lié à l'interopérabilité des modèles d'information est une condition sine qua non à un échange d'information sans perte de flux sémantique. Jusqu'alors, des méthodes d'unification étaient envisagées, reposant sur l'utilisation mutuelle de modèles standards, tels que la norme STEP par exemple. Cependant, l'unification fait face à des limites en termes d'expressivité des modèles, de rigidité, et de perte de sémantique. Afin de lever ces limites, les paradigmes de modélisation évoluent et se tournent vers les ontologies d'inférence, outils du web sémantique.Dans cette thèse, nous proposons un cadre de modélisation sémantique général et une méthodologie de mise en place de ce cadre, qui reposent sur l'utilisation d'ontologies d'inférence. L'application du cadre de modélisation à un cas d'étude industriel, issu de l'ingénierie nucléaire (plus particulièrement l'expression et l'exécution des règles métier), permet alors d'évaluer les apports et limites des ontologies en tant que paradigme de modélisation. Les limites les plus importantes que nous identifions sur l'Open World Assumption, le manque de langage de règles performant et le manque d'outils d'implémentation robustes pour des applications à large échelle. Le développement d'un démonstrateur pour le cas d'étude industriel permet finalement de tendre vers une solution mixte, où les ontologies sont utilisées localement, afin d'en exploiter les divers avantages de manière optimale. / The present research study deals with industrial information modelling in a lifecycle management approach. In this context, achieving semantic interoperability is an important issue to guaranty the quality of information storage, exchange and reuse. Current solutions are based on unification approaches and use standard models as shared information representation. However, unification approches suffer from a lack of expressivity and flexibility. To overcome this issue, ontologies are proposed as a new modelling paradigm in order to perform federativ interoperability.This research focuses on inference ontologies and investigates the use of those semantic web-based technologies for a large scale industrial application. An ontology-based framework and a modelling methodology are therefore proposed and evaluated on a industrial use case in the nuclear industry. The application raises modelling issues like the Open World Assumption, the lack of a real integrated rule approach, and the robustness of implementation tools. The industrial use case is implemented within a demonstrator, that finally allows to propose an hybrid solution, where ontologies are locally used.end{abstract}

Page generated in 0.0683 seconds