• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 199
  • 187
  • 118
  • 26
  • 15
  • 8
  • 7
  • 7
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • Tagged with
  • 622
  • 167
  • 161
  • 159
  • 135
  • 116
  • 98
  • 96
  • 94
  • 87
  • 82
  • 70
  • 63
  • 62
  • 58
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
541

A Framework for Conceptual Characterization of Ontologies and its Application in the Cybersecurity Domain

Franco Martins Souza, Beatriz 17 May 2024 (has links)
[ES] Las ontologías son artefactos computacionales con una amplia gama de aplicaciones. Estos artefactos representan el conocimiento con la mayor precisión posible y brindan a los humanos un marco para representar y aclarar el conocimiento. Además, las ontologías se pueden implementar y procesar agregando semántica a los datos que deben intercambiarse entre sistemas. En los sistemas, los datos transportan información y deben seguir los Principios FAIR para cumplir su propósito. Sin embargo, los dominios del conocimiento pueden ser vastos, complejos y sensibles, lo que hace que la interoperabilidad sea un desafío. Además, el diseño y desarrollo de ontologías no es una tarea sencilla, y debe seguir metodologías y estándares, además de cumplir una serie de requisitos. De hecho, las ontologías se han utilizado para producir FAIRness de datos debido a sus características, aplicaciones y competencias semánticas. Con la creciente necesidad de interoperar datos surgió la necesidad de interoperar ontologías para garantizar la correcta transmisión e intercambio de información. Para satisfacer esta demanda de ontologías interoperativas y, al mismo tiempo, conceptualizar dominios amplios y complejos, surgieron las Redes de Ontologías. Además, las ontologías comenzaron a presentar conceptualizaciones a través de la fragmentación del conocimiento de diferentes maneras, dependiendo de requisitos como el alcance de la ontología, su propósito, si es procesable o para uso humano, su contexto, entre otros aspectos formales, haciendo que la Ingeniería Ontológica sea también un dominio complejo. El problema es que en el Proceso de Ingeniería de Ontologías, las personas responsables toman diferentes perspectivas sobre las conceptualizaciones, provocando que las ontologías tengan sesgos a veces más ontológicos y otras más relacionados con el dominio. Estos problemas dan como resultado ontologías que carecen de fundamento o bien implementaciones de ontologías sin un modelo de referencia previo. Proponemos una (meta)ontología basada en la Ontología Fundacional Unicada (UFO, del inglés, Unified Foundational Ontology) y respaldada por estándares de clasificación ontológica reconocidos, guías y principios FAIR para resolver este problema de falta de consenso en las conceptualizaciones. La Ontología para el Análisis Ontológico (O4OA, del inglés, Ontology for Ontological Analysis) considera perspectivas, conocimientos, características y compromisos, que son necesarios para que la ontología y el dominio faciliten el proceso de Análisis Ontológico, incluyendo el análisis de las ontologías que conforman una red de ontologías. Utilizando O4OA, proponemos el Marco para la Caracterización Ontológica (F4OC, del inglés, Framework for Ontology Characterization) para proporcionar pautas y mejores prácticas a los responsables, a la luz de O4OA. F4OC proporciona un entorno estable y homogéneo para facilitar el análisis ontológico, abordando simultáneamente las perspectivas ontológicas y de dominio de los involucrados. Además, aplicamos O4OA y F4OC a varios estudios de casos en el Dominio de Ciberseguridad, el cual es complejo, extremadamente regulado y sensible, y propenso a dañar a personas y organizaciones. El principal objetivo de esta tesis doctoral es proporcionar un entorno sistemático y reproducible para ingenieros en ontologías y expertos en dominios, responsables de garantizar ontologías desarrolladas de acuerdo con los Principios FAIR. Aspiramos a que O4OA y F4OC sean contribuciones valiosas para la comunidad de modelado conceptual, así como resultados adicionales para la comunidad de ciberseguridad a través del análisis ontológico de nuestros estudios de caso. / [CA] Les ontologies són artefactes computacionals amb una àmplia gamma d'aplicacions. Aquests artefactes representen el coneixement amb la major precisió possible i brinden als humans un marc per a representar i aclarir el coneixement. A més, les ontologies es poden implementar i processar agregant semàntica a les dades que han d'intercanviar-se entre sistemes. En els sistemes, les dades transporten informació i han de seguir els Principis FAIR per a complir el seu propòsit. No obstant això, els dominis del coneixement poden ser vastos, complexos i sensibles, la qual cosa fa que la interoperabilitat siga un desafiament. A més, el disseny i desenvolupament d'ontologies no és una tasca senzilla, i ha de seguir metodologies i estàndards, a més de complir una sèrie de requisits. De fet, les ontologies s'han utilitzat per a produir FAIRness de dades a causa de les seues característiques, aplicacions i competències semàntiques. Amb la creixent necessitat de inter operar dades va sorgir la necessitat de inter operar ontologies per a garantir la correcta transmissió i intercanvi d'informació. Per a satisfer aquesta demanda d'ontologies inter operatives i, al mateix temps, conceptualitzar dominis amplis i complexos, van sorgir Xarxes d'Ontologies. A més, les ontologies van començar a presentar conceptualitzacions a través de la fragmentació del coneixement de diferents maneres, depenent de requisits com l'abast de l'ontologia, el seu propòsit, si és procesable o per a ús humà, el seu context i diversos altres aspectes formals, fent que el Enginyeria Ontològica també és un domini complex. El problema és que en Procés d'Enginyeria d'Ontologies, les persones responsables prenen diferents perspectives sobre les conceptualitzacions, provocant que les ontologies tinguen biaixos a vegades més ontològics i altres més relacionats amb el domini. Aquests problemes donen com a resultat ontologies que manquen de fonament i implementacions d'ontologies sense un model de referència previ. Proposem una (meta)ontologia basada en la Ontologia Fundacional Unificada (UFO, de le inglés, Unified Foundational Ontology) i recolzada per coneguts estàndard de classificació ontològica, guies i principis FAIR per a resoldre aquest problema de falta de consens en les conceptualitzacions. La Ontologia per a l'Anàlisi Ontològica (O4OA, de le inglés, Ontology for Ontological Analysis) considera perspectives, coneixements, característiques i compromisos, que són necessaris perquè l'ontologia i el domini faciliten el procés de Anàlisi Ontològica, incloent-hi l'anàlisi de les ontologies que conformen una xarxa d'ontologies. Utilitzant O4OA, proposem el Marco per a la Caracterització Ontològica (F4OC, de le inglés, Framework for Ontology Characterization) per a proporcionar pautes i millors pràctiques als responsables, a la llum d'O4OA. F4OC proporciona un entorn estable i homogeni per a facilitar l'anàlisi ontològica, abordant simultàniament les perspectives ontològiques i de domini dels involucrades. A més, apliquem O4OA i F4OC a diversos estudis de casos en el Domini de Seguretat Cibernètica, que és complex, extremadament regulat i sensible, i propens a danyar a persones i organitzacions. L'objectiu principal d'aquesta tesi és proporcionar un entorn sistemàtic, reproduïble i escalable per a engineers en ontologies i experts in dominis encarregats de garantir les ontologies desenvolupades d'acord amb els Principis FAIR. Aspirem a fer que O4OA i F4OC aportin valuoses contribucions a la comunitat de modelització conceptual, així com resultats addicionals per a la comunitat de ciberseguretat mitjançant l'anàlisi ontològica dels nostres estudis de cas. / [EN] Ontologies are computational artifacts with a wide range of applications. They represent knowledge as accurately as possible and provide humans with a framework for knowledge representation and clarification. Additionally, ontologies can be implemented and processed by adding semantics to data that needs to be exchanged between systems. In systems, data is the carrier of information and needs to comply with the FAIR Principles to fulfill its purpose. However, knowledge domains can be vast, complex, and sensitive, making interoperability challenging. Moreover, ontology design and development are not easy tasks; they must follow methodologies and standards and comply with a set of requirements. Indeed, ontologies have been used to provide data FAIRness due to their characteristics, applications, and semantic competencies. With the growing need to interoperate data came the need to interoperate ontologies to guarantee the correct transmission and exchange of information. To meet the need to interoperate ontologies and at the same time conceptualize complex and vast domains, Ontology Networks emerged. Moreover, ontologies began to carry out conceptualizations, fragmenting knowledge in different ways depending on requirements, such as the ontology scope, purpose, whether it is processable or for human use, its context, and several other formal aspects, making Ontology Engineering also a complex domain. The problem is that in the Ontology Engineering Process, stakeholders take different perspectives of the conceptualizations, and this causes ontologies to have biases that are sometimes more ontological and sometimes more related to the domain. These problems result in ontologies that lack grounding and ontology implementations without a previous reference model. We propose a (meta)ontology grounded over the Unified Foundational Ontology (UFO) and supported by well-known ontological classification standards, guides, and FAIR Principles to address this problem of lack of consensual conceptualization. The Ontology for Ontological Analysis (O4OA) considers ontological-related and domain-related perspectives, knowledge, characteristics, and commitment that are needed to facilitate the process of Ontological Analysis, including the analysis of ontologies composing an ontology network. Using O4OA we propose the Framework for Ontology Characterization (F4OC) to provide guidelines and best practices in the light of O4OA for stakeholders. The F4OC fosters a stable and uniform environment for ontological analysis, integrating stakeholder perspectives. Moreover, we applied O4OA and F4OC to several case studies in the Cybersecurity Domain, which is intricate, highly regulated, and sensitive to causing harm to people and organizations. The main objective of this doctoral thesis is to provide a systematic and reproducible environment for ontology engineers and domain specialists responsible for ensuring ontologies developed according to the FAIR Principles. We aspire that O4OA and F4OC be valuable contributions to the conceptual modeling community as well as the additional outcomes for the cybersecurity community through the ontological analysis in our case studies. / Franco Martins Souza, B. (2024). A Framework for Conceptual Characterization of Ontologies and its Application in the Cybersecurity Domain [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/204584
542

Ontology Based Security Threat Assessment and Mitigation for Cloud Systems

Kamongi, Patrick 12 1900 (has links)
A malicious actor often relies on security vulnerabilities of IT systems to launch a cyber attack. Most cloud services are supported by an orchestration of large and complex systems which are prone to vulnerabilities, making threat assessment very challenging. In this research, I developed formal and practical ontology-based techniques that enable automated evaluation of a cloud system's security threats. I use an architecture for threat assessment of cloud systems that leverages a dynamically generated ontology knowledge base. I created an ontology model and represented the components of a cloud system. These ontologies are designed for a set of domains that covers some cloud's aspects and information technology products' cyber threat data. The inputs to our architecture are the configurations of cloud assets and components specification (which encompass the desired assessment procedures) and the outputs are actionable threat assessment results. The focus of this work is on ways of enumerating, assessing, and mitigating emerging cyber security threats. A research toolkit system has been developed to evaluate our architecture. We expect our techniques to be leveraged by any cloud provider or consumer in closing the gap of identifying and remediating known or impending security threats facing their cloud's assets.
543

Intelligent flood adaptative contex-aware system / Système sensible et adaptatif au contexte pour la gestion intelligente de crues

Sun, Jie 23 October 2017 (has links)
A l’avenir, l'agriculture et l'environnement vont pouvoir bénéficier de plus en plus de données hétérogènes collectées par des réseaux de capteurs sans fil (RCSF). Ces données alimentent généralement des outils d’aide à la décision (OAD). Dans cette thèse, nous nous intéressons spécifiquement aux systèmes sensibles et adaptatifs au contexte basés sur un RCSF et un OAD, dédiés au suivi de phénomènes naturels. Nous proposons ainsi une formalisation pour la conception et la mise en œuvre de ces systèmes. Le contexte considéré se compose de données issues du phénomène étudié mais également des capteurs sans fil (leur niveau d’énergie par exemple). Par l’utilisation des ontologies et de techniques de raisonnement, nous visons à maintenir le niveau de qualité de service (QdS) des données collectées (en accord avec le phénomène étudié) tant en préservant le fonctionnement du RCSF. Pour illustrer notre proposition, un cas d'utilisation complexe, l'étude des inondations dans un bassin hydrographique, est considéré. Cette thèse a produit un logiciel de simulation de ces systèmes qui intègre un système de simulation multi-agents (JADE) avec un moteur d’inférence à base de règles (Jess). / In the future, agriculture and environment will rely on more and more heterogeneous data collected by wireless sensor networks (WSN). These data are generally used in decision support systems (DSS). In this dissertation, we focus on adaptive context-aware systems based on WSN and DSS, dedicated to the monitoring of natural phenomena. Thus, a formalization for the design and the deployment of these kinds of systems is proposed. The considered context is established using the data from the studied phenomenon but also from the wireless sensors (e.g., their energy level). By the use of ontologies and reasoning techniques, we aim to maintain the required quality of service (QoS) level of the collected data (according to the studied phenomenon) while preserving the resources of the WSN. To illustrate our proposal, a complex use case, the study of floods in a watershed, is described. During this PhD thesis, a simulator for context-aware systems which integrates a multi-agent system (JADE) and a rule engine (Jess) has been developed.Keywords: ontologies, rule-based inferences, formalization, heterogeneous data, sensors data streams integration, WSN, limited resources, DSS, adaptive context-aware systems, QoS, agriculture, environment.
544

Arts, schématisme et conceptions du monde : le cas de la perspective : Philippe Descola, Erwin Panofsky, Ernst Cassirer, Robert Klein / Art, schematism and worldview : the case of perspective : Philippe Descola, Erwin Panofsky, Ernst Cassirer, Robert Klein

Elalouf, Jérémie 11 October 2019 (has links)
Au XXe siècle, le problème de l’illusionnisme perspectif a posé d’importantes difficultés théoriques aux historien d’arts. En effet, la compréhension de la perspective induit une conception de l’histoire de l’art. Si la perspective est conforme à la perception, alors l’art peut être objectif et son histoire participe de l’histoire des sciences. En revanche, si la perspective n’est pas conforme à la perception, alors l’art, dans son histoire, ne peut être compris comme une quête de l’objectivité. Dans ce cas, deux autres questions se posent : comment penser le rapport entre art et rationalité, et comment définir la visée de l’art? Le premier problème appelle une réflexion sur le concept de schématisme, le second une réflexion sur le rapport entre l’art et les conceptions du monde. La Perspective comme forme symbolique, d’Erwin Panofsky, est le premier texte à avoir proposé une réponse générale à ces questions. Le concept de forme symbolique, emprunté à Ernst Cassirer, lui a permis de considérer la perspective comme une forme culturelle, et de mettre au second plan la question de l’objectivité. Cette position est à l’origine d’intenses polémiques, que les débats historiographiques ne sont pas parvenus à résoudre. En confrontant les travaux de Panofsky à ceux de Philippe Descola et de Ernst Cassirer, cette thèse explicite d’abord les attendus théoriques inhérents au rapport entre forme symbolique, schématisme et conceptions du monde. Elle propose ensuite une analyse des controverses liées à la perspective et met en valeur la pensée de Robert Klein. Cette pensée travaille la phénoménologie et amène à une conception de l’histoire différente de celle proposée par Panofsky. / During the 20th century, perspective illusionism caused significant theoretical issues to art historians. That is because an understanding of perspective leads to a conception of art history. If perspective is true to visual perception, then art can be objective and its history is related to the history of sciences. On the other hand, if perspective is not true to visual perception, then art, in its own historical development, cannot be understood as a quest for objectivity. In this case, two further issues arise: how to conceive the relationship between art and rationality, and how to define the purpose of art? The first problem requires a reflection on the concept of schematism, the second a reflection on the relationship between art and different worldviews. Erwin Panofsky’s essay, Perspective as a Symbolic Form, was the first text to provide a comprehensive answer to these questions. The concept of symbolic form, borrowed from Ernst Cassirer philosophy, allowed him to consider perspective mainly as a cultural form, thus overlooking the issue of objectivity. This position has led to numerous controversies, which have not been overcome by historiographical discussions. By comparing Panofsky’s work with those of Philippe Descola and Ernst Cassirer, this thesis first clarifies the theoretical prerequisites for the relationship between symbolic form, schematism and worldviews. It then provides an analysis of several historiographical controversies and underscores the thinking of Robert Klein. His approach tackles phenomenology and leads to a different conception of history than the one proposed by Panofsky to overcome the issues raised by perspective.
545

Decision making strategy for antenatal echographic screening of foetal abnormalities using statistical learning / Méthodologie d'aide à la décision pour le dépistage anténatal échographique d'anomalies fœtales par apprentissage statistique

Besson, Rémi 01 October 2019 (has links)
Dans cette thèse, nous proposons une méthode pour construire un outil d'aide à la décision pour le diagnostic de maladie rare. Nous cherchons à minimiser le nombre de tests médicaux nécessaires pour atteindre un état où l'incertitude concernant la maladie du patient est inférieure à un seuil prédéterminé. Ce faisant, nous tenons compte de la nécessité dans de nombreuses applications médicales, d'éviter autant que possible, tout diagnostic erroné. Pour résoudre cette tâche d'optimisation, nous étudions plusieurs algorithmes d'apprentissage par renforcement et les rendons opérationnels pour notre problème de très grande dimension. Pour cela nous décomposons le problème initial sous la forme de plusieurs sous-problèmes et montrons qu'il est possible de tirer partie des intersections entre ces sous-tâches pour accélérer l'apprentissage. Les stratégies apprises se révèlent bien plus performantes que des stratégies gloutonnes classiques. Nous présentons également une façon de combiner les connaissances d'experts, exprimées sous forme de probabilités conditionnelles, avec des données cliniques. Il s'agit d'un aspect crucial car la rareté des données pour les maladies rares empêche toute approche basée uniquement sur des données cliniques. Nous montrons, tant théoriquement qu'empiriquement, que l'estimateur que nous proposons est toujours plus performant que le meilleur des deux modèles (expert ou données) à une constante près. Enfin nous montrons qu'il est possible d'intégrer efficacement des raisonnements tenant compte du niveau de granularité des symptômes renseignés tout en restant dans le cadre probabiliste développé tout au long de ce travail. / In this thesis, we propose a method to build a decision support tool for the diagnosis of rare diseases. We aim to minimize the number of medical tests necessary to achieve a state where the uncertainty regarding the patient's disease is less than a predetermined threshold. In doing so, we take into account the need in many medical applications, to avoid as much as possible, any misdiagnosis. To solve this optimization task, we investigate several reinforcement learning algorithm and make them operable in our high-dimensional. To do this, we break down the initial problem into several sub-problems and show that it is possible to take advantage of the intersections between these sub-tasks to accelerate the learning phase. The strategies learned are much more effective than classic greedy strategies. We also present a way to combine expert knowledge, expressed as conditional probabilities, with clinical data. This is crucial because the scarcity of data in the field of rare diseases prevents any approach based solely on clinical data. We show, both empirically and theoretically, that our proposed estimator is always more efficient than the best of the two models (expert or data) within a constant. Finally, we show that it is possible to effectively integrate reasoning taking into account the level of granularity of the symptoms reported while remaining within the probabilistic framework developed throughout this work.
546

Intéropérabilité sémantique entre les outils de traitement d'images en neuro-imagerie

Wali, Bacem 21 June 2013 (has links) (PDF)
Le domaine de la recherche en neuroimagerie nécessite de pouvoir partager, réutiliser et comparer les outils de traitement d'images des différents laboratoires. Cependant la tâche de partage de traitement sous forme de services et leur composition sous forme de workflow reste une tâche difficile et trop souvent complexe. Ceci est dû dans la plupart des cas à l'hétérogénéité des services et des plateformes qui diffèrent au niveau de leurs conceptions et de leurs implémentations. Nous travaillons dans le cadre du projet NeuroLOG, une initiative cherchant à construire un système fédéré pour le partage de données et d'outils de traitement dans le domaine de la neuroimagerie. Il adopte une approche ontologique pour assurer la médiation et le partage de ressources entre les différents collaborateurs. Notre travail de thèse vise à compléter la médiation pour assurer le partage et la composition des outils de traitement d'images et à fournir aux utilisateurs spécialistes et non-spécialistes du domaine de la neuroimagerie une plateforme de composition de service ergonomique et facile à utiliser. Nous utilisons pour cela les techniques du web sémantique afin de remédier aux différents problèmes d'interopérabilité et de cohérence de ressources utilisées et produites. La première solution proposée se fonde sur une extension de la plateforme OWL-S. Elle a été adaptée aux différents services web de la plateforme de neuroimagerie. On a déduit que finalement les outils qui ne possèdent pas le format de services web et une description conforme au standard WSDL ne peuvent pas être enchaînés sous forme de workflow. A partir de là, nous avons proposé une autre approche pour effectuer la composition de services de traitement d'images. Elle se se fonde sur un nouveau modèle ontologique de composition de services qui répond aux exigences de la neuroimagerie, qui s'articule bien avec l'ontologie de domaine OntoNeuroLOG et qui pourra remédier aux différents problèmes rencontrés lors de l'élaboration de la première approche. Ce travail a permit de remédier à la fois aux problèmes d'hétérogénéité des descripteurs des services et à l'interopérabilité des services selon les contraintes de la neuroimagerie au sein de la plateforme NeuroLOG.
547

Product publics and the early moments of nascent markets

Hannigan, Timothy R. January 2012 (has links)
Product markets have been found to be socially constructed as industry logics, product ontologies and organising visions. Information intermediaries play an important field-level role in determining the categories and ontologies of emerging products. Within shared cognitive structures, sellers and buyers come together in mutual understandings on how products are used, what features are important and what counts as value. Although market information is often legitimated through objective scientific methodologies, it can also appear as uncertain knowledge, or rumour. Contrary to the often seen conception of rumour as crowd-like behavioural contagion, it is presented here as an informal message lacking a reliable sponsor that is developed in an uncertain situation, but still may be subject to critical reasoning. This thesis investigates the ambiguity around the fuzzy front-end of product markets, as social media and blogs that trade in rumour and proposition before any official announcement by firms. Through a process of improvised news, these online collectivities, as product publics, deliberate and collectively generate expectations as meaning structures. By tracking discourse from tech blogs, I trace the emergence of meaning in the tablet device product ontology. This occurred well before product introductions by firms who eventually came to form the market.
548

The integration of earthquake engineering resources

Lamata Martinez, Ignacio January 2014 (has links)
Earthquake engineering is increasingly focusing on large international collaborations to address complex problems. Recent computing advances have greatly contributed to the way scientific collaborations are conducted, where web-based solutions are an emerging trend to manage and present results to the scientific community and the general public. However, collaborations in earthquake engineering lack a common interoperability framework, resulting in tedious and complex processes to integrate results, which cannot be efficiently used by third-party institutions. The work described in this thesis applies novel computing techniques to enable the interoperability of earthquake engineering resources, by integrating data, distributed simulation services and laboratory facilities. This integration focuses on distributed approaches rather than centralised solutions, and has been materialised in a platform called Celestina, that supports the integration of hazard mitigation resources. The prototype of Celestina has been implemented and validated within the context of two of the current largest earthquake engineering networks, the SERIES network in Europe and the NEES network in the USA. It has been divided into three sub-systems to address different problems: (i) Celestina Data, to develop best methods to define, store, integrate and share earthquake engineering experimental data. Celestina Data uses a novel approach based on Semantic Web technologies, and it has accomplished the first data integration between earthquake engineering institutions from the United States and Europe by means of a formalised infrastructure. (ii) Celestina Tools, to research applications that can be implemented on top of the data integration, in order to provide a practical benefit for the end user. (iii) Celestina Simulations, to create the most efficient methods to integrate distributed testing software and to support the planning, definition and execution of the experimental workflow from a high-level perspective. Celestina Simulations has been implemented and validated by conducting distributed simulations between the Universities of Oxford and Kassel. Such validation has demonstrated the feasibility to conduct both flexible, general-purpose and high performance simulations under the framework. Celestina has enabled global analysis of data requirements for the whole community, the definition of global policies for data authorship, curation and preservation, more efficient use of efforts and funding, more accurate decision support systems and more efficient sharing and evaluation of data results in scientific articles.
549

La modélisation d'objets pédagogiques pour une plateforme sémantique d'apprentissage / The modeling of learning objects for a semantic learning platform

Balog-Crisan, Radu 13 December 2011 (has links)
Afin de rendre les objets pédagogiques (OP) accessibles, réutilisables et adaptables, il est nécessaire de les modéliser. Outre la forme et la structure, il faut aussi décrire la sémantique des OP. Ainsi, nous proposons un schéma de modélisation d'OP d'après la norme LOM (Learning Object Metadata), en utilisant un modèle de données de type RDF (Ressource Description Framework). Pour encoder, échanger et réutiliser les métadonnées structurées d'OP, nous avons implémenté l'application RDF4LOM (RDF for LOM). Le recours aux outils du Web sémantique nous permet de proposer le prototype d'une plateforme sémantique d'apprentissage (SLCMS), qui valorise à la fois les ressources internes, les OP modélisés avec RDF, ainsi que les ressources externes (wikis, blogs ou encore agendas sémantiques). L'architecture du SLCMS est basée sur un Noyau sémantique capable d'interpréter les métadonnées et de créer des requêtes intelligentes. Pour la description des contraintes sémantiques et des raisonnements sur les OP, nous utilisons les ontologies. Grâce à des ontologies précises et complètes, les OP seront « interprétables » et « compréhensibles » par les machines. Pour le module Quiz sémantique, nous avons modélisé l'ontologie Quiz et l'ontologie LMD. La plateforme sémantique d'apprentissage permet la recherche d'OP pertinents, la génération de parcours personnalisés pour les apprenants et, en perspective, l'adaptabilité aux styles d'apprentissage. / In order to make Learning Objects (LO) accessible, reusable and adaptable, it is necessary to model them. Besides form and structure, one must also define the semantics associated with a given LO. Thus, we propose a modeling scheme for LOs that respects the LOM (Learning Object Metadata) standard and which uses a RDF-based (Resource Description Framework) data model. In order to encode, exchange and reuse such structured metadata for LOs, we have developed the RDF4LOM (RDF for LOM) application. By using Semantic Web tools, we are able to deliver a prototype of a semantic learning platform (SLCMS) that enhances internal resources, LOs modeled with RDF as well as external resources (semantic wikis, blogs or calendars). The architecture of this SLCMS is based upon a semantic Kernel whose role is to interpret metadata and create intelligent queries. We use ontologies, for the description of semantic constraints and reasoning rules concerning the LOs. By means of accurate and complete ontologies, the LOs will be machine-interpretable and also machine-understandable. For the semantic Quiz module, we have developed the Quiz and LMD ontologies. The semantic learning platform enables searching for appropriate LOs, generating personalized learning paths for learners and, as en evolution, adaptation to learning styles.
550

L’acquisition et l’extraction de connaissances dans un contexte patrimoniale peu documenté / Knowledge acquisition and extraction in the context of poorly documented cultural heritage

Amad, Ashraf 06 December 2017 (has links)
L’importance de la documentation du patrimoine culturel croit parallèlement aux risques auxquels il est exposé tels que les guerres, le développement urbain incontrôlé, les catastrophes naturelles, la négligence et les techniques ou stratégies de conservation inappropriées. De plus, la documentation constitue un outil fondamental pour l'évaluation, la conservation, le suivi et la gestion du patrimoine culturel. Dès lors, cet outil majeur nous permet d’estimer la valeur historique, scientifique, sociale et économique de ce patrimoine. Selon plusieurs institutions internationales dédiées à la conservation du patrimoine culturel, il y a un besoin réel de développer et d’adapter de solutions informatiques capables de faciliter et de soutenir la documentation du patrimoine culturel peu documenté surtout dans les pays en développement où il y a un manque flagrant de ressources. Parmi ces pays, la Palestine représente un cas d’étude pertinent dans cette problématique de carence en documentation de son patrimoine. Pour répondre à cette problématique, nous proposons une approche d’acquisition et d’extraction de connaissances patrimoniales dans un contexte peu documenté. Nous prenons comme cas d’étude l’église de la Nativité en Palestine et nous mettons en place notre approche théorique par le développement d’une plateforme d’acquisition et d’extraction de connaissances patrimoniales à l’aide d’un Framework pour la documentation de patrimoine culturel.Notre solution est basée sur les technologies sémantiques, ce qui nous donne la possibilité, dès le début, de fournir une description ontologique riche, une meilleure structuration de l'information, un niveau élevé d'interopérabilité et un meilleur traitement automatique (lisibilité par les machines) sans efforts additionnels.De plus, notre approche est évolutive et réciproque car l’acquisition de connaissance (sous forme structurée) améliore l’extraction de connaissances patrimoniales à partir de texte non structuré et vice versa. Dès lors, l’interaction entre les deux composants de notre système ainsi que les connaissances patrimoniales se développent et s’améliorent au fil de temps surtout que notre système utilise les contributions manuelles et validations des résultats automatiques (dans les deux composants) par les experts afin d’optimiser sa performance. / The importance of cultural heritage documentation increases in parallel with the risks to which it is exposed, such as wars, uncontrolled urban development, natural disasters, neglect and inappropriate conservation techniques or strategies. In addition, this documentation is a fundamental tool for the assessment, the conservation, and the management of cultural heritage. Consequently, this tool allows us to estimate the historical, scientific, social and economic value of this heritage. According to several international institutions dedicated to the preservation of cultural heritage, there is an urgent need to develop computer solutions to facilitate and support the documentation of poorly documented cultural heritage especially in developing countries where there is a lack of resources. Among these countries, Palestine represents a relevant case study in this issue of lack of documentation of its heritage. To address this issue, we propose an approach of knowledge acquisition and extraction in the context of poorly documented heritage. We take as a case study the church of the Nativity in Palestine and we put in place our theoretical approach by the development of a platform for the acquisition and extraction of heritage knowledge. Our solution is based on the semantic technologies, which gives us the possibility, from the beginning, to provide a rich ontological description, a better structuring of the information, a high level of interoperability and a better automatic processing without additional efforts.Additionally, our approach is evolutionary and reciprocal because the acquisition of knowledge (in structured form) improves the extraction of heritage knowledge from unstructured text and vice versa. Therefore, the interaction between the two components of our system as well as the heritage knowledge develop and improve over time especially that our system uses manual contributions and validations of the automatic results (in both components) by the experts to optimize its performance.

Page generated in 0.0973 seconds