• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 4
  • Tagged with
  • 10
  • 5
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Ranking-based Semantics for Abstract Argumentation / Sémantiques à base de classement pour l'argumentation abstraite

Delobelle, Jérôme 12 December 2017 (has links)
La théorie de l'argumentation abstraite de Dung est un formalisme permettant d'utiliser un système d'argumentation afin de représenter des informations conflictuelles. Des sémantiques à base d'extensions ont d'abord été introduites dans le but de déterminer quels arguments peuvent être conjointement acceptés. Cependant, ces sémantiques ne sont pas appropriées pour certaines applications, c'est pourquoi des sémantiques à base de classement, permettant de classer les arguments du plus acceptable au moins acceptable, ont été introduites. Le but de cette thèse est donc de proposer et d'étudier ces sémantiques à base de classement dans le contexte de l'argumentation abstraite.Nous définissons d'abord une nouvelle famille de sémantiques à base de classement basées sur un principe de propagation permettant de contrôler l'influence des arguments non-attaqués sur l'acceptabilité des arguments. Nous étudions les propriétés de ces sémantiques, les relations entre elles ainsi qu'avec d'autres sémantiques existantes.Nous proposons ensuite deux méthodes pour comparer les sémantiques à base de classement. La première est une comparaison empirique sur des systèmes d'argumentation générés aléatoirement donnant un aperçu des similitudes et des différences entre ces sémantiques. La seconde est une comparaison axiomatique de toutes ces sémantiques à la lumière des propriétés proposées visant à mieux comprendre le comportement de chaque sémantique.Enfin, nous remettons en question la capacité des sémantiques existantes à capturer certains principes de persuasion et introduisons une nouvelle sémantique paramétrée à base de classement plus appropriée pour ce contexte précis. / Dung’s theory of abstract argumentation is a formalism that represents conflicting information using an argumentation framework. Extension-based semantics have been introduced to determine, given an argumentation framework, the justifiable points of view on the acceptability of the arguments. However, these semantics are not appropriate for some applications. So alternative semantics, called ranking-based semantics, have recently been evolved. Such semantics produces, for a given argumentation framework, a ranking on its arguments from the most acceptable to the least one(s). The overall aim of this thesis is to propose and study ranking-based semantics in the context of abstract argumentation. We first define a new family of ranking-based semantics based on a propagation principle which allow us to control the influence of non-attacked arguments on the acceptability of arguments. We investigate the properties of these semantics, the relationships between them but also with other existing semantics. Then, we provide a thorough analysis of ranking-based semantics in two different ways. The first one is an empirical comparison on randomly generated argumentation frameworks which reveals insights into similarities and differences between ranking-based semantics. The second one is an axiomatic comparison of all these semantics with respect to the proposed properties aiming to better understand the behavior of each semantics. At last, we question the ability of the existing ranking-based semantics to capture persuasion settings and introduce a new parametrized ranking-based semantics which is more appropriate in this context.
2

Formalisation et étude des explications dialectiques dans les bases de connaissances incohérentes / Formalizing and Studying Dialectical Explanations in Inconsistent Knowledge Bases

Arioua, Abdallah 17 October 2016 (has links)
Les bases de connaissances sont des bases de données déductives où la logique est utilisée pour représenter des connaissances de domaine sur des données existantes. Dans le cadre des règles existentielles, une base de connaissances est composée de deux couches : la couche de données qui représentent les connaissances factuelle et la couche ontologique qui incorpore des règles de déduction et des contraintes négatives. L’interrogation de données à l’aide des ontologies est la fonction de raisonnement principale dans ce contexte. Comme dans la logique classique, les contradictions posent un problème à l’interrogation car « d'une contradiction, on peut déduire ce qu'on veut (ex falso quodlibet) ».Récemment, des approches d’interrogation tolérantes aux incohérences ont été proposées pour faire face à ce problème dans le cadre des règles existentielles. Elles déploient des stratégies dites de réparation pour restaurer la cohérence. Cependant, ces approches sont parfois inintelligibles et peu intuitives pour l'utilisateur car elles mettent souvent en œuvre des stratégies de réparation complexes. Ce manque de compréhension peut réduire l’utilisabilité de ces approches car elles réduisent la confiance entre l'utilisateur et les systèmes qui les utilisent. Par conséquent, la problématique de recherche que nous considérons est comment rendre intelligible à l’utilisateur l’interrogation tolérantes aux incohérences. Pour répondre à cette question de recherche, nous proposons d’utiliser deux formes d’explication pour faciliter la compréhension des réponses retournées par une interrogation tolérante aux incohérences. La première est dite de niveau méta et la seconde de niveau objet. Ces deux types d’explication prennent la forme d'un dialogue entre l'utilisateur et le raisonneur au sujet des déductions retournées comme réponses à une requête donnée. Nous étudions ces explications dans le double cadre de l'argumentation fondée sur la logique et de la dialectique formelle, comme nous étudions leurs propriétés et leurs impacts sur les utilisateurs en termes de compréhension des résultats. / Knowledge bases are deductive databases where the machinery of logic is used to represent domain-specific and general-purpose knowledge over existing data. In the existential rules framework a knowledge base is composed of two layers: the data layer which represents the factual knowledge, and the ontological layer that incorporates rules of deduction and negative constraints. The main reasoning service in such framework is answering queries over the data layer by means of the ontological layer. As in classical logic, contradictions trivialize query answering since everything follows from a contradiction (ex falso quodlibet). Recently, inconsistency-tolerant approaches have been proposed to cope with such problem in the existential rules framework. They deploy repairing strategies on the knowledge base to restore consistency and overcome the problem of trivialization. However, these approaches are sometimes unintelligible and not straightforward for the end-user as they implement complex repairing strategies. This would jeopardize the trust relation between the user and the knowledge-based system. In this thesis we answer the research question: ``How do we make query answering intelligible to the end-user in presence of inconsistency?''. The answer that the thesis is built around is ``We use explanations to facilitate the understanding of query answering''. We propose meta-level and object-level dialectical explanations that take the form of a dialogue between the user and the reasoner about the entailment of a given query. We study these explanations in the framework of logic-based argumentation and dialectics and we study their properties and their impact on users.
3

Querying big RDF data : semantic heterogeneity and rule-based inconsistency / Interrogation de gros volumes données : hétérogénéité sémantique et incohérence à la base des règles

Huang, Xin 30 November 2016 (has links)
Le Web sémantique est la vision de la prochaine génération de Web proposé par Tim Berners-Lee en 2001. Avec le développement rapide des technologies du Web sémantique, de grandes quantités de données RDF existent déjà sous forme de données ouvertes et liées et ne cessent d'augmenter très rapidement. Les outils traditionnels d'interrogation et de raisonnement sur les données du Web sémantique sont conçus pour fonctionner dans un environnement centralisé. A ce titre, les algorithmes de calcul traditionnels vont inévitablement rencontrer des problèmes de performances et des limitations de mémoire. De gros volumes de données hétérogènes sont collectés à partir de différentes sources de données par différentes organisations. Ces sources de données présentent souvent des divergences et des incertitudes dont la détection et la résolution sont rendues encore plus difficiles dans le big data. Mes travaux de recherche présentent des approches et algorithmes pour une meilleure exploitation de données dans le contexte big data et du web sémantique. Nous avons tout d'abord développé une approche de résolution des identités (Entity Resolution) avec des algorithmes d'inférence et d'un mécanisme de liaison lorsque la même entité est fournie dans plusieurs ressources RDF décrite avec différentes sémantiques et identifiants de ressources URI. Nous avons également développé un moteur de réécriture de requêtes SPARQL basé le modèle MapReduce pour inférer les données implicites décrites intentionnellement par des règles d'inférence lors de l'évaluation de la requête. L'approche de réécriture traitent également de la fermeture transitive et règles cycliques pour la prise en compte de langages de règles plus riches comme RDFS et OWL. Plusieurs optimisations ont été proposées pour améliorer l'efficacité des algorithmes visant à réduire le nombre de jobs MapReduce. La deuxième contribution concerne le traitement d'incohérence dans le big data. Nous étendons l'approche présentée dans la première contribution en tenant compte des incohérences dans les données. Cela comprend : (1) La détection d'incohérence à base de règles évaluées par le moteur de réécriture de requêtes que nous avons développé; (2) L'évaluation de requêtes permettant de calculer des résultats cohérentes selon une des trois sémantiques définies à cet effet. La troisième contribution concerne le raisonnement et l'interrogation sur la grande quantité données RDF incertaines. Nous proposons une approche basée sur MapReduce pour effectuer l'inférence de nouvelles données en présence d'incertitude. Nous proposons un algorithme d'évaluation de requêtes sur de grandes quantités de données RDF probabilistes pour le calcul et l'estimation des probabilités des résultats. / Semantic Web is the vision of next generation of Web proposed by Tim Berners-Lee in 2001. Indeed, with the rapid development of Semantic Web technologies, large-scale RDF data already exist as linked open data, and their number is growing rapidly. Traditional Semantic Web querying and reasoning tools are designed to run in stand-alone environment. Therefor, Processing large-scale bulk data computation using traditional solutions will result in bottlenecks of memory space and computational performance inevitably. Large volumes of heterogeneous data are collected from different data sources by different organizations. In this context, different sources always exist inconsistencies and uncertainties which are difficult to identify and evaluate. To solve these challenges of Semantic Web, the main research contents and innovative approaches are proposed as follows. For these purposes, we firstly developed an inference based semantic entity resolution approach and linking mechanism when the same entity is provided in multiple RDF resources described using different semantics and URIs identifiers. We also developed a MapReduce based rewriting engine for Sparql query over big RDF data to handle the implicit data described intentionally by inference rules during query evaluation. The rewriting approach also deal with the transitive closure and cyclic rules to provide a rich inference language as RDFS and OWL. The second contribution concerns the distributed inconsistency processing. We extend the approach presented in first contribution by taking into account inconsistency in the data. This includes: (1)Rules based inconsistency detection with the help of our query rewriting engine; (2)Consistent query evaluation in three different semantics. The third contribution concerns the reasoning and querying over large-scale uncertain RDF data. We propose an MapReduce based approach to deal with large-scale reasoning with uncertainty. Unlike possible worlds semantic, we propose an algorithm for generating intensional Sparql query plan over probabilistic RDF graph for computing the probabilities of results within the query.
4

Defeasible reasoning for existential rules / Raisonnement défaisable dans les règles existentielles

Hecham, Abdelraouf 09 July 2018 (has links)
La représentation des connaissances et le raisonnement sur le Web sémantique se sont récemment concentrés, pour des raisons pratiques, sur le sous-ensemble de la logique du premier ordre appelé règles existentielles. Dans cette thèse, nous étudions le raisonnement avec des règles existentielles en présence d'informations contradictoires et introduisons un raisonnement existentiel défaisible. Nous proposons trois résultats principaux: Premièrement, nous montrons que les techniques de raisonnement défaisibles classiques doivent être revisitées pour les règles existentielles et étudions leurs défis théoriques et de mise en œuvre. Deuxièmement, nous fournissons une nouvelle structure combinatoire qui permet de capturer diverses variantes du raisonnement défaisable et étudions son expressivité et sa polyvalence. Troisièmement, nous évaluons notre travail par rapport à l'état de l'art dans le traitement des incohérences et des inconsistances dans les règles existentielles et étudions l'intérêt humain de telles techniques de raisonnement. / Knowledge representation and reasoning on the Semantic Web has recently focused, due to practical rationale, on the subset of first order logic called existential rules. In this thesis we investigate reasoning with existential rules in presence of conflicting information and introduce defeasible existential rule reasoning. We provide three main salient results as follows. First we show that classical defeasible reasoning techniques need to be revisited for existential rules and study their theoretical and implementation related challenges. Second, we provide a new combinatorial structure that allows for diverse variants of defeasible reasoning to be captured together and study its expressivity and versatility. Third we evaluate our work with respect to the state of the art in inconsistency handling in existential rules and investigate the human appeal of such reasoning techniques.
5

Les principes de la connaissance / The principles of knowledge

Schoeller, Felix 21 June 2017 (has links)
La thèse concerne le problème de la curiosité naturelle. La première partie clarifie la notion biologique d’instinct et abstrait dix-sept propriétés observables définissant l’instinct et permettant l’étude empirique de systèmes instinctifs en laboratoire. La seconde partie clarifie le problème de la curiosité naturelle, expose celui de l’intelligence humaine et détaille l’évolution du comportement exploratoire au cours de la phylogénie. La notion d’instinct est appliquée à la description de l’acquisition de connaissances chez l’homme. Les conséquences théoriques de cette application sont détaillées. La logique de la curiosité est examinée aux niveaux philosophique, historique, psychologique, biologique et mathématique. Un modèle formel de l’acquisition de connaissances est proposé. La relation entre apprentissage et conflit cognitif est soulignée. Le paradoxe de l’intelligence est décrit formellement. Des pistes théoriques sont proposées pour faciliter l’étude de la relation entre sens et connaissance. La troisième partie clarifie le problème de la satisfaction de la curiosité naturelle et déploie les conséquences théoriques d’une série d’expériences menée en Europe sur le problème des émotions esthétiques. L’hypothèse selon laquelle les émotions esthétiques correspondraient à une satisfaction de la curiosité naturelle est examinée aux niveaux biologique et psychologique. Le cas particulier de la relation entre température et cognition observable dans le cas des frissons non-thermorégulateurs est discuté et une série d’hypothèses physiques et biologiques sont proposées. Un modèle formel de la fluence de traitement est introduit pour faciliter son étude empirique. Une description mathématique du frisson psychogénique est proposée. Une description mathématique de la tension narrative est proposée. En annexe sont détaillés les résultats d’une série de cinq études psychophysiologiques concernant les frissons psychogéniques. Ces cinq études ont été répliquées avec succès trois fois sur deux populations européennes distinctes. Les résultats démontrent notamment que l’incohérence inhibe les frissons psychogéniques positifs. / The thesis concerns the problem of natural curiosity. The first part deals with the biological notion of the instinct and abstracts seventeen observable properties allowing the empirical study of instinctual systems in the laboratory. The second part clarifies the problem of natural curiosity, exposes that of human intelligence and details the evolution of exploratory behavior in the course of phylogeny. The notion of the instinct is applied to the description of knowledge-acquisition in humans. The theoretical consequences of this application are detailed. The logic of curiosity is examined at the philosophical, historical, psychological, biological and mathematical levels. A formal model of knowledge-acquisition is proposed. The relation between learning and conflict is underlined. The paradox of intelligence is described formally. Several theoretical leads are proposed to facilitate the study of the relation between knowledge and meaning. The third part deals with the problem of curiosity’s satiation and deploys the theoretical consequences of a series of experiments conducted in Europe regarding the problem of aesthetic emotions. The hypothesis that aesthetic emotions might correspond to a satiation of natural curiosity is examined at the biological and psychological levels. The particular case of the relation between temperature and cognition as observed in the case of non-thermoregulatory shivering is discussed and a series of physical and biological hypotheses are proposed. A formal model of processing fluency is introduced to facilitate its empirical study. A mathematical description of psychogenic shivering is proposed. A mathematical description of narrative tension is proposed. In the appendix, the results of a series of five psychophysiological studies concerning psychogenic shivers are detailed. These fives studies have been successfully replicated three times in two distinct European populations. Among others, the results demonstrate that incoherence inhibits positive psychogenic shivering.
6

Le système cadiot : l'hétérogène dans le champ de l'expérience / The Cadiot System : Heterogeneity in the Field of Experience

Woelfel, Anne Esrelle 10 March 2014 (has links)
Le concept d'hétérogène est souvent employé pour définir une littérature contemporaine qui transgresse les catégories génériques traditionnelles, multiplie les références littéraires, pratique les changements de registre, les ruptures narratives ou formelles, qui mêle fiction et réalité. Chez Olivier Cadiot, ce trait de non-genre – polygénéricité et amphibologie narrative – est au service d'une écriture de l'expérience subjective. La fiction se coule dans une forme piège pluridimensionnelle modelée sur le flux de la conscience et la volatilité de la pensée. Le récit brasse les images, les impressions fugitives, les configurations imaginaires, composant avec une matière textuelle sensible, émotionnellement dense. Déployant son plan de multiplicité, l'écriture cadiotienne de l'hétérogène intègre les fragments d’énoncés, les concepts, les données factuelles, les perceptions, les phénomènes psychiques, la mémoire individuelle dans un système textuel et expérientiel ouvert. / Le concept d'hétérogène est souvent employé pour définir une littérature contemporaine qui transgresse les catégories génériques traditionnelles, multiplie les références littéraires, pratique les changements de registre, les ruptures narratives ou formelles, qui mêle fiction et réalité. Chez Olivier Cadiot, ce trait de non-genre – polygénéricité et amphibologie narrative – est au service d'une écriture de l'expérience subjective. La fiction se coule dans une forme piège pluridimensionnelle modelée sur le flux de la conscience et la volatilité de la pensée. Le récit brasse les images, les impressions fugitives, les configurations imaginaires, composant avec une matière textuelle sensible, émotionnellement dense. Déployant son plan de multiplicité, l'écriture cadiotienne de l'hétérogène intègre les fragments d’énoncés, les concepts, les données factuelles, les perceptions, les phénomènes psychiques, la mémoire individuelle dans un système textuel et expérientiel ouvert.
7

Architecture à base de situations pour le traitement des quiproquos dans l'exécution adaptative d'applications interactives / Situation-based architecture for misunderstanding management in the adaptive execution of interactive applications

Pham, Phuong Thao 04 July 2013 (has links)
Nos travaux s’inscrivent dans le cadre de la définition d’architectures pour la conception des applications informatiques se basant sur l’interactivité avec l’utilisateur. Nous nous plaçons dans un contexte de système médiateur, dans lequel les interactions sont traitées par le système afin de maitriser au mieux l’exécution de l’application interactive. Un point-clé de notre approche est l’hypothèse que le concepteur conçoit son application interactive en fonction d’un présupposé qu’il a sur l’utilisateur (compétence, comportement...). Afin de maintenir la cohérence de l’exécution vis-à-vis du comportement de l’utilisateur pour l’activité en cours, le mécanisme d’adaptation doit alors prendre en compte la logique perçue et interprétée de l’utilisateur. Le principe d’exécution adaptative permet donc à un système interactif d’ajuster sa logique d’exécution en fonction de l’état, des comportements, des réactions et des capacités de l’utilisateur. Ainsi, le point de départ de l’exécution adaptative est la définition des propriétés caractérisant l’état de l’utilisateur et/ou de son environnement, et l’observation ou la capture de cet état, qui permettra par la suite de prendre une décision sur la poursuite du déroulement du scénario. Cependant, cette décision d’adaptation peut être influencée ou entravée par la distance entre l’état observé et l’état réel de l’utilisateur, ainsi que par la distance entre l’état observé et l’état prédit (espéré) par le système. Les principaux obstacles à l’exécution adaptative dans un système interactif sont de 3 types : les ambiguïtés, les incohérences et les quiproquos. Ils peuvent survenir à chaque fois qu’un ensemble d’acteurs du système considéré interagissent, partagent des connaissances globales et gèrent leurs connaissances locales. Un quiproquo se produit lorsque deux acteurs ont des connaissances incohérentes dans leurs visions locales et les utilisent pendant leurs interactions ; cela peut entraîner une déviation de ces interactions. L’ambiguïté causant possiblement des mauvaises perceptions est une des origines de quiproquo. Les ambiguïtés et les quiproquos sont des entraves pouvant entrainer des conséquences graves pour le système, tel que la déviance du scénario, la propagation des quiproquos, l’interruption des interactions, la perte de motivation des utilisateurs... Ils diminuent à la fois la qualité de l’adaptation et la pertinence de l’interaction. La question principale à laquelle veulent répondre nos travaux est : comment peut-on gérer les quiproquos entre les acteurs du système lors de l’exécution, afin d’améliorer l’adaptativité dans les applications interactives ? Le principe de notre solution est de proposer un gabarit de conception et d’organisation des interactions ainsi qu’un gabarit de mécanisme de gestion de cohérence, que les concepteurs d’une application interactive pourront reprendre comme support pour développer leurs propres algorithmes de détection ou de correction. Ce modèle d’architecture doit être générique et réutilisable, les mécanismes doivent être transparents et préserver les propriétés importantes des systèmes interactifs. Pour atteindre cet objectif, notre recherche s’est divisée en trois points : proposer un cadre méthodologique à base de la notion de « situation » pour la conception des applications interactives, pour confiner les interactions et suivre les parcours d’actions de chaque acteur, afin de contrôler l’utilisation des ressources et assurer la cohérence des visions locales ; proposer une architecture robuste à base d’agents avec la surcharge des composants spécifiques en tant qu’infrastructure des systèmes interactifs adaptatifs ; enfin, transférer des techniques du domaine de la sûreté de fonctionnement et de la tolérance aux fautes, vers le domaine de l’interactivité et l’adaptativité pour traiter les quiproquos. / Our works focus on defining an architectural model for interactivity-based computer applications. The research context is placed in the mediator systems where the interactions are treated by the system itself, and in the scenarized applications where its execution is considered as a scenario. This aims to manage at best the interactive application execution. The observation and adaptation are key points of our approach where the designer develops his interactive application according to the presuppositions about users (behaviour, skills...). To maintain an execution consistence towards user’s behaviour in current activities, the adaptation mechanism has to take into account the perceived and interpreted user’s logic. That allows the system to adjust its execution logic to user’s state, behaviour, reactions and capacities. Hence, the starting point of adaptive execution is to define a set of proprieties characterising user’s state and his environment of which the observation permits thereafter to make decisions about the future scenario continuity. However, this decision can be influenced or hampered by the difference distance between the observed state and the real state of user, also the distance between the observed state and the expected one by the system. The principal obstacles against the adaptation and interactions are : the ambiguity, the inconsistency, and the misunderstanding. They can occur when the participant actors interact, share global data, and manage the local knowledge contained in their local visions at the same time. A misunderstanding in interaction arises during actors’ interactions using the inconsistent data in their local visions that can impact badly on interaction. The ambiguity causing possibly the wrong perceptions is one of the principal misunderstanding origines. Theses obstacles lead to serious consequences for the system and application such as scenario deviation, misunderstanding propagation, interaction interruption, user’s motivation lost...They decrease the adaptation quality and interaction pertinence. Hence, the principal question of this thesis is : how can we handle the misunderstanding in interactions between the actors during system execution in order to improve adaptability in the interactive applications ? Our solution principle is to propose a model for interaction designing and organizing, together with a model for consistency handling mechanisms that application designers can employ as a necessary support to install his own detection or correction algorithms. These models have to be generic, reusable to be applied in different types of application. The consistency managements have to be transparent to users, and preserve important properties of interactive systems. To attain this objective, our works follow three major points : propose a situation-based methodological model for interactive application designing to confine a sequence of interactions into a situation with the constraints of context and resource utilisation. This structuration into situations propose a robust system architecture with additional specific components that ensure misunderstanding in interaction detection and management. Integrate the adaptive treatment mechanisms to the dynamic system’s execution through the proposed situation-based architectural model. They are inspired and adapted from fault-tolerance techniques in dependability domain.
8

Le cadre juridique des investissements internationaux en République démocratique du Congo / The legal framework for international investment in the Democratic Republic of the Congo

Iririra Nganga, Dan 29 June 2019 (has links)
L’investissement étranger est considéré aujourd’hui comme un facteur clé voire une valeur ajoutée à même de faciliter le développement de l’État d’accueil. Ainsi, l'État congolais mise sur l’amélioration de son arsenal juridique interne dont l’objectif consiste à attirer de nombreux investisseurs et investissements étrangers sur son territoire. Pour ce faire, des réformes tendant à l’amélioration de principaux textes juridiques applicables directement ou indirectement en matière d’admission et de sécurisation des investissements étrangers afin de se conformer aux standards internationaux deviennent une obsession pour cet État, dont la finalité demeure : la valorisation de ses ressources naturelles notamment le cobalt, le germanium et la colombo-tantalite etc. très souvent inexploitées et utile à même de servir à la production des batteries pour les voitures électriques. Il serait donc nécessaire désormais que le contrôle de l’État souverain sur ses ressources naturelles considérées comme des minerais stratégiques soit davantage renforcé et que le contentieux en matière d’investissement soit confié à des entités qui prennent en compte l’intérêt général au détriment des arbitrages sous l’égide des arbitres privés, défendant les intérêts privés. Ainsi, la création d’un Centre international africain de règlement des différends pourrait être profitable notamment en permettant aux experts africains - tant arbitres qu’avocats - d’être plus présents dans le cadre des procédures impliquant leurs États d’origine / Foreign investment is now considered a key factor or even an added value that can facilitate the development of the host country. Thus, the Congolese State is focusing on improving its domestic legal arsenal, the objective of which is to attract many foreign investors and investments to its territory. To this end, reforms aimed at improving the main legal texts directly or indirectly applicable to the admission and security of foreign investments in order to comply with international standards are becoming an obsession for this State, the purpose of which remains: the development of its natural resources, in particular cobalt, germanium and colombo-tantalite etc., which are very often unexploited and useful for the production of batteries for electric cars. It would therefore now be necessary for the sovereign State to strengthen its control over its natural resources considered as strategic minerals and for investment litigation to be entrusted to entities that take into account the general interest to the detriment of arbitrations under the aegis of private arbitrators, defending private interests. Thus, the creation of an African International Dispute Resolution Centre could be beneficial, in particular by allowing African experts - both arbitrators and lawyers - to be more present in proceedings involving their States of origin
9

ScaleSem : model checking et web sémantique

Gueffaz, Mahdi 11 December 2012 (has links) (PDF)
Le développement croissant des réseaux et en particulier l'Internet a considérablement développé l'écart entre les systèmes d'information hétérogènes. En faisant une analyse sur les études de l'interopérabilité des systèmes d'information hétérogènes, nous découvrons que tous les travaux dans ce domaine tendent à la résolution des problèmes de l'hétérogénéité sémantique. Le W3C (World Wide Web Consortium) propose des normes pour représenter la sémantique par l'ontologie. L'ontologie est en train de devenir un support incontournable pour l'interopérabilité des systèmes d'information et en particulier dans la sémantique. La structure de l'ontologie est une combinaison de concepts, propriétés et relations. Cette combinaison est aussi appelée un graphe sémantique. Plusieurs langages ont été développés dans le cadre du Web sémantique et la plupart de ces langages utilisent la syntaxe XML (eXtensible Meta Language). Les langages OWL (Ontology Web Language) et RDF (Resource Description Framework) sont les langages les plus importants du web sémantique, ils sont basés sur XML.Le RDF est la première norme du W3C pour l'enrichissement des ressources sur le Web avec des descriptions détaillées et il augmente la facilité de traitement automatique des ressources Web. Les descriptions peuvent être des caractéristiques des ressources, telles que l'auteur ou le contenu d'un site web. Ces descriptions sont des métadonnées. Enrichir le Web avec des métadonnées permet le développement de ce qu'on appelle le Web Sémantique. Le RDF est aussi utilisé pour représenter les graphes sémantiques correspondant à une modélisation des connaissances spécifiques. Les fichiers RDF sont généralement stockés dans une base de données relationnelle et manipulés en utilisant le langage SQL ou les langages dérivés comme SPARQL. Malheureusement, cette solution, bien adaptée pour les petits graphes RDF n'est pas bien adaptée pour les grands graphes RDF. Ces graphes évoluent rapidement et leur adaptation au changement peut faire apparaître des incohérences. Conduire l'application des changements tout en maintenant la cohérence des graphes sémantiques est une tâche cruciale et coûteuse en termes de temps et de complexité. Un processus automatisé est donc essentiel. Pour ces graphes RDF de grande taille, nous suggérons une nouvelle façon en utilisant la vérification formelle " Le Model checking ".Le Model checking est une technique de vérification qui explore tous les états possibles du système. De cette manière, on peut montrer qu'un modèle d'un système donné satisfait une propriété donnée. Cette thèse apporte une nouvelle méthode de vérification et d'interrogation de graphes sémantiques. Nous proposons une approche nommé ScaleSem qui consiste à transformer les graphes sémantiques en graphes compréhensibles par le model checker (l'outil de vérification de la méthode Model checking). Il est nécessaire d'avoir des outils logiciels permettant de réaliser la traduction d'un graphe décrit dans un formalisme vers le même graphe (ou une adaptation) décrit dans un autre formalisme
10

ScaleSem : model checking et web sémantique / ScaleSem : model checking and semantic web

Gueffaz, Mahdi 11 December 2012 (has links)
Le développement croissant des réseaux et en particulier l'Internet a considérablement développé l'écart entre les systèmes d'information hétérogènes. En faisant une analyse sur les études de l'interopérabilité des systèmes d'information hétérogènes, nous découvrons que tous les travaux dans ce domaine tendent à la résolution des problèmes de l'hétérogénéité sémantique. Le W3C (World Wide Web Consortium) propose des normes pour représenter la sémantique par l'ontologie. L'ontologie est en train de devenir un support incontournable pour l'interopérabilité des systèmes d'information et en particulier dans la sémantique. La structure de l'ontologie est une combinaison de concepts, propriétés et relations. Cette combinaison est aussi appelée un graphe sémantique. Plusieurs langages ont été développés dans le cadre du Web sémantique et la plupart de ces langages utilisent la syntaxe XML (eXtensible Meta Language). Les langages OWL (Ontology Web Language) et RDF (Resource Description Framework) sont les langages les plus importants du web sémantique, ils sont basés sur XML.Le RDF est la première norme du W3C pour l'enrichissement des ressources sur le Web avec des descriptions détaillées et il augmente la facilité de traitement automatique des ressources Web. Les descriptions peuvent être des caractéristiques des ressources, telles que l'auteur ou le contenu d'un site web. Ces descriptions sont des métadonnées. Enrichir le Web avec des métadonnées permet le développement de ce qu'on appelle le Web Sémantique. Le RDF est aussi utilisé pour représenter les graphes sémantiques correspondant à une modélisation des connaissances spécifiques. Les fichiers RDF sont généralement stockés dans une base de données relationnelle et manipulés en utilisant le langage SQL ou les langages dérivés comme SPARQL. Malheureusement, cette solution, bien adaptée pour les petits graphes RDF n'est pas bien adaptée pour les grands graphes RDF. Ces graphes évoluent rapidement et leur adaptation au changement peut faire apparaître des incohérences. Conduire l’application des changements tout en maintenant la cohérence des graphes sémantiques est une tâche cruciale et coûteuse en termes de temps et de complexité. Un processus automatisé est donc essentiel. Pour ces graphes RDF de grande taille, nous suggérons une nouvelle façon en utilisant la vérification formelle « Le Model checking ».Le Model checking est une technique de vérification qui explore tous les états possibles du système. De cette manière, on peut montrer qu’un modèle d’un système donné satisfait une propriété donnée. Cette thèse apporte une nouvelle méthode de vérification et d’interrogation de graphes sémantiques. Nous proposons une approche nommé ScaleSem qui consiste à transformer les graphes sémantiques en graphes compréhensibles par le model checker (l’outil de vérification de la méthode Model checking). Il est nécessaire d’avoir des outils logiciels permettant de réaliser la traduction d’un graphe décrit dans un formalisme vers le même graphe (ou une adaptation) décrit dans un autre formalisme / The increasing development of networks and especially the Internet has greatly expanded the gap between heterogeneous information systems. In a review of studies of interoperability of heterogeneous information systems, we find that all the work in this area tends to be in solving the problems of semantic heterogeneity. The W3C (World Wide Web Consortium) standards proposed to represent the semantic ontology. Ontology is becoming an indispensable support for interoperability of information systems, and in particular the semantics. The structure of the ontology is a combination of concepts, properties and relations. This combination is also called a semantic graph. Several languages have been developed in the context of the Semantic Web. Most of these languages use syntax XML (eXtensible Meta Language). The OWL (Ontology Web Language) and RDF (Resource Description Framework) are the most important languages of the Semantic Web, and are based on XML.RDF is the first W3C standard for enriching resources on the Web with detailed descriptions, and increases the facility of automatic processing of Web resources. Descriptions may be characteristics of resources, such as the author or the content of a website. These descriptions are metadata. Enriching the Web with metadata allows the development of the so-called Semantic Web. RDF is used to represent semantic graphs corresponding to a specific knowledge modeling. RDF files are typically stored in a relational database and manipulated using SQL, or derived languages such as SPARQL. This solution is well suited for small RDF graphs, but is unfortunately not well suited for large RDF graphs. These graphs are rapidly evolving, and adapting them to change may reveal inconsistencies. Driving the implementation of changes while maintaining the consistency of a semantic graph is a crucial task, and costly in terms of time and complexity. An automated process is essential. For these large RDF graphs, we propose a new way using formal verification entitled "Model Checking".Model Checking is a verification technique that explores all possible states of the system. In this way, we can show that a model of a given system satisfies a given property. This thesis provides a new method for checking and querying semantic graphs. We propose an approach called ScaleSem which transforms semantic graphs into graphs understood by the Model Checker (The verification Tool of the Model Checking method). It is necessary to have software tools to perform the translation of a graph described in a certain formalism into the same graph (or adaptation) described in another formalism

Page generated in 0.2861 seconds