• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 284
  • 79
  • 34
  • 1
  • 1
  • Tagged with
  • 424
  • 170
  • 90
  • 88
  • 69
  • 64
  • 60
  • 58
  • 46
  • 45
  • 42
  • 41
  • 39
  • 37
  • 37
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Evidence in Epistemic Logic : A Topological Perspective / Preuves en logique épistémique : une perspective topologique

Özgün, Aybüke 04 October 2017 (has links)
Cette thèse de doctorat est une investigation des logiques de la connaissance, de la croyance et de la dynamique d'information, en utilisant des outils de topologie et logique épistémique (dynamique). La partie I concerne les interprétations fondées sur des preuves de croyances justifiées et connaissance. Commencer par une interprétation topologique des connaissances désormais standard en tant qu'opérateur intérieur, nous développons, de manière progressive, un cadre qui (1) peut parler de preuves non seulement sémantiquement, mais aussi le niveau syntaxique, rendant ainsi la notion de preuve plus explicite; (2) prend la preuve comme la notion la plus primitive, et définit la croyance et la connaissance purement basé sur elle. Dans la partie II de cette dissertation, nous nous concentrons sur notions de connaissances ainsi que divers types de dynamique de l'information comprenant apprendre de nouvelles preuves. Plus précisément, cette partie est centrée autour des notions de certaines connaissances et savoir-faire en tant que «connaissances potentielles», ainsi que les liens entre la notion abstraite d'effort épistémique englobant toute méthode l'acquisition de preuves et les attitudes dynamiques bien étudiées telles que les annonces publiques arbitraires. Pour résumer, cette thèse réinterprète d'une part certaines logiques épistémiques et doxastiques existantes et leurs extensions dynamiques d'un point de vue topologique, fournissant une interprétation fondée sur des preuves. D'un autre côté, elle utilise des outils topologiques pour affiner et étendre les analyses antérieures, conduisant à de nouvelles logiques de la dynamique des preuves et de l'information / This dissertation brings together epistemic logic and topology. It studies formal representations of the notion of evidence and its link to justification, justified belief, knowledge, and evidence-based information dynamics, by using tools from topology and (dynamic) epistemic logic. Part I is concerned with evidence-based interpretations of justified belief and knowledge. Starting with a by-now-standard topological interpretation of knowledge as the interior operator, we develop, in a gradual manner, a topological framework that (1) can talk about evidence not only semantically, but also at the syntactic level, thereby making the notion of evidence more explicit; (2) takes evidence as the most primitive notion, and defines belief and knowledge purely based on it, thereby linking these two crucial notions of epistemology at a deeper, more basic level. In Part II of this dissertation, we focus on notions of knowledge as well as various types of information dynamics comprising learning new evidence. More precisely, this part is centered around the notions of absolutely certain knowledge and know ability as "potential knowledge", as well as the connections between the abstract notion of epistemic effort encompassing any method of evidence acquisition and the well-studied dynamic attitudes such as public and arbitrary public announcements. To sum up, this dissertation on one hand re-interprets some existing epistemic and doxastic logics and their dynamic extensions from a topological perspective, providing an evidence-based interpretation. On the other hand, it uses topological tools to refine and extend earlier analysis, leading to novel logics of evidence and information dynamics
202

A Framework for Managing Process Variability Through Process Mining and Semantic Reasoning : An Application in Healthcare / Un cadre de configuration des variantes de processus à travers la fouille de processus et le raisonnement sémantique : une application dans le cadre de la santé

Detro, Silvana Pereira 15 December 2017 (has links)
Les organisations doivent relever le défi d'adapter leurs processus aux changements qui peuvent survenir dans l'environnement dynamique dans lequel elles opèrent. Les adaptations dans le processus aboutissent à plusieurs variantes de processus, c'est-à-dire dans différentes versions du modèle de processus. Les variantes de processus peuvent différer en termes d'activités, de ressources, de flux de contrôle et de données. Ainsi, le concept d'un modèle de processus personnalisable est apparu et il vise à adapter le modèle de processus en fonction des exigences d'un contexte spécifique. Un modèle de processus personnalisable peut représenter toutes les variantes de processus dans un modèle unique dans lequel les parties communes ne sont représentées qu’une seule fois et les spécificités de chaque variante sont préservées. Alors, grâce à des transformations dans le modèle de processus générique, une variante de processus peut en être dérivée. En tant qu'avantages, cette approche permet d'éliminer les redondances, favorise la réutilisation, entre autres. Cependant, la personnalisation des modèles de processus n'est pas une tâche triviale. La personnalisation doit assurer que la variante obtenue est correcte du point de vue structurel et comportemental, c'est-à-dire la variante obtenue ne doit pas présenter d'activités déconnectées, d’interblocages actifs ou d'interblocages, entre autres. En outre, la variante de processus doit satisfaire à toutes les exigences du contexte de l'application, aux réglementations internes et externes, entre autres. De plus, il est nécessaire de fournir à l'utilisateur des directives et des recommandations lors de la personnalisation du processus. Les directives permettent la personnalisation correcte des variantes de processus, en évitant les problèmes de comportement. Les recommandations concernant le contexte de l'entreprise rendent possible l'amélioration du processus et aussi la personnalisation des variantes en fonction des besoins spécifiques. Dans ce contexte, cette recherche propose un cadre pour la personnalisation des variantes de processus en fonction des besoins de l'utilisateur. La personnalisation est réalisée grâce à l'utilisation d'ontologies pour la sélection des variantes. Le cadre est composé de trois étapes. La première correspond à l'identification des variantes à partir d'un journal d'événements au moyen de techniques d'exploration de processus, qui permettent de découvrir des points de variation, c'est-à-dire les parties du processus sujettes à variation, les alternatives disponibles pour chaque point de variation et les règles de sélection des alternatives disponibles. L'identification des variantes de processus et de leurs caractéristiques à partir d'un journal des événements permet de personnaliser un modèle de processus en fonction du contexte de l'application. À partir de ces aspects, la deuxième étape peut être développée. Cette étape concerne le développement d'un questionnaire, dans lequel chaque question est liée à un point de variation et chaque réponse correspond à la sélection d'une variante. Dans la troisième étape, deux ontologies sont proposées. La première formalise les connaissances liées aux réglementations externes et internes et aux connaissances des spécialistes. La deuxième ontologie se réfère aux points de variation, aux alternatives existantes pour chaque point de variation et aux règles liées à la sélection de chaque alternative. Ensuite, ces ontologies sont intégrées dans une nouvelle ontologie, qui contient les connaissances nécessaires pour personnaliser la variante de processus. Ainsi, à travers le questionnaire et le raisonnement sémantique, la variante est sélectionnée et les recommandations concernant le processus d’affaires sont fournies en fonction de la sélection de l'utilisateur lors de la personnalisation du processus. Le cadre proposé est évalué au moyen d'une étude de cas liée au traitement des patients chez qui [...] / The efficiency of organizations relies on its ability to adapt their business processes according to changes that may occur in the dynamic environment in which they operate. These adaptations result in new versions of the process model, known as process variants. Thus, several process variants can exist, which aim to represent all the related contexts that may differ in activities, resources, control flow, and data. Thus, has emerged the concept of customizable process model. It aims to adapt the process model according to changes in the business context. A process model can be customized by representing the process family in one single model enabling to derive a process variant through transformations in this single model. As benefits, this approach enables to avoid redundancies, promotes the model reuse and comparison, among others. However, the process variant customization is not a trivial-task. It must be ensured that the variant is correct in a structural and behavioural way (e.g. avoiding disconnected activities or deadlocks), and respecting all the requirements of the application context. Besides, the resulting process variant must respect all requirements related to the application context, internal and external regulations, among others. In addition, recommendations and guidance should be provided during the process customization. Guidance help the user to customize correct process variants, i.e., without behavioural problems. Recommendations about the process context help the user in customizing process variants according specific requirements. Recommendations about the business context refers to providing information about the best practices that can improve the quality of the process. In this context, this research aims to propose a framework for customizing process variants according to the user’s requirements. The customization is achieved by reasoning on ontologies based on the rules for selecting a process variant and in the internal/external regulations and expert knowledge. The framework is composed by three steps. The first step proposes to identify the process variants from an event log through process mining techniques, which enable to discover the variation points, i.e., the parts of the model that are subject to variation, the alternatives for the variation points and the rules to select the alternatives. By identifying the process variants and their characteristics from an event log, the process model can be correctly individualized by meeting the requirements of the context of application. Based on these aspects, the second step can be developed. This step refers to the development of the questionnaire-model approach. In the questionnaire approach each variation point is related to a question, and the alternatives for each question corresponds to the selection of the process variants. The third step corresponds to apply two ontologies for process model customization. One ontology formalizes the knowledge related with the internal and/or external regulations and expert knowledge. The other refers to the variation points, the alternatives for them and the rules for choosing each path. The ontologies then are merged into one new ontology, which contain the necessary knowledge for customize the process variants. Thus, by answering the questionnaire and by reasoning on the ontology, the alternatives related with the business process and the recommendations about the business context are provided for the user. The framework is evaluated through a case study related to the treatment of patients diagnosed with acute ischemic stroke. As result, the proposed framework provides a support decision-making during the process model customization
203

Querying existential rule knowledge bases : decidability and complexity / Interrogation de bases de connaissances avec règles existentielles : décidabilité et complexité

Rocher, Swan 25 November 2016 (has links)
Dans cette thèse, nous nous intéressons au problème d'interrogation de bases de connaissances composées de données et d'une ontologie, qui représente des connaissances générales sur le domaine d'application. Parmi les différents formalismes permettant de représenter les connaissances ontologiques, nous considérons ici un fragment de la logique du premier ordre appelé règles existentielles (aussi connues sous le nom de ``tuple generating dependencies'' et Datalog+/-). Le problème fondamental de conséquence logique au cœur de cette thèse demande si une requête conjonctive est conséquence d'une base de connaissances. Les règles existentielles étant très expressives, ce problème est indécidable. Toutefois, différentes restrictions sur les ensembles de règles ont été proposées afin d'obtenir sa décidabilité.La contribution de cette thèse est double. Premièrement, nous proposons un outil qui nous permet d'unifier puis d'étendre la plupart des classes de règles connues reposant sur des notions d'acyclicité assurant la finitude du chaînage avant. Deuxièmement, nous étudions la compatibilité des classes décidables de règles existentielles connues avec un type de connaissance souvent nécessaire dans les ontologies: la transitivité de relations binaires. Nous aidons à clarifier le paysage des résultats positifs et négatifs liés à cette question et fournissons une approche permettant de combiner la transitivité avec les règles existentielles linéaires. / In this thesis we investigate the issue of querying knowledge bases composed of data and general background knowledge, called an ontology. Ontological knowledge can be represented under different formalisms and we consider here a fragment of first-order logic called existential rules (also known as tuple-generating dependencies and Datalog+/-).The fundamental entailment problem at the core of this thesis asks if a conjunctive query is entailed by an existential rule knowledge base. General existential rules are highly expressive, however at the cost of undecidability. Various restrictions on sets of rules have been proposed to regain the decidability of the entailment problem.Our specific contribution is two-fold. First, we propose a new tool that allows to unify and extend most of the known existential rule classes that rely on acyclicity conditions to tame infinite forward chaining, without increasing the complexity of the acyclicity recognition. Second, we study the compatibility of known decidable rule classes with a frequently required modeling construct, namely transitivity of binary relations. We help clarifying the picture of negative and positive results on this question, and provide a technique to safely combine transitivity with one of the simplest, yet useful, decidable rule classes, namely linear rules.
204

Conjunctive query answering under existential rules : decidability, complexity and algorithms / Interrogation de bases de connaissances avec des règles expressives : décidabilité, complexité et algorithmes

Thomazo, Michaël 24 October 2013 (has links)
L'objectif du problème appelé "Ontology-based data access" (OBDA) est d'améliorer la réponse à des requêtes en prenant en compte des connaissances d'ordre général durant l'évaluation des requêtes. Ces connaissances générales sont représentées à l'aide d'une ontologie, qui est exprimée dans cette thèse grâce à des formules logiques du premier ordre, appelées règles existentielles, et aussi connues sous le nom de "tuple-generating dependencies" et Datalog+/-. L'expressivité des formules utilisées est telle que l'évaluation de requêtes devient un problème indécidable, et cela a conduit la communauté à définir de nombreux cas décidables, c'est-à-dire des restrictions sur les ensembles de règles existentielles considérés. La contribution de cette thèse est double : tout d'abord, nous proposons une vue unifiée sur une grande fraction des cas décidables connus, et fournissons par là même une analyse de complexité et un algorithme optimal dans le pire des cas. Nous considérons également l'approche couramment utilisée de réécriture de requêtes, et proposons un algorithme générique qui permet de surmonter certaines causes évidentes d'explosion combinatoire qui rendent les approches classiques pratiquement inapplicables. / Ontology-based data access (OBDA) aims at enriching query answering by taking general background knowledge into account when evaluating queries. This background knowledge is represented by means of an ontology, that is expressed in this thesis by a very expressive class of first-order formulas, called existential rules (sometimes also tuple-generating dependencies and Datalog+/-). The high expressivity of the used formalism results in the undecidability of query answering, and numerous decidable classes (that is, restrictions on the sets of existential rules) have been proposed in the literature. The contribution of this thesis is two-fold: first, we propose a unified view of a large part of these classes, together with a complexity analysis and a worst-case optimal algorithm for the introduced generic class. Second, we consider the popular approach of query rewriting, and propose a generic algorithm that overcomes trivial causes of combinatorial explosion that make classical approaches inapplicable.
205

Managing the empirical hardness of the ontology reasoning using the predictive modelling / Modélisation prédictive et apprentissage automatique pour une meilleure gestion de la complexité empirique du raisonnement autour des ontologies

Alaya Mili, Nourhene 13 October 2016 (has links)
Multiples techniques d'optimisation ont été implémentées afin de surmonter le compromis entre la complexité des algorithmes du raisonnement et l'expressivité du langage de formulation des ontologies. Cependant les compagnes d'évaluation des raisonneurs continuent de confirmer l'aspect imprévisible et aléatoire des performances de ces logiciels à l'égard des ontologies issues du monde réel. Partant de ces observations, l'objectif principal de cette thèse est d'assurer une meilleure compréhension du comportement empirique des raisonneurs en fouillant davantage le contenu des ontologies. Nous avons déployé des techniques d'apprentissage supervisé afin d'anticiper des comportements futurs des raisonneurs. Nos propositions sont établies sous forme d'un système d'assistance aux utilisateurs d'ontologies, appelé "ADSOR". Quatre composantes principales ont été proposées. La première est un profileur d'ontologies. La deuxième est un module d'apprentissage capable d'établir des modèles prédictifs de la robustesse des raisonneurs et de la difficulté empirique des ontologies. La troisième composante est un module d'ordonnancement par apprentissage, pour la sélection du raisonneur le plus robuste étant donnée une ontologie. Nous avons proposé deux approches d'ordonnancement; la première fondée sur la prédiction mono-label et la seconde sur la prédiction multi-label. La dernière composante offre la possibilité d'extraire les parties potentiellement les plus complexes d'une ontologie. L'identification de ces parties est guidée par notre modèle de prédiction du niveau de difficulté d'une ontologie. Chacune de nos approches a été validée grâce à une large palette d'expérimentations. / Highly optimized reasoning algorithms have been developed to allow inference tasks on expressive ontology languages such as OWL (DL). Nevertheless, reasoning remains a challenge in practice. In overall, a reasoner could be optimized for some, but not all ontologies. Given these observations, the main purpose of this thesis is to investigate means to cope with the reasoner performances variability phenomena. We opted for the supervised learning as the kernel theory to guide the design of our solution. Our main claim is that the output quality of a reasoner is closely depending on the quality of the ontology. Accordingly, we first introduced a novel collection of features which characterise the design quality of an OWL ontology. Afterwards, we modelled a generic learning framework to help predicting the overall empirical hardness of an ontology; and to anticipate a reasoner robustness under some online usage constraints. Later on, we discussed the issue of reasoner automatic selection for ontology based applications. We introduced a novel reasoner ranking framework. Correctness and efficiency are our main ranking criteria. We proposed two distinct methods: i) ranking based on single label prediction, and ii) a multi-label ranking method. Finally, we suggested to extract the ontology sub-parts that are the most computationally demanding ones. Our method relies on the atomic decomposition and the locality modules extraction techniques and employs our predictive model of the ontology hardness. Excessive experimentations were carried out to prove the worthiness of our approaches. All of our proposals were gathered in a user assistance system called "ADSOR".
206

Apprendre à lire le patient en formation initiale de masso-kinésithérapie : approches cliniques / Learn to read the patient in initial formation of masso-kinesitherapy : clinical approaches

Guyet, Delphine 09 May 2019 (has links)
La récente réingénierie des études de soignants paramédicaux en général et celle de MK en particulier (en 2015), introduit une nouvelle dimension dans les cycles de formation : le raisonnement clinique. Défini par Higgs (2008) comme « processus de pensée et de prise de décision qui permet au clinicien de prendre les actions les plus appropriées dans un contexte spécifique de résolutions de problèmes de santé », celui-ci vise à développer et évaluer chez les apprenants leur capacité à lier des savoirs concernant la situation de la personne malade (bio-psycho et social) et des savoirs professionnels, techniques, cognitifs et relationnels. En s’intéressant au processus d’institutionnalisation du raisonnement clinique, cette thèse interroge les processus d’enseignement (notamment des tuteurs de stage) et d’apprentissage de cette pratique par les futurs MK, notamment à partir des différentes séquences proposées. Le raisonnement clinique fait appel à une pluralité de schèmes au sens de Pastré (2011) mobilisés par les apprenants pour analyser un problème de santé et construire un projet de soin pour la personne malade. La compréhension de la mobilisation de tous ces schèmes, le modus operandi des étudiants en situation d’apprentissage du raisonnement clinique occupe une place centrale dans cette thèse inscrite clairement dans une didactique professionnelle. Réalisée à partir d’observations de terrain, de séances d’apprentissage filmées, d’entretiens et d’hétéroconfrontations (N=20) auprès de patients, tuteurs libéraux et étudiants stagiaires, cette recherche a permis de catégoriser par une méthode qualitative d’analyse de contenu, à l’aide du logiciel N’Vivo, les 5 portraits des triades patient/tuteur/étudiant en s’appuyant, entre autres, sur les ressources mobilisées (Piot, 2009) et les configurations de tutorat (Kunegel, 2011). Nous tentons ensuite de repérer des grandes lignes de force ou de divergence entre les différents portraits. Le raisonnement en kinésithérapie serait un outil favorable à l’incorporation de savoirs théoriques abstraits mobilisés en situation pratique avec les patients, qui sont adaptés et incorporées par chacun. Il est un outil de bricoleur, un fil rouge qui permet l’adaptation au patient et dont les tuteurs cherchent à s’émanciper pour leur pratique de « la vraie vie », dans un style qui leur est propre, au sein du genre kinésithérapique. La première séance serait un moment d’étonnement voire d’éblouissement pour l’étudiant. Le patient est un tiers totalement intégré dans le processus de la séance, qui par sa fonction de médiation, aide à l’intégration des savoirs et à l’apprentissage du raisonnement clinique. Nous proposons une modélisation de celui-ci en co médiation. / The recent re-engineering of paramedic studies in general and of MK in particular (En 2015) introduces a new dimension in the training cycles: the clinical Rai-ringing. Defined by Higgs (2008) as "a process of thought and decision-making that allows the clinician to take the most appropriate actions in a specific context of health problem solving", the beneficial aims to develop and evaluate among AP-stakeholders their ability to link knowledge about the situation of the sick person (bio-psycho and social) and professional, technical, cognitive and relational knowledge. By focusing on the process of institutionalizing clinical reasoning, this inter-Roge thesis processes teaching (especially tutors of internship) and learning this practice by the future MK, especially from the different proposed sequences. Clinical reasoning uses a plurality of patterns in the sense of Pastré (2011) Mobili-Con by learners to analyze a health problem and build a care project for the sick person. The understanding of the mobilization of all these patterns, the modus-Randi of students in learning situation of clinical reasoning occupies a central place in this thesis clearly enshrined in a professional didactics. Based on field observations, filmed learning sessions, interviews and hétéroconfrontations (N = 20) with patients, liberal tutors and student interns, this research has allowed to categorize by a qualitative method Content analysis, using the No Vivo software, the 5 portraits of the patient/tutor/student triad based, among other things, on the resources mobilized (2009) and the tutoring configurations (Kunegel, 2011). We can then try to identify the main lines of force or divergence between the different portraits. The reasoning in physiotherapy would be a favourable tool for incorporating abstract theoretical knowledge mobilized in practical situations with patients, which are adapted and incorporated by each. It is a handyman's tool, a red thread that allows adaptation to the patient and whose tutor seeks to emancipate himself or herselffor the practice of "real life", in a style of his own, within the genus Kinésithérapique. The first session would be a moment of astonishment or even amazement for the student. The patient is a third party totally integrated into the process of the session, which through its function of mediation, helps the integration of knowledge and the learning of clinical reasoning. We propose a modeling of it in co- mediation.
207

Connaissances et contrôle exécutif : Implication dans la cognition et facteurs de protection du vieillissement normal / Knowledge and executive control : Involvement in cognition and protective factors for normal aging

Gombart, Samantha 15 December 2015 (has links)
Les nombreuses études ayant porté sur le vieillissement cognitif ont très tôt permis de distinguer deux composantes clés de la cognition : une composante de « connaissances » définie comme l’ensemble des connaissances générales acquises tout au long de la vie, et une composante de « contrôle exécutif», défini comme l’ensemble des processus de contrôle et de régulation de l’action. Ces modèles permettent d’avancer l’idée selon laquelle le recours à ces deux composantes évolue de manière différentielle au cours de la vie. De ce fait, l’objectif de ce travail de thèse était d’examiner l’implication de ces deux composantes dans la cognition à différentes périodes de vie mais également de déterminer si l’une ou l’autre de ces composantes pouvaient jouer un rôle de protection contre le vieillissement cognitif. L’ensemble des résultats de ce travail suggère que la composante de « contrôle » serait impliquée de manière particulièrement importante dans la cognition chez les adultes âgés, et que cette même composante pourrait jouer un rôle de modération du fonctionnement cognitif au cours du vieillissement normal / Several studies of cognitive aging allow to distinguish two key components of the cognition: « knowledge » defined as the general knowledge acquired throughout the life, and the « executive control », defined as the set of operations that control and regulate cognitive performance. These models suggest that the recourse to these two components evolves in a differential way during the life. Therefore, the objective of this work was to examine the implication of these two components in the cognition at different periods of life but also to determine whether one or the other of these components could play a protective role against the cognitive aging. Results suggest mainly that « control » is more involved in the cognition in older adults, and that this component moderates age-related effect on cognitive functioning
208

Interactive and Opportunistic Knowledge Acquisition in Case-Based Reasoning

Cordier, Amélie 13 November 2008 (has links) (PDF)
Jeune discipline à la croisée de l'informatique, de l'intelligence artificielle et des sciences cognitives, l'ingénierie des connaissances vise à modéliser les connaissances d'un domaine pour les opérationnaliser dans un outil informatique. Pour cela, elle propose des outils théoriques, des modèles et des méthodologies empiriques pour instrumenter les systèmes et permettre l'échange de connaissances entre l'utilisateur et l'outil informatique.<br> Le travail développé ici traite de l'ingénierie des connaissances d'une catégorie de systèmes en particulier : les systèmes de raisonnement à partir de cas (RÀPC). Un système de RÀPC assiste un utilisateur dans sa tâche de résolution de problème en lui proposant une adaptation à la situation courante d'une précédente expérience. C'est en particulier au système en interaction "utilisateur - outil de RÀPC" que nous nous intéressons ici.<br> La problématique étudiée peut donc être exprimée ainsi : quelles méthodes et outils développer pour instrumenter efficacement le système apprenant "utilisateur - outil de RàPC" ? Cette problématique soulève un questionnement sur les connaissances du raisonnement et conduit à une analyse au niveau connaissance de tels systèmes. Un autre volet d'analyse porte sur les interactions entre l'utilisateur et l'artefact informatique pendant les phases de résolution de problème. Ces aspects sont étudiés à plusieurs niveaux dans les différentes contributions présentées dans cette thèse.<br> Nos différentes expériences et expérimentations nous ont conduits à proposer, comme première contribution, une formalisation à un niveau général de l'apprentissage interactif de connaissances en RÀPC (FIKA). Cette formalisation repose sur les échecs de raisonnement qui, puisqu'ils permettent de mettre en évidence les lacunes dans les connaissances disponibles, sont utilisés pour guider le processus d'apprentissage. Deux extensions de ce modèle général ont été proposées : IAKA et FRAKAS.<br> IAKA raffine les principes proposés par FIKA pour permettre leur mise en ?uvre immédiate dans une certaine catégorie de systèmes où les connaissances peuvent être représentées selon un modèle donné (cas et connaissances d'adaptation représentées par des opérateurs d'adaptation). Ces principes ont été implantés et expérimentés dans une application développée à des seules fins expérimentales.<br> FRAKAS propose des méthodes et outils similaires pour une autre catégorie de systèmes ou les connaissances du domaines sont utilisées pour guider l'adaptation. Ces principes ont, quant à eux, été implantés dans un prototype inspiré d'une application réelle.<br> IAKA et FRAKAS, les deux extensions de l'approche FIKA, présentent des forces et des limites, une réflexion quant à leur intégration possible à donc été menée. Une première tentative pratique d'intégration a été mise en ?uvre dans une application de RÀPC permettant l'adaptation de recettes de cuisine : le logiciel TAAABLE.
209

Systèmes experts à base de connaissances profondes : application à un poste de travail intelligent pour le comptable

Page, Michel 02 February 1990 (has links) (PDF)
La plupart des systèmes experts actuels reposent sur les connaissances de surface (le savoir-faire) d'un expert du domaine d'application. Plus récemment, une autre approche s'est développée. Elle vise a exploiter les connaissances profondes (théoriques) acquises dans le domaine d'application. La thèse étudie cette dernière approche dans le cadre du projet pic (poste de travail intelligent pour le comptable). Les aspects méthodologiques sont développés dans la première partie. Une nouvelle classe d'applications des systèmes experts est proposée: l'interprétation comparative. Elle a pour but de mettre en évidence et expliquer la cause des différences entre deux états d'un système. Une methode générale permettant d'aborder ce probleme est présentée, ainsi que des techniques la mettant en œuvre sur des modèles qualitatifs et numériques. Les contributions au projet pic sont développées dans la seconde partie. Un générateur de systèmes experts d'interprétation comparative est d'abord présenté. Il a servi a la réalisation de deux systèmes: le premier pour l'analyse de la performance d'une entreprise par la methode des surplus, le second pour le diagnostic financier d'entreprise. Un système expert pour la déduction des écritures comptables utilisant également l'approche profonde est ensuite présenté. A la lumière de ces deux dernières applications déjà abordées par les systèmes experts utilisant des connaissances de surface, les deux approches de conception de systèmes experts sont comparées
210

Planification de trajectoires pour un robot manipulateur

Pasquier, Michel 25 January 1989 (has links) (PDF)
Cette thèse traite du problème fondamental que constitue la planification de trajectoires de robots manipulateurs. Une première partie précise le contexte robotique de notre travail et présente le système général de programmation automatique développe au Lifia. Nous analysons ensuite l'importance de la représentation des connaissances nécessaires aux raisonnements géométriques particuliers a la planification de déplacements. Les méthodes de modélisation et les concepts de représentation que nous avons mis en oeuvre sont ensuite présentes. Une deuxième partie traite de la planification de trajectoires pour une structure articulée. Une methode de planification globale par construction de l'espace des configurations est présentée, ainsi qu'une methode de replanification locale par application de champs de potentiels et, enfin, une methode hybride réalisant la synthèse de ces approches complémentaires, pour lesquelles sont décrits algorithmes, résultats d'expérimentation et futurs développements

Page generated in 0.0557 seconds