• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 15
  • 5
  • 2
  • Tagged with
  • 22
  • 22
  • 11
  • 11
  • 10
  • 8
  • 6
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Construction itérative de bases de connaissances descriptives et classificatoires avec la plate-forme à objets IKBS. Application à la systématique des coraux des Mascareignes

Grosser, David 01 February 2002 (has links) (PDF)
La modélisation du savoir-faire des systématiciens à l'aide des Bases de Connaissances, offre le moyen de mieux comprendre, préserver et transmettre aux générations futures les connaissances sur la biodiversité des espèces. Pour construire une base de connaissances, il est nécessaire de disposer de méthodes de gestion des connaissances, de modèles de représentation et d'outils informatiques adaptés d'une part, à la complexité des concepts manipulés par les systématiciens et d'autre part, à la richesse des descriptions des spécimens représentatifs des espèces. La plate-forme logicielle proposée, appelée IKBS, offre aux systématiciens un environnement pour la construction de bases de connaissances évolutives, ainsi qu'une méthodologie itérative fondée sur l'approche expérimentale de nature inductive des naturalistes. Le paradigme objet utilisé pour sa réalisation favorise l'extensibilité et la réutilisabilité des composants logiciels développés. IKBS associé aux technologies multimédia et hypertextuelles a été utilisé par un groupe d'experts pour la construction d'une "base de connaissances sur les coraux des Mascareignes".
12

Gestion des versions pour la construction incrémentale et partagée de bases de connaissances

Tayar, Nina 21 September 1995 (has links) (PDF)
Dans de nombreux domaines scientifiques ou techniques, la quantité et la complexité croissantes des connaissances manipulées rendent inadéquate l'utilisation de supports classiques tels que le papier. L'informatique peut apporter une réponse en proposant un cadre pour modéliser, gérer et exploiter ces connaissances : on parle alors de bases de connaissances. Pour la plupart des domaines, la connaissance n'est pas statique et immédiatement disponible mais est au contraire en constante évolution au fur et à mesure des découvertes. Dés lors, une base de connaissances est construite de manière incrémentale. Incrémentale veut dire que l'on commence par construire une petite base qui est enrichie petit à petit par l'acquisition de nouvelles connaissances. Cette construction est partagée puisque plusieurs personnes doivent pouvoir travailler simultanément sur cette base afin de la bâtir. Cette thèse aborde la problématique de la gestion des versions pour les bases de connaissances. Ses apports sont de deux ordres. Nous avons tout d'abord conçu et réalisé un système de gestion de versions de bases de connaissances. Par définition, une version reflète un état de l'évolution de la base, c'est-à-dire de l'ensemble des structures et des valeurs des connaissances contenues dans celle-ci (à un moment donné). Les versions aident ainsi à contrôler l'historique des changements effectués au cours de la construction de la base. Elles permettent également un éventuel retour en arrière. Finalement, les versions permettent la formulation de différentes hypothèses de recherche et la gestion de leur évolution parallèle au cours du temps. Nous avons également contribué à la conception de l'environnement de construction incrémentale et partagée de bases de connaissances et montré comment notre système de versions s'intègre au sein de cet environnement.
13

Traitement de requêtes conjonctives avec négation : algorithmes et expérimentations

Ben Mohamed, Khalil 08 December 2010 (has links) (PDF)
Dans cette thèse, nous nous intéressons à des problèmes à la croisée de deux domaines, les bases de données et les bases de connaissances. Nous considérons deux problèmes équivalents concernant les requêtes conjonctives avec négation : l'inclusion de requêtes et l'évaluation d'une requête booléenne sous l'hypothèse du monde ouvert. Nous reformulons ces problèmes sous la forme d'un problème de déduction dans un fragment de la logique du premier ordre. Puis nous raffinons des schémas d'algorithmes déjà existants et proposons de nouveaux algorithmes. Pour les étudier et les comparer expérimentalement, nous proposons un générateur aléatoire et analysons l'influence des différents paramètres sur la difficulté des instances du problème étudié. Finalement, à l'aide de cette méthodologie expérimentale, nous comparons les apports des différents raffinements et les algorithmes entre eux.
14

Élaboration d'une plate-forme de calculs numériques d'un modèle d'état à la base d'une approche phénoménologique : cas d'un four rotatif de clinker

N'zi, Yoboué Guillaume January 2014 (has links)
Cette étude développe une plate-forme mathématique allant de la création d’une base de connaissances à la mise en place d’un modèle adaptatif. Une nouvelle approche en ce qui concerne la modélisation du four rotatif du clinker a été nécessaire pour mener à bien notre étude. Ainsi, un modèle d’état du système aux paramètres repartis, à la base des phénomènes physico-chimiques, a été conçu à l’aide d’équations aux dérivées partielles. La structure du modèle est basée sur trois variables d’état qui peuvent décrire correctement les principaux phénomènes (diffusions, déplacements, transferts et échanges thermiques, etc.) qui se déroulent dans le four rotatif de clinker. En outre, ces variables d’état sont accessibles à travers des paramètres mesurables tels que les températures de la surface extérieure du four et de l’air ambiant. Les paramètres du modèle proposé sont des fonctions de trois variables d’état, qui tout en remplaçant les paramètres mal connus et inaccessibles, décrivent les phénomènes physicochimiques qui caractérisent la complexité du système et sont définis comme des fonctions opératoires. Cette approche permet non seulement de minimiser les erreurs (hypothèse de simplification) mais aussi permet un accès facile et aisé des paramètres. Nous avons élaboré une procédure d’identification basée sur des analyses phénoménologique et dimensionnelle. Ainsi, à partir de données issues d’un complément d’instrumentation associé à la base de connaissances, l’identification des fonctions opératoires (paramètres) a été effectuée à partir d’un état stationnaire du système qui représente notre condition initiale. Cette opération est importante dans la mesure où elle donne aux paramètres du modèle les propriétés de la dynamique du système. Ces résultats sont corroborés par les estimations des variables d’état dont les valeurs et évolutions sont acceptables. Après l’évaluation de l’influence des fonctions opératoires sur les variables d’état, une modélisation des paramètres (fonctions opératoires) du modèle a été proposée à la base d’une décomposition physique à la lumière des connaissances fournies dans la littérature. Une procédure d’ajustement a été également développée afin de pouvoir fournir des variables d’état optimales. Ainsi, l’erreur peut être compensée par ajustement des fonctions opératoires. Par conséquent, à travers la rapidité de la procédure d’ajustement et l’adaptation des paramètres du modèle dans un horizon de temps bien déterminé, le modèle renferme les caractéristiques d’un modèle adaptatif qui pourra être un support essentiel dans la commande automatique du système. / This study develops a mathematical platform going from the establishment of a knowledge database to the setting up of an adaptive model. This has required a new approach of modeling of the clinker rotary kiln (CRK). Thus, a state model of distributed parameter systems, based on physico-chemical phenomena, was designed using partial differential equations. The model structure is based on three state variables which are: the gas, clinker temperatures and the clinker mass distributions, and are elaborated with the help of heat, pressure and mass balance equations. The model parameters are defined by the functions of three state variables. Moreover, the resulting state model, decomposed into five phenomenological zones of CRK, is used as a first step to define a set of Operating Functions (OFs). These OFs has also been decomposed into longitudinal distribution of CRK to replace the constant, unknown or unmeasured parameters. We develop an identification procedure based on phenomenological and dimensional analysis where the identification of operational functions (model parameters) was performed from a stationary state of the CRK. Once the restores state variables have been evaluated, the desired input (which is treated as the control of the CRK) can be more easily found by the proposed model than by simple trial and error. Moreover, the fact that the computation time, to estimate-calibrate the OFs above-mentioned, is very short, then this dynamic computation works faster than real-time. In summary, the cooperation and coordination in real-time between industrial computers and the CRK allows for an adaptable model, where each specific set of the OFs must be analyzed by its accuracy.
15

Protocoles d'évaluation pour l'extraction d'information libre

Léchelle, William 04 1900 (has links)
No description available.
16

Approches vers des modèles unifiés pour l'intégration de bases de connaissances / Approaches Towards Unified Models for Integrating Web Knowledge Bases

Koutraki, Maria 27 September 2016 (has links)
Ma thèse a comme but l’intégration automatique de nouveaux services Web dans une base de connaissances. Pour chaque méthode d’un service Web, une vue est calculée de manière automatique. La vue est représentée comme une requête sur la base de connaissances. L’algorithme que nous avons proposé calcule également une fonction de transformation XSLT associée à la méthode qui est capable de transformer les résultats d’appel dans un fragment conforme au schéma de la base de connaissances. La nouveauté de notre approche c’est que l’alignement repose seulement sur l’alignement des instances. Il ne dépend pas des noms des concepts ni des contraintes qui sont définis par le schéma. Ceci le fait particulièrement pertinent pour les services Web qui sont publiés actuellement sur le Web, parce que ces services utilisent le protocole REST. Ce protocole ne permet pas la publication de schémas. En plus, JSON semble s’imposer comme le standard pour la représentation des résultats d’appels de services. À différence du langage XML, JSON n’utilise pas de noeuds nommés. Donc les algorithmes d’alignement traditionnels sont privés de noms de concepts sur lesquels ils se basent. / My thesis aim the automatic integration of new Web services in a knowledge base. For each method of a Web service, a view is automatically calculated. The view is represented as a query on the knowledge base. Our algorithm also calculates an XSLT transformation function associated to the method that is able to transform the call results in a fragment according to the schema of the knowledge base. The novelty of our approach is that the alignment is based only on the instances. It does not depend on the names of the concepts or constraints that are defined by the schema. This makes it particularly relevant for Web services that are currently available on the Web, because these services use the REST protocol. This protocol does not allow the publication schemes. In addition, JSON seems to establish itself as the standard for the representation of technology call results.
17

Surface Realisation from Knowledge Bases / Bases de connaissances et réalisation de surface

Gyawali, Bikash 20 January 2016 (has links)
La Génération Automatique de Langue Naturelle vise à produire des textes dans une langue humaine à partir d'un ensemble de données non-linguistiques. Elle comprend généralement trois sous-tâches principales: (i) sélection et organisation d'un sous-ensemble des données d'entrée; ii) détermination des mots à utiliser pour verbaliser les données d'entrée; et (iii) regroupement de ces mots en un texte en langue naturelle. La dernière sous-tâche est connue comme la tâche de Réalisation de Surface (RS). Dans ma thèse, j'étudie la tâche de RS quand les données d'entrée sont extraites de Bases de Connaissances (BC). Je présente deux nouvelles approches pour la réalisation de surface à partir de bases de connaissances: une approche supervisée et une approche faiblement supervisée. Dans l'approche supervisée, je présente une méthode basée sur des corpus pour induire une grammaire à partir d'un corpus parallèle de textes et de données. Je montre que la grammaire induite est compacte et suffisamment générale pour traiter les données de test. Dans l'approche faiblement supervisée, j'explore une méthode pour la réalisation de surface à partir de données extraites d'une BC qui ne requière pas de corpus parallèle. À la place, je construis un corpus de textes liés au domaine et l'utilise pour identifier les lexicalisations possibles des symboles de la BC et leurs modes de verbalisation. J'évalue les phrases générées et analyse les questions relatives à l'apprentissage à partir de corpus non-alignés. Dans chacune de ces approches, les méthodes proposées sont génériques et peuvent être facilement adaptées pour une entrée à partir d'autres ontologies / Natural Language Generation is the task of automatically producing natural language text to describe information present in non-linguistic data. It involves three main subtasks: (i) selecting the relevant portion of input data; (ii) determining the words that will be used to verbalise the selected data; and (iii) mapping these words into natural language text. The latter task is known as Surface Realisation (SR). In my thesis, I study the SR task in the context of input data coming from Knowledge Bases (KB). I present two novel approaches to surface realisation from knowledge bases: a supervised approach and a weakly supervised approach. In the first, supervised, approach, I present a corpus-based method for inducing a Feature Based Lexicalized Tree Adjoining Grammar from a parallel corpus of text and data. I show that the induced grammar is compact and generalises well over the test data yielding results that are close to those produced by a handcrafted symbolic approach and which outperform an alternative statistical approach. In the weakly supervised approach, I explore a method for surface realisation from KB data which does not require a parallel corpus. Instead, I build a corpus from heterogeneous sources of domain-related text and use it to identify possible lexicalisations of KB symbols and their verbalisation patterns. I evaluate the output sentences and analyse the issues relevant to learning from non-parallel corpora. In both these approaches, the proposed methods are generic and can be easily adapted for input from other ontologies for which a parallel/non-parallel corpora exists
18

Partage et production de connaissances distribuées dans des plateformes scientifiques collaboratives

Gaignard, Alban 15 March 2013 (has links) (PDF)
Cette thèse s'intéresse à la production et au partage cohérent de connaissances distribuées dans le domaine des sciences de la vie. Malgré l'augmentation constante des capacités de stockage et de calcul des infrastructures informatiques, les approches centralisées pour la gestion de grandes masses de données scientifiques multi-sources deviennent inadaptées pour plusieurs raisons: (i) elles ne garantissent pas l'autonomie des fournisseurs de données qui doivent conserver un certain contrôle sur les don- nées hébergées pour des raisons éthiques et/ou juridiques, (ii) elles ne permettent pas d'envisager le passage à l'échelle des plateformes en sciences computationnelles qui sont la source de productions massives de données scientifiques. Nous nous intéressons, dans le contexte des plateformes collaboratives en sci- ences de la vie NeuroLOG et VIP, d'une part, aux problématiques de distribution et d'hétérogénéité sous-jacentes au partage de ressources, potentiellement sensibles ; et d'autre part, à la production automatique de connaissances au cours de l'usage de ces plateformes, afin de faciliter l'exploitation de la masse de données produites. Nous nous appuyons sur une approche ontologique pour la modélisation des connaissances et pro- posons à partir des technologies du web sémantique (i) d'étendre ces plateformes avec des stratégies efficaces, statiques et dynamiques, d'interrogations sémantiques fédérées et (ii) d'étendre leur environnent de traitement de données pour automatiser l'annotation sémantique des résultats d'expérience "in silico", à partir de la capture d'informations de provenance à l'exécution et de règles d'inférence spécifiques au domaine. Les résultats de cette thèse, évalués sur l'infrastructure distribuée et contrôlée Grid'5000, apportent des éléments de réponse à trois enjeux majeurs des plateformes collaboratives en sciences computationnelles : (i) un modèle de collaborations sécurisées et une stratégie de contrôle d'accès distribué pour permettre la mise en place d'études multi-centriques dans un environnement compétitif, (ii) des résumés sémantiques d'expérience qui font sens pour l'utilisateur pour faciliter la navigation dans la masse de données produites lors de campagnes expérimentales, et (iii) des stratégies efficaces d'interrogation et de raisonnement fédérés, via les standards du Web Sémantique, pour partager les connaissances capitalisées dans ces plateformes et les ouvrir potentiellement sur le Web de données.
19

Vers une nouvelle représentation du savoir anatomique

Palombi, Olivier 29 November 2010 (has links) (PDF)
En informatique graphique, l'anatomie constitue un excellent domaine applicatif. Les besoins formulés actuellement, tant en enseignement qu'en recherche, sont à l'origine de deux mouvements convergents. Le premier consiste à impliquer d'avantage l'utilisateur dans le processus de modélisation en mettant à sa disposition des outils informatiques interactifs et intuitifs. Le second consiste à formaliser les connaissances anatomiques afin d'élaborer des processus automatiques qui dépassent la simple représentation des formes pour aborder un niveau supérieur de type conceptuel. Je présente ici dans le cadre de mon HDR de Médecine un résumé de mes travaux sur l'utilisation de l'informatique en Anatomie. Trois thèmes sont abordés : (1) la reconstruction 3D à partir de coupes sériées à l'aide de surfaces implicites à squelettes, (2) l'élaboration d'une interface de type sketching (croquis) destinée à l'enseignement de l'anatomie, (3) la construction d'une base de connaissances anatomiques formelle accessible aux systèmes informatiques et dédiée la simulation patient spécifique.
20

Une méthodologie de Reverse Engineering à partir de données hétérogènes pour les pièces et assemblages mécaniques / A methodology of Reverse Engineering from heterogeneous data for parts and mechanical assemblies

Bruneau, Marina 22 March 2016 (has links)
Cette thèse traite d'une méthodologie de Reverse Engineering (RE) d'assemblages mécaniques à partir de données hétérogènes dans un contexte routinier. Cette activité consiste à partir d'un produit ou d'un assemblage, à récupérer la donnée numérique en partant de la donnée physique dans le but de reconstruire sa ma­quette numérique. Plusieurs techniques de numérisation peuvent être employées et permettent de générer des données de différents types (ex : nuage de points, photographies). Ces dernières sont utilisées comme données d'entrée à notre pro­cessus de RE et peuvent aussi être associées à des données liées au produit, exis­tantes au préalable, telles que des mises en plan ou encore une version antérieure de la maquette numérique du produit. Le traitement de l'ensemble de ces don­nées, dites "hétérogènes", requiert une solution qui soit capable de gérer d'une part, l'hétérogénéité des données et des informations qu'elles contiennent et d'autre part, l'incomplétude de certaines données qui est liée au bruit ou à la technologie utilisée pour numériser l'assemblage (ex : scanner ou photographie). Enfin la pertinence des informations extraites lors de la phase de traitement doit permettre, dans cer­tains cas, de générer des modèles CAO paramétrés, propres à l'activité de RE de l'entreprise ou du domaine d'application. L'état de l'art sur la reconnaissance de formes dans des données hétérogènes ainsi que sur la gestion de connaissances dans le cadre d'activités routinières, pro­pose des approches qui traitent soit d'un seul type de données, soit du RE de pièce unique ou soit elles ne permettent pas d'obtenir un modèle CAO qui soit exploitable (paramétrage géométrique des entités) pour une activité de RE. Cette thèse propose une méthodologie nommée Heterogeneous Data Integration for Reverse Engineering (HDI-RE) et qui se décompose en trois étapes : la seg­mentation, la signature et la comparaison avec une base de connaissances. Le but de cette méthode est d'automatiser le processus de RE et notamment en ce qui concerne les étapes de reconnaissance de composants dans les données d'entrée et d'aide à la reconstruction de modèles CAO (paramétrés ou non) en récupérant des informations géométriques et topologiques dans des données d'entrée. Pour cela, ces dernières sont segmentées afin d'en extraire des informations qui sont en­ suite formalisées sous la forme de signatures. Les signatures générées sont ensuite comparées à une base de connaissances comportant un ensemble de signatures de différents types et appartenant à des produits ou objets déjà connus. Le calcul des similarités issu de la comparaison permet d'identifier les composants présents dans les données en entrée. L'apport scientifique de ces travaux repose principalement sur l'utilisation de sig­natures qui, en fonction du souhait de l'utilisateur, permettent de reconstruire une maquette numérique en sortie du processus de RE avec trois niveaux d'information : un niveau global, un niveau géométrique et topologique ou un niveau fonctionnel. Par rapport à chaque niveau et du type de données traité, un mécanisme de signa­ture dédié est proposé. / This thesis deals with a methodology of Reverse Engineering (RE) of mechanical assemblies from heterogeneous data in a routine context. This activity consists, from the existing data of a part or an assembly, in rebuilding their digital mock-up. The data used in entrance of our process of RE can be drawings, photos, points clouds or another existing version of the digital mock-up. The proposed approach, called Heterogeneous Data Integration for Reverse Engineering (HDI-RE), is divided into three steps : the segmentation, the signature and the comparison of the initial data with a knowledge database. The signatures of the studied object are compared with the signatures of the same type existing in the database in order to extract components ordered by similarity (distance with the object). The parameterized digital mock-up which is the most similar to the object is then extracted and its parameters identified from the initial data. Data set processing, called "heterogeneous" data, requires a solution which is able to manage on one hand, the heterogeneousness of the data and the information which they contain and on the other hand, the incompleteness of some data which are in link with the noise (into points cloud) or with the technology used to digitize the assembly (ex: scanner or photography).

Page generated in 0.4564 seconds