• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 26
  • 14
  • 9
  • Tagged with
  • 49
  • 49
  • 49
  • 49
  • 22
  • 9
  • 7
  • 7
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Conférence répartie en mode messagerie

Brun, Philippe 01 January 1997 (has links) (PDF)
Les conférences informatiques sont promises à un bel avenir. Toutefois, leur essor est freiné par le coût des communications, les difficultés inhérentes à ce type d'outils qui s'adressent à un grand nombre d'utilisateurs, mettent en jeu de grandes quantités d'informations et couvrent un large champ d'applications, et par la nécessité d'offrir aux usagers un accès simple, confortable et efficace. La solution que nous proposons répond à ces problèmes par les options suivantes. L'ensemble des messages échangés est archivé dans une base structurée ce qui permet de les gérer efficacement. Cette base est dupliquée sur différents sites pour réduire les coûts de consultation. Les communications entre sites se font en mode messagerie telle qu'elle est recommandée par le CC11T. Pour une bonne coopération des usagers, des rôles sont définis, des droits leur sont associés. 'Enfin, l'interface avec l'utilisateur tire parti des progrès réalisés dans ce domaine tant dans le matériel que dans les logiciels actuellement disponibles.
42

PROTOCOLE DE DECOUVERTE SENSIBLE AU CONTEXTE POUR LES SERVICES WEB SEMANTIQUES

Roxin, Ana 30 November 2009 (has links) (PDF)
Le Web d'aujourd'hui représente un espace où les utilisateurs recherchent, découvrent et partagent des informations. Dans ce cadre, les processus de découverte de services Web jouent un rôle fondamental. Un tel processus permet de faire le lien entre des informations publiées par des fournisseurs de services et des requêtes créées par les internautes. Généralement, un tel processus repose sur une recherche " textuelle " ou à base de " mots-clés ". Or, ce type de recherche ne parvient pas à toujours identifier les services les plus pertinents. Notre idée est de concevoir un système plus " intelligent ", permettant d'utiliser, lors du processus de découverte, une base de connaissances associées aux informations, comme c'est le cas pour le Web sémantique. Cette thèse présente un prototype pour la découverte de services Web sémantiques, utilisant des caractéristiques non-fonctionnelles (descriptives) des services. Notre approche emploie le langage OWL-S (Web Ontology Language for Services) pour définir un modèle de description des paramètres non-fonctionnels des services. Ce modèle a pour but de faciliter la découverte de services Web sémantiques. Ce modèle représente le centre de notre contribution, étant utilisé pour la conception des interfaces et des requêtes. Deux interfaces sont développées, l'une s'adressant aux fournisseurs de services, alors que la deuxième interface est conçue pour l'utilisateur final. L'algorithme de recherche présenté dans cette thèse a pour but d'améliorer la précision et la complétude du processus de découverte de services.
43

Analyse Statique de Requête pour le Web Sémantique

Chekol, Melisachew Wudage 19 December 2012 (has links) (PDF)
L'inclusion de requête est un problème bien étudié durant plusieurs décen- nies de recherche. En règle générale, il est défini comme le problème de déterminer si le résultat d'une requête est inclus dans le résultat d'une autre requête pour tout ensem- ble de données. Elle a des applications importantes dans l'optimisation des requêtes et la vérification de bases de connaissances. L'objectif principal de cette thèse est de fournir des procédures correctes et complètes pour déterminer l'inclusion des requêtes SPARQL en vertu d'axiomes exprimés en logiques de description. De plus, nous met- tons en œuvre ces procédures à l'appui des résultats théoriques par l'expérimentation. À ce jour, l'inclusion de requête a été testée à l'aide de différentes techniques: ho- momorphisme de graphes, bases de données canoniques, les techniques de la théorie des automates et réduction au problème de la validité d'une logique. Dans cette thèse, nous utilisons la derniere technique pour tester l'inclusion des requêtes SPARQL utilisant une logique expressive appelée le μ-calcul. Pour ce faire, les graphes RDF sont codés comme des systèmes de transitions, et les requêtes et les axiomes du schéma sont codés comme des formules de μ-calcul. Ainsi, l'inclusion de requêtes peut être réduite au test de la validité d'une formule logique. Dans cette thèse j'identifier les divers fragments de SPARQL (et PSPARQL) et les langages de description logique de schéma pour lequelle l'inculsion est décidable. En outre, afin de fournir théoriquement et expérimentalement des procédures éprouvées pour vérifier l'inclusion de ces fragments décidables. Enfin, cette thèse propose un point de repère pour les solveurs d'inclusion. Ce benchmark est utilisé pour tester et comparer l'état actuel des solveurs d'inclusion.
44

RoSe : un framework pour la conception et l'exécution d'applications distribuées dynamiques et hétérogènes

Bardin, Jonathan 02 October 2012 (has links) (PDF)
L'adaptation est aujourd'hui devenue un enjeu majeur en Génie Logiciel. Les ingénieurs sont en effet régulièrement confrontés à des demandes d'évolution qui peuvent prendre de nombreuses formes : mises à jour, nouvelles versions, besoins en nouvelles fonctionnalités, etc. Cette tendance est accrue par l'émergence de nouveaux domaines tels que l'informatique ubiquitaire ou le cloud computing qui exigent des changements dynamiques dans des environnements en constante évolution. Ainsi, dans ces domaines, les ressources sont souvent élastiques, volatiles et hétérogènes. Cette thèse s'intéresse en particulier à la conception et à l'exécution d'applications distribuées composées d'entités hétérogènes et qui nécessitent d'être adaptées durant l'exécution. Notre approche s'appuie sur les modèles à composant orientés service et sur les styles d'architectures SOA et REST. Nous proposons un framework, nommé RoSe, qui permet l'import de ressources distantes dans un framework à composant orienté service et l'export de service locaux. RoSe permet aux développeurs et aux administrateurs de gérer la distribution des applications de manière totalement indépendante et dynamique grâce à un langage de configuration et d'une API dite fluent. Le framework lui-même est modulaire et flexible et supporte l'ajout et le retrait de composants durant l'exécution. L'implantation de RoSe est hébergée au sein du projet OW2 Chameleon et est aujourd'hui utilisée dans plusieurs projets industriels et académiques.
45

Vers une philosophie du Web : le Web comme devenir-artefact de la philosophie (entre URIs, tags, ontologie (s) et ressources)

Monnin, Alexandre 08 April 2013 (has links) (PDF)
Cette thèse entend prendre acte de l'importance du Web d'un point de vue philosophique. Importance double : à la fois comme objet de recherche, qui, dans le sillage du Web Sémantique et de l'architecture du Web, à des titres divers, entre en résonance évidente avec les problématiques classiques de la métaphysique et de la philosophie du langage. Dans cette perspective, nous étudions quelques-uns de ses composants principaux (URI, ressources, tags, etc.). En parallèle, nous soulignons son importance au regard de la question du devenir de la philosophie elle-même. En effet, le travail entrepris ne s'est nullement contenté de projeter les concepts à priori d'une philosophia perennis. Il a consisté, au contraire, à interroger les architectes du Web eux-mêmes pour faire émerger leur métaphysique empirique, en observant les controverses qu'elle a suscitées. Prendre acte de la portée ontogonique d'une pratique telle que " l'ingénierie philosophique ", selon l'expression de Tim Berners-Lee, pensée ici comme la production de nouvelles distinctions dans un monde en train de se faire, nous conduit à mener une réflexion plus vaste sur la nature de l'objectivation. Celle-ci rejoint en fin de compte des préoccupations politiques, dans la perspective de l'établissement d'un monde commun, auquel le Web participe activement.
46

Contrôle d'Accès et Présentation Contextuels pour le Web des Données

Costabello, Luca 29 November 2013 (has links) (PDF)
La thèse concerne le rôle joué par le contexte dans l'accès au Web de données depuis les dispositifs mobiles. Le travail analyse ce problème de deux points de vue distincts: adapter au contexte la présentation de données liées, et protéger l'accès aux bases des donnés RDF depuis les dispositifs mobiles. La première contribution est PRISSMA, un moteur de rendu RDF qui étend Fresnel avec la sélection de la meilleure représentation pour le contexte physique ou on se trouve. Cette opération est effectuée par un algorithme de recherche de sous-graphes tolérant aux erreurs basé sur la notion de distance d'édition sur les graphes. L'algorithme considère les différences entre les descriptions de contexte et le contexte détecté par les capteurs, supporte des dimensions de contexte hétérogènes et est exécuté sur le client pour ne pas révéler des informations privées. La deuxième contribution concerne le système de contrôle d'accès Shi3ld. Shi3ld supporte tous les triple stores et il ne nécessite pas de les modifier. Il utilise exclusivement les langages du Web sémantique, et il n'ajoute pas des nouveaux langages de définition de règles d'accès, y compris des analyseurs syntaxiques et des procédures de validation. Shi3ld offre une protection jusqu'au niveau des triplets. La thèse décrit les modèles, algorithmes et prototypes de PRISSMA et de Shi3ld. Des expériences montrent la validité des résultats de PRISSMA ainsi que les performances au niveau de mémoire et de temps de réponse. Le module de contrôle d'accès Shi3ld a été testé avec différents triple stores, avec et sans moteur SPARQL. Les résultats montrent l'impact sur le temps de réponse et démontrent la faisabilité de l'approche.
47

Fouille de Textes : de l'extraction des descripteurs linguistiques à leur induction

Roche, Mathieu 09 December 2011 (has links) (PDF)
Les masses de données textuelles aujourd'hui disponibles engendrent un problème difficile lié à leur traitement automatique. Dans ce cadre, des méthodes de Fouille de Textes (FT) et de Traitement Automatique du Langage (TAL) peuvent, en partie, répondre à une telle problématique. Elles consistent à modéliser puis mettre en œuvre des méthodologies appliquées aux données textuelles afin d'en déterminer le sens et/ou découvrir des connaissances nouvelles. Dans ce processus, le descripteur linguistique constitue un élément pivot. Après une présentation des méthodes de traitement des descripteurs en eux-mêmes, ces derniers seront étudiés en contexte, c'est-à-dire en corpus. L'identification des descripteurs est souvent difficile à partir de corpus bruités et à faible contenu textuel sur lesquels nous concentrons nos efforts (par exemple, corpus issus du Web 2.0 ou du traitement OCR). Outre les mots considérés comme des descripteurs linguistiques pertinents en FT, nous nous sommes également intéressés à l'étude des syntagmes complexes à partir de corpus classiques puis d'une terminologie classique à partir de corpus complexes (par exemple, données logs ou corpus en français médiéval). Dans la suite, les syntagmes étudiés ne se situent plus à proprement parler dans les textes mais ils seront induits à partir des mots issus des corpus. Les méthodes proposées permettent de mettre en relief des syntagmes originaux tout à fait utiles pour l'identification d'Entités Nommées, le titrage automatique ou la construction de classes conceptuelles. Contrairement au raisonnement déductif, le raisonnement inductif est dit hypothétique. Dans ce cadre, l'utilisation de méthodes de validation automatique des relations induites par le biais d'approches de Fouille du Web se révèle déterminant. Les perspectives à ce travail se concentreront sur l'extraction de nouveaux descripteurs. Ces derniers seront associés à de nouvelles représentations sous forme d'entrepôts de données textuelles. Enfin, les travaux que nous souhaitons développer se focaliseront sur l'analyse des textes dans un contexte plus vaste lié au multimédia que le paradigme du Web 2.0 a mis en exergue ces dernières années.
48

ScaleSem : model checking et web sémantique

Gueffaz, Mahdi 11 December 2012 (has links) (PDF)
Le développement croissant des réseaux et en particulier l'Internet a considérablement développé l'écart entre les systèmes d'information hétérogènes. En faisant une analyse sur les études de l'interopérabilité des systèmes d'information hétérogènes, nous découvrons que tous les travaux dans ce domaine tendent à la résolution des problèmes de l'hétérogénéité sémantique. Le W3C (World Wide Web Consortium) propose des normes pour représenter la sémantique par l'ontologie. L'ontologie est en train de devenir un support incontournable pour l'interopérabilité des systèmes d'information et en particulier dans la sémantique. La structure de l'ontologie est une combinaison de concepts, propriétés et relations. Cette combinaison est aussi appelée un graphe sémantique. Plusieurs langages ont été développés dans le cadre du Web sémantique et la plupart de ces langages utilisent la syntaxe XML (eXtensible Meta Language). Les langages OWL (Ontology Web Language) et RDF (Resource Description Framework) sont les langages les plus importants du web sémantique, ils sont basés sur XML.Le RDF est la première norme du W3C pour l'enrichissement des ressources sur le Web avec des descriptions détaillées et il augmente la facilité de traitement automatique des ressources Web. Les descriptions peuvent être des caractéristiques des ressources, telles que l'auteur ou le contenu d'un site web. Ces descriptions sont des métadonnées. Enrichir le Web avec des métadonnées permet le développement de ce qu'on appelle le Web Sémantique. Le RDF est aussi utilisé pour représenter les graphes sémantiques correspondant à une modélisation des connaissances spécifiques. Les fichiers RDF sont généralement stockés dans une base de données relationnelle et manipulés en utilisant le langage SQL ou les langages dérivés comme SPARQL. Malheureusement, cette solution, bien adaptée pour les petits graphes RDF n'est pas bien adaptée pour les grands graphes RDF. Ces graphes évoluent rapidement et leur adaptation au changement peut faire apparaître des incohérences. Conduire l'application des changements tout en maintenant la cohérence des graphes sémantiques est une tâche cruciale et coûteuse en termes de temps et de complexité. Un processus automatisé est donc essentiel. Pour ces graphes RDF de grande taille, nous suggérons une nouvelle façon en utilisant la vérification formelle " Le Model checking ".Le Model checking est une technique de vérification qui explore tous les états possibles du système. De cette manière, on peut montrer qu'un modèle d'un système donné satisfait une propriété donnée. Cette thèse apporte une nouvelle méthode de vérification et d'interrogation de graphes sémantiques. Nous proposons une approche nommé ScaleSem qui consiste à transformer les graphes sémantiques en graphes compréhensibles par le model checker (l'outil de vérification de la méthode Model checking). Il est nécessaire d'avoir des outils logiciels permettant de réaliser la traduction d'un graphe décrit dans un formalisme vers le même graphe (ou une adaptation) décrit dans un autre formalisme
49

Modélisation centrée utilisateur final appliquée à la conception d'applications interactives en géographie : une démarche basée sur les contenus et les usages

Luong, The Nhan 12 December 2012 (has links) (PDF)
Le point de départ de cette thèse a pour origine les difficultés constatées dans la communauté EIAH pour concevoir des applications éducatives exploitant des informations géographiques. A terme, il s'agit de proposer une nouvelle plateforme susceptible de rendre possible et opérationnel la conception d'applications Web géographiques portées par des utilisateurs non-informaticiens de façon autonome. La proposition scientifique est basée sur un processus de conception piloté par les contenus et par les interactions. Il est opérationnalisé dans une plateforme nommée WINDMash offrant aux concepteurs un environnement visuel de spécification et d'évaluation des interactions. Nous proposons un modèle unifié sous-jacent de description des applications Web géographiques comportant trois facettes qui permettent de représenter les contenus géographiques manipulés, de les afficher sur une interface graphique et de décrire le comportement de l'application (scénario d'interaction) à l'aide d'un langage visuel dont le formalisme graphique est inspiré du diagramme de séquence UML. En utilisant des techniques d'Ingénierie Dirigée par les Modèles, la plateforme WINDMash permet de générer automatiquement le code de l'application finale sur la base des instances de trois facettes du modèle unifié. La plateforme WINDMash utilise pour cela l'API WIND (Web INteraction Design) que nous avons programmée. Les concepteurs peuvent ainsi prototyper rapidement des applications Web géographiques correspondant à leurs besoins.

Page generated in 0.0682 seconds