• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 119
  • 65
  • 11
  • Tagged with
  • 197
  • 197
  • 109
  • 63
  • 62
  • 51
  • 47
  • 41
  • 35
  • 34
  • 34
  • 33
  • 23
  • 22
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Des mots aux textes. Analyse sémantique pour l'accès à l'information

Poibeau, Thierry 26 November 2008 (has links) (PDF)
Pourquoi est-il si difficile de comprendre une langue de manière automatique, même si on ne vise qu'une compréhension limitée, factuelle et orientée vers des faits connus ? La langue, telle qu'elle s'offre à nous, semble trop malléable pour être directement appréhendable par ordinateur. C'est pourtant à ce problème que je me suis intéressé : comment identifier du semblable dans des productions langagières si variées, comment repérer des fragments de signification au milieu d'un océan de textes ? Ce mémoire se compose de quatre chapitres. Je reviens au sein du chapitre 1 sur certains développements récents de la linguistique informatique, pour montrer que la disponibilité de gros corpus a entraîné une forte opérationnalisation du domaine. Cette évolution n'est pas neutre théoriquement : l'apport des corpus et des techniques d'acquisition dynamique de connaissances (notamment par les techniques d'apprentissage) rend tout à fait plausible l'idée d'une sémantique fondée sur l'usage. Les trois chapitres suivants portent chacun sur un niveau d'analyse différent (niveau lexical pour l'annotation sémantique, niveau prédicatif pour l'extraction de relations, niveau textuel pour la modélisation de documents spécialisés). Je défends l'idée d'un continuum entre ces niveaux, du fait notamment que tous partagent des similarités fondamentales, ce qui peut se manifester parfois de manière très visible et influer sur les techniques utilisées. Le chapitre 2 traite du niveau lexical (microsémantique), essentiellement à travers l'analyse des « entités nommées » : ce type de séquences comprend notamment les noms propres, qui sont des éléments essentiels pour une prise de connaissance rapide du contenu des documents. Ces séquences, et plus particulièrement les noms propres, ont été largement étudiées dans le cadre des approches logiques ; mon travail se situe dans un cadre en partie hérité de cette tradition : celui-ci offre bien des avantages applicatifs mais les noms propres, comme le vocabulaire courant, sont soumis aux mêmes phénomènes de variation et de brouillage de sens, du fait des tropes notamment. Le chapitre 3 traite essentiellement des relations prédicatives (mésosémantique) : le repérage de ces séquences est essentiel pour les systèmes d'extraction d'information et de questions-réponses. Ces applications reposent en effet sur la mise en correspondance d'entités autour d'un prédicat. Je détaille différentes techniques permettant d'acquérir automatiquement ces structures à partir de corpus (classes sémantiques, cadres de sous-catégorisation et restrictions de sélection). Je montre que ces catégories sont floues et que les analyses à partir de corpus remettent en cause certaines classifications de la grammaire traditionnelle. Le chapitre 4 traite du contenu et de la structure de textes complexes, essentiellement techniques (macrosémantique). Le texte forme un tout cohérent, marqué par un ensemble de séquences (ou périodes) liées entre elles ; cette architecture textuelle est normée et elle est significative pour la compréhension globale. J'essaie d'étendre ce travail sur l'architecture textuelle à des ensembles de textes cohérents, afin d'aboutir à une typologie. Je montre là aussi le flou et la difficulté à définir des typologies cohérentes et, surtout, fondées linguistiquement. Je reviens, dans la conclusion, sur les similitudes observées entre ces différents paliers : la question de la relation entre mots et concepts, les bords flous des catégories envisagées, leur grande variabilité sur le plan linguistique. Je m'interroge sur le lien entre traitement automatique des langues (TAL) et linguistique, avant de proposer quelques perspectives permettant de poursuivre ce travail par d'autres chemins.
72

Apport des Mémoires Organisationnelles dans un contexte d'apprentissage

Abel, Marie-Hélène 13 December 2007 (has links) (PDF)
Les actes d'enseigner, d'apprendre et de travailler ne sont jamais socialement isolés. Selon (Benoit, 2000), « Ils sont la résultante culturelle, articulée et développée à travers une pratique définie regroupant dans un espace, réel ou virtuel, un nombre indéterminé d'acteurs se questionnant et s'interrogeant sur les connaissances, les habiletés et les attitudes requises à l'acquisition et à la maîtrise des compétences propres à un domaine donné, qu'il soit d'ordre académique ou professionnel. » <br />Notre volonté, avec l'approche MEMORAe (MEMoire ORganisationnelle Appliquée au e-learning) est d'opérationnaliser les connexions entre e-learning et knowledge management. Pour ce faire, notre objectif est de modéliser et concevoir un environnement d'apprentissage tenant compte à la fois de ces deux aspects. <br />Côté e-learning, ces dernières années, la modélisation des environnements d'apprentissage a été étudiée en ingénierie éducative selon deux principales approches : <br />- l'approche par les ressources, basée sur le paradigme des objets pédagogiques ; <br />- l'approche par les activités, basée sur les notions d'unités d'apprentissage, d'activité et de scénario pédagogique. <br />Côté knowledge management, « L'ingénierie des connaissances propose des concepts, méthodes et techniques permettant de modéliser, de formaliser, d'acquérir des connaissances dans les organisations dans un but d'opérationnalisation, de structuration ou de gestion au sens large. » (Charlet, 2001). Le même auteur précise que ces méthodes et outils sont destinés à favoriser la dynamique des connaissances dans l'organisation. <br />Dans le cadre de l'approche MEMORAe, nous proposons d'associer ingénierie des connaissances et ingénierie éducative afin de modéliser et concevoir un environnement d'apprentissage selon l'approche par les ressources. Nous avons fait le choix de tester et d'évaluer l'apport des mémoires organisationnelles à base d'ontologies dans un contexte d'apprentissage au sein d'une organisation apprenante. Rappelons que, d'une part, une telle organisation doit encourager l'apprentissage à différents niveaux (individu, groupe et organisation) et maximiser l'apprentissage organisationnel ; d'autre part, elle constitue une constellation de communautés de pratique.
73

Un cadre de développement sémantique pour la recherche sociale

Stan, Johann 09 November 2011 (has links) (PDF)
Cette thèse présente un système permettant d'extraire les interactions partagées dans les réseaux sociaux et de construire un profil dynamique d'expertise pour chaque membre dudit réseau social. La difficulté principale dans cette partie est l'analyse de ces interactions, souvent très courtes et avec peu de structure grammaticale et linguistique. L'approche que nous avons mis en place propose de relier les termes importants de ces messages à des concepts dans une base de connaissance sémantique, type Linked Data. Cette connexion permet en effet d'enrichir le champ sémantique des messages en exploitant le voisinage sémantique du concept dans la base de connaissances. Notre première contribution dans ce contexte est un algorithme qui permet d'effectuer cette liaison avec une précision plus augmentée par rapport à l'état de l'art, en considérant le profil de l'utilisateur ainsi que les messages partagés dans la communauté dont il est membre comme source supplémentaire de contexte. La deuxième étape de l'analyse consiste à effectuer l'expansion sémantique du concept en exploitant les liens dans la base de connaissance. Notre algorithme utilise une heuristique basant sur le calcul de similarité entre les descriptions des concepts pour ne garder que ceux les plus pertinents par rapport au profil de l'utilisateur. Les deux algorithmes mentionnés précédemment permettent d'avoir un ensemble de concepts qui illustrent les centres d'expertise de l'utilisateur. Afin de mesurer le degré d'expertise de l'utilisateur qui s'applique sur chaque concept dans son profil, nous appliquons la méthode-standard vectoriel et associons à chaque concept une mesure composée de trois éléments : (i) le tf-idf, (ii) le sentiment moyen que l'utilisateur exprime par rapport au dit concept et (iii) l'entropie moyen des messages partagés contenant ledit concept. L'ensemble des trois mesures combinées permet d'avoir un poids unique associé à chaque concept du profil. Ce modèle de profil vectoriel permet de trouver les " top-k " profils les plus pertinents par rapport à une requête. Afin de propager ces poids sur les concepts dans l'expansion sémantique, nous avons appliqué un algorithme de type propagation sous contrainte (Constrained Spreading Activation), spécialement adapté à la structure d'un graphe sémantique. L'application réalisée pour prouver l'efficacité de notre approche, ainsi que d'illustrer la stratégie de recommandation est un système disponible en ligne, nommé " The Tagging Beak " (http://www.tbeak.com). Nous avons en effet développé une stratégie de recommandation type Q&A (question - réponse), où les utilisateurs peuvent poser des questions en langage naturel et le système recommande des personnes à contacter ou à qui se connecter pour être notifié de nouveaux messages pertinents par rapport au sujet de la question.
74

Classification et Composition de Services Web : Une Perspective Réseaux Complexes

Cherifi, Chantal 09 December 2011 (has links) (PDF)
Les services Web sont des briques de bases logicielles s‟affranchissant de toute contrainte de compatibilité logicielle ou matérielle. Ils sont mis en oeuvre dans une architecture orientée service. A l‟heure actuelle, les travaux de recherche se concentrent principalement sur la découverte et la composition. Cependant, la complexité de la structure de l‟espace des services Web et son évolution doivent nécessairement être prises en compte. Ceci ne peut se concevoir sans faire appel à la science des systèmes complexes, et notamment à la théorie des réseaux complexes. Dans cette thèse, nous définissons un ensemble de réseaux pour la composition sur la base de services décrits dans des langages syntaxique (WSDL) et sémantique (SAWSDL). L‟exploration expérimentale de ces réseaux permet de mettre en évidence les propriétés caractéristiques des grands graphes de terrain (la propriété petit monde et la distribution sans échelle). On montre par ailleurs que ces réseaux possèdent une structure communautaire. Ce résultat permet d‟apporter une réponse alternative à la problématique de la classification de services selon les domaines d‟intérêts. En effet, les communautés regroupent non pas des services aux fonctionnalités similaires, mais des services qui ont en commun de nombreuses relations d‟interaction. Cette organisation peut être utilisée entre autres, afin de guider les algorithmes de recherche de compositions. De plus, en ce qui concerne la classification des services aux fonctionnalités similaires en vue de la découverte ou de la substitution, nous proposons un ensemble de modèles de réseaux pour les représentations syntaxique et sémantique des services, traduisant divers degrés de similitude. L‟analyse topologique de ces réseaux fait apparaître une structuration en composantes et une organisation interne des composantes autour de motifs élémentaires. Cette propriété permet une caractérisation à deux niveaux de la notion de communauté de services similaires, mettant ainsi en avant la souplesse de ce nouveau modèle d‟organisation. Ces travaux ouvrent de nouvelles perspectives dans les problématiques de l‟architecture orientée service.
75

Multi-points of view semantic enrichment of folksonomies

Limpens, Freddy 25 October 2010 (has links) (PDF)
Cette thèse, au croisement du Web Social et du Web Sémantique, vise à rapprocher folksonomies et représentations structurées de connaissances telles que les thesauri ou les ontologies informatiques. Les folksonomies, résultant de l'usage de plateformes de social tagging, souffrent d'un manque de précision qui les rend difficile à exploiter pour la naviguation. Cette thèse présente notre approche multi-points de vue de l'enrichissement sémantique des folksonomies. L'amorçage est assuré par des traitements automatiques qui permettent d'extraire des relations sémantiques entre tags grâce à la combinaison d'une méthode que nous avons mise au point et analysant les labels de tags, et de méthodes que nous avons adaptées et analysant la structure de folksonomies. Les contributions des utilisateurs sont décrites par notre modèle SRTag supportant les points de vue divergents, et capturées par une interface intégrant à la navigation des fonctionnalités de micro-édition de folksonomie. Les conflits entre points de vue sont détectés et solutionnés par un agent automatique dont les résultats sont ensuite exploités pour aider un utilisateur référent à maintenir une structuration globale et cohérente de la folksonomie, servant en retour pour enrichir chaque point de vue individuel avec les autres contributions tout en garantissant une cohérence locale. Notre méthode permet d'améliorer la navigation dans les systèmes de connaissances à base de tags, mais fournit aussi une base à des thesauri nourris par un processus bottom-up d'acquisition de connaissances.
76

Knowledge Representation meets DataBases for the sake of ontology-based data management

Goasdoué, François 11 July 2012 (has links) (PDF)
This Habilitation thesis outlines my research activities carried out as an Associate Professor at Univ. Paris-Sud and Inria Saclay Île-de-France. During this period, from 2003 to early 2012, my work was - and still is - at the interface between Knowledge Representation and Databases. I have mainly focused on ontology-based data management using the Semantic Web data models promoted by W3C: the Resource Description Framework (RDF) and the Web Ontology Language (OWL). In particular, my work has covered (i) the design, (ii) the optimization, and (iii) the decentralization of ontology-based data management techniques in these data models. This thesis briefly reports on the results obtained along these lines of research.
77

Modélisation sémantique des bases de données d'inventaires en cycle de vie

Bertin, Jean-Marie 25 June 2013 (has links) (PDF)
L'analyse des impacts environnementaux de la production de biens et de services est aujourd'hui devenue un enjeu majeur. L'analyse en cycle de vie est la méthode consacrée pour modéliser les impacts environnementaux des activités humaines. L'inventaire en cycle de vie, qui est l'une des étapes de cette méthode, consiste à décomposer les activités économiques en processus interdépendants. Chaque processus a des impacts environnementaux et la composition de ces processus nous donne l'impact cumulé des activités étudiées. Plusieurs entreprises et agences gouvernementales fournissent des bases de données d'inventaires en cycle de vie pour que les experts puissent réutiliser des processus déjà étudiés lors de l'analyse d'un nouveau système. L'audit et la compréhension de ces inventaires nécessite de s'intéresser à un très grand nombre de processus et à leurs relations d'interdépendance. Ces bases de données peuvent comporter plusieurs milliers de processus et des dizaines de milliers de relations de dépendance. Pour les experts qui utilisent les bases de données d'inventaire en cycle de vie, deux problèmes importants sont clairement identifiés : - organiser les processus pour avoir une meilleure compréhensibilité du modèle ; - calculer les impacts d'une modélisation (composition de processus) et, le cas échéant, détecter les raisons de la non convergence du calcul. Dans cette thèse, nous : - mettons en évidence de l'existence de similarités sémantiques entre les processus et leurs relations d'interdépendance et proposons une nouvelle approche pour modéliser les relations d'interdépendance entre les processus d'une base de données d'inventaire. Elle se base sur un étiquetage sémantique des processus à l'aide d'une ontologie et une modélisation multi-niveaux des relations d'interdépendance entre les processus. Nous étudions aussi deux approches déclaratives d'interaction avec ce modèle multi-niveau. - étudions les différentes méthodes de calcul des impacts basées sur des notions classiques d'algèbre linéaire et de théorie des graphes. Nous étudions aussi les conditions de non convergence de ces méthodes en présence de cycle dans le modèle des relations de dépendances. Un prototype implémentant cette approche a montré des résultats probants sur les cas étudiés. Nous avons réalisé une étude de cas de ce prototype sur les processus de production d'électricité aux États-Unis extraits de la base de données d'inventaire en cycle de vie de l'agence environnementale américaine. Ce prototype est à la base d'une application opérationnelle utilisée par l'entreprise.
78

Multi-providers location based services for mobile-tourism : a use case for location and cartographic integrations on mobile devices

Karam, Roula 26 September 2011 (has links) (PDF)
Les services géolocalisés (LBS) sont destinés à délivrer de l'information adéquate aux utilisateurs quelque soit le temps et l'endroit et ceci en se basant sur leur profil, contexte et position géographique. A travers n'importe quelle application dans ce domaine, par exemple m-tourisme, les utilisateurs souhaitent toujours recevoir une réponse rapide et précise en se déplaçant. Cependant, la qualité de service proposée par les fournisseurs cartographiques actuels (i.e. Google Maps, Bing, Yahoo Maps, Mappy ou Via Michelin) dépend de leurs données géographiques. En général, ces données sont stockées de plusieurs bases de données géographiques (BDG) dans le monde entier. D'autre part, le nombre croissant des différentes BDG couvrant la même zone géographique et la récupération des données/métadonnées non erronées pour un service quelconque, impliquent de nombreux raisonnements et de contrôles d'accès aux BDG afin de résoudre les ambiguïtés dues à la présence des objets homologues dupliqués sur l'écran mobile. Mon travail consiste à permettre cette intégration cartographique pour les applications mtourisme et ceci en récupérant les informations spatiales/non-spatiales (noms, positions géographiques, catégorie du service, détails sémantiques et symboles cartographiques) de plusieurs fournisseurs. Cependant, ceci peut conduire à visualiser des objets dupliqués pour le même point d'intérêt et causer des difficultés au niveau de la gestion des données. En outre, l'utilisateur sera dérouté par la présence de résultats multiples pour un même point. Donc, mon but ultime sera de générer automatiquement une carte unique intégrant plusieurs interfaces des fournisseurs sur laquelle les objets homologues seront intégrés avant de les visualiser sur l'écran mobile. Nos nouveaux concepts, basés sur certains algorithmes de fusion, sur l'ontologie pour assurer l'intégration au niveau sémantique et cartographique, sur l'orchestration des géo web services, sont implémentés dans des prototypes modulaires et évalués.
79

Annotation et recherche contextuelle des documents multimédias socio-personnels

Lajmi, Sonia 11 March 2011 (has links) (PDF)
L'objectif de cette thèse est d'instrumentaliser des moyens, centrés utilisateur, de représentation, d'acquisition, d'enrichissement et d'exploitation des métadonnées décrivant des documents multimédias socio-personnels. Afin d'atteindre cet objectif, nous avons proposé un modèle d'annotation, appelé SeMAT avec une nouvelle vision du contexte de prise de vue. Nous avons proposé d'utiliser des ressources sémantiques externes telles que GeoNames , et Wikipédia pour enrichir automatiquement les annotations partant des éléments de contexte capturés. Afin d'accentuer l'aspect sémantique des annotations, nous avons modélisé la notion de profil social avec des outils du web sémantique en focalisant plus particulièrement sur la notion de liens sociaux et un mécanisme de raisonnement permettant d'inférer de nouveaux liens sociaux non explicités. Le modèle proposé, appelé SocialSphere, construit un moyen de personnalisation des annotations suivant la personne qui consulte les documents (le consultateur). Des exemples d'annotations personnalisées peuvent être des objets utilisateurs (e.g. maison, travail) ou des dimensions sociales (e.g. ma mère, le cousin de mon mari). Dans ce cadre, nous avons proposé un algorithme, appelé SQO, permettant de suggérer au consultateur des dimensions sociales selon son profil pour décrire les acteurs d'un document multimédia. Dans la perspective de suggérer à l'utilisateur des évènements décrivant les documents multimédias, nous avons réutilisé son expérience et l'expérience de son réseau de connaissances en produisant des règles d'association. Dans une dernière partie, nous avons abordé le problème de correspondance (ou appariement) entre requête et graphe social. Nous avons proposé de ramener le problème de recherche de correspondance à un problème d'isomorphisme de sous-graphe partiel. Nous avons proposé un algorithme, appelé h-Pruning, permettant de faire une correspondance rapprochée entre les nœuds des deux graphes : motif (représentant la requête) et social. Pour la mise en œuvre, nous avons réalisé un prototype à deux composantes : web et mobile. La composante mobile a pour objectif de capturer les éléments de contexte lors de la création des documents multimédias socio-personnels. Quant à la composante web, elle est dédiée à l'assistance de l'utilisateur lors de son annotation ou consultation des documents multimédias socio-personnels. L'évaluation a été effectuée en se servant d'une collection de test construite à partir du service de médias sociaux Flickr. Les tests ont prouvé : (i) l'efficacité de notre approche de recherche dans le graphe social en termes de temps d'exécution ; (ii) l'efficacité de notre approche de suggestion des événements (en effet, nous avons prouvé notre hypothèse en démontrant l'existence d'une cooccurrence entre le contexte spatio-temporel et les événements) ; (iii) l'efficacité de notre approche de suggestion des dimensions sociales en termes de temps d'exécution.
80

Workflows conceptuels

Cerezo, Nadia 20 December 2013 (has links) (PDF)
Les workflows sont de plus en plus souvent adoptés pour la modélisation de simulations scientifiques de grande échelle, aussi bien en matière de données que de calculs. Ils profitent de l'abondance de sources de données et infrastructures de calcul distribuées. Néanmoins, la plupart des formalismes de workflows scientifiques restent difficiles à exploiter pour des utilisateurs n'ayant pas une grande expertise de l'algorithmique distribuée, car ces formalismes mélangent les processus scientifiques qu'ils modélisent avec les implémentations. Ainsi, ils ne permettent pas de distinguer entre les objectifs et les méthodes, ni de repérer les particularités d'une implémentation ou de l'infrastructure sous-jacente. Le but de ce travail est d'améliorer l'accessibilité aux workflows scientifiques et de faciliter leur création et leur réutilisation. Pour ce faire, nous proposons d'élever le niveau d'abstraction, de mettre en valeur l'expérience scientifique plutôt que les aspects techniques, de séparer les considérations fonctionnelles et non-fonctionnelles et de tirer profit des connaissances et du savoir-faire du domaine.Les principales contributions de ce travail sont : (i) un modèle de workflows scientifiques à structure flexible, sémantique et multi-niveaux appelé "Conceptual Workflow Model", qui permet aux utilisateurs de construire des simulations indépendamment de leur implémentation afin de se concentrer sur les objectifs et les méthodes scientifiques; et (ii) un processus de transformation assisté par ordinateur pour aider les utilisateurs à convertir leurs modèles de simulation de haut niveau en workflows qui peuvent être délégués à des systèmes externes pour exécution.

Page generated in 0.083 seconds