• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 150
  • 47
  • 37
  • Tagged with
  • 236
  • 236
  • 122
  • 120
  • 109
  • 93
  • 55
  • 36
  • 33
  • 31
  • 31
  • 30
  • 29
  • 29
  • 28
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Utilisation d'ontologies comme support à la recherche et à la navigation dans une collection de documents / ONTOLOGY BASED INFORMATION RETRIEVAL

Sy, Mohameth François 11 December 2012 (has links)
Les ontologies offrent une modélisation des connaissances d'un domaine basée sur une hiérarchie des concepts clefs de ce domaine. Leur utilisation dans le cadre des Systèmes de Recherche d'Information (SRI), tant pour indexer les documents que pour exprimer une requête, permet notamment d'éviter les ambiguïtés du langage naturel qui pénalisent les SRI classiques. Les travaux de cette thèse portent essentiellement sur l'utilisation d'ontologies lors du processus d'appariement durant lequel les SRI ordonnent les documents d'une collection en fonction de leur pertinence par rapport à une requête utilisateur. Nous proposons de calculer cette pertinence à l'aide d'une stratégie d'agrégation de scores élémentaires entre chaque document et chaque concept de la requête. Cette agrégation, simple et intuitive, intègre un modèle de préférences dépendant de l'utilisateur et une mesure de similarité sémantique associée à l'ontologie. L'intérêt majeur de cette approche est qu'elle permet d'expliquer à l'utilisateur pourquoi notre SRI, OBIRS, estime que les documents qu'il a sélectionnés sont pertinents. Nous proposons de renforcer cette justification grâce à une visualisation originale où les résultats sont représentés par des pictogrammes, résumant leurs pertinences élémentaires, puis disposés sur une carte sémantique en fonction de leur pertinence globale. La Recherche d'Information étant un processus itératif, il est nécessaire de permettre à l'utilisateur d'interagir avec le SRI, de comprendre et d'évaluer les résultats et de le guider dans sa reformulation de requête. Nous proposons une stratégie de reformulation de requêtes conceptuelles basée sur la transposition d'une méthode éprouvée dans le cadre de SRI vectoriels. La reformulation devient alors un problème d'optimisation utilisant les retours faits par l'utilisateur sur les premiers résultats proposés comme base d'apprentissage. Nous avons développé une heuristique permettant de s'approcher d'une requête optimale en ne testant qu'un sous-espace des requêtes conceptuelles possibles. Nous montrons que l'identification efficace des concepts de ce sous-espace découle de deux propriétés qu'une grande partie des mesures de similarité sémantique vérifient, et qui suffisent à garantir la connexité du voisinage sémantique d'un concept.Les modèles que nous proposons sont validés tant sur la base de performances obtenues sur des jeux de tests standards, que sur la base de cas d'études impliquant des experts biologistes. / Domain ontologies provide a knowledge model where the main concepts of a domain are organized through hierarchical relationships. In conceptual Information Retrieval Systems (IRS), where they are used to index documents as well as to formulate a query, their use allows to overcome some ambiguities of classical IRSs based on natural language processes.One of the contributions of this study consists in the use of ontologies within IRSs, in particular to assess the relevance of documents with respect to a given query. For this matching process, a simple and intuitive aggregation approach is proposed, that incorporates user dependent preferences model on one hand, and semantic similarity measures attached to a domain ontology on the other hand. This matching strategy allows justifying the relevance of the results to the user. To complete this explanation, semantic maps are built, to help the user to grasp the results at a glance. Documents are displayed as icons that detail their elementary scores. They are organized so that their graphical distance on the map reflects their relevance to a query represented as a probe. As Information Retrieval is an iterative process, it is necessary to involve the users in the control loop of the results relevancy in order to better specify their information needs. Inspired by experienced strategies in vector models, we propose, in the context of conceptual IRS, to formalize ontology based relevance feedback. This strategy consists in searching a conceptual query that optimizes a tradeoff between relevant documents closeness and irrelevant documents remoteness, modeled through an objective function. From a set of concepts of interest, a heuristic is proposed that efficiently builds a near optimal query. This heuristic relies on two simple properties of semantic similarities that are proved to ensure semantic neighborhood connectivity. Hence, only an excerpt of the ontology dag structure is explored during query reformulation.These approaches have been implemented in OBIRS, our ontological based IRS and validated in two ways: automatic assessment based on standard collections of tests, and case studies involving experts from biomedical domain.
92

LE BESOIN D'INFORMATION EN SITUATION D'ACHAT ET LE COMPORTEMENT D'INFORMATION FACE AU RAYON : UTILISATION ET EFFETS DU MEDIA DE COMMUNICATION ELECTRONIQUE INTERACTIVE

Dandouau, Jean-Claude 20 January 1999 (has links) (PDF)
L'approche traditionnelle du comportement d'achat suppose que la valeur de consommation découle de l'évaluation des caractéristiques techniques, fonctionnelles et symboliques du produit. Or une grande partie des travaux récents s'appuie sur une approche expérientielle faisant de la situation anticipée de la consommation ou d'usage et de la représentation de soi les éléments essentiels de la valeur de consommation. Cette thèse, consacrée au comportement d'information en situation d'achat, vise à concilier ces deux paradigmes jusqu'ici opposés. Une part de cette recherche procède à l'investigation du concept de besoin d'information. Il résulte, selon nous, de l'activation de deux schémas relatifs l'un à l'acquisition du produit, l'autre au contexte anticipé de consommation ou d'usage. Notre thèse postule qu'une représentation simultanée en termes de risque et de complexité perçus et d'aversion conduit l'acheteur à particulariser ces schémas. Alors que l'acheteur est souvent décrit comme instable et insaisissable, et totalement déterminé par la situation, notre thèse postule que le degré de généralité des schémas activés conduit à une certaine permanence du besoin d'information, transversale aux situations d'achat. L'autre part de cette thèse se consacre au comportement d'information à l'aide du média de communication électronique interactive. Nous montrons l'inadaptation des théories classiques de la communication à la spécificité de ce média. Partant de la thèse de la triple interactivité, nous postulons qu'il n'y a qu'une seule interactivité, celle avec soi-même, faite de nombreuses interactions avec le message, la source et le média. De là naît l'idée de l'effet psyché, reflet de l'acheteur avec lui-même, lorsque le média remplit certaines conditions de transparence. En soulignant l'importance de l'information préalable à la décision d'achat, notre recherche fournit une base de réflexion à la démarche de différenciation qualitative des enseignes de distribution.
93

Vers la conception de documents composites : extraction et organisation de l'information pertinente

Lamprier, Sylvain 05 December 2008 (has links) (PDF)
Au cours de ces dernières années, le domaine de la recherche d'information s'est élargi à la mise en place d'applications ne visant plus uniquement à aider l'utilisateur dans sa tâche de localisation des documents pertinents, mais cherchant à lui construire une réponse synthétique permettant de satisfaire ses besoins en information. Dans ce contexte, cette thèse se concentre sur la production d'une entité, appelée document composite, représentant un aperçu des différents types d'information que l'utilisateur pourra trouver, en rapport avec sa requête, dans le corpus interrogé. Après s'être interrogés sur le mode d'extraction et de sélection des fragments de texte à faire figurer dans ce document composite, l'étude réalisée nous a finalement conduits à la mise en place d'un algorithme multi-objectifs, de recherche du sous-ensemble de segments thématiques maximisant conjointement un critère de proximité à la requête et un critère de représentativité des thématiques abordées par les documents considérés. Outre la conception du document composite qui est l'objectif central de cette thèse, les contributions réalisées concernent le découpage des documents et son évaluation, les mesures de pertinence et de similarité des textes, l'impact que peut avoir l'individualisation des thématiques en recherche d'information, le mode d'évaluation des systèmes utilisant un clustering des résultats et enfin, la prise en considération de la requête dans les processus de clustering.
94

Modèles de Documents Vidéo basés sur le Formalisme des Graphes Conceptuels pour l'Indexation et la Recherche par le Contenu Sémantique

Charhad, Mbarek 28 November 2005 (has links) (PDF)
Les avancées technologiques dans le domaine du multimédia, associées à la généralisation de leur utilisation dans de nombreuses applications (archivages télévisuelles, vidéosurveillances, etc..), ont rendu possible le stockage des grandes collections de documents vidéo dans des systèmes informatiques. Pour permettre une exploitation efficace de ces collections, il est nécessaire de mettre en place des outils facilitant l'accès à leurs documents et la manipulation de ceux-ci. Une indexation par mots-clés (issus de la transcription de la parole et ou de sous-titre dans le document vidéo) est parfois possible. Cependant, l'utilisation de concepts peut améliorer les résultats de processus d'indexation et de recherche d'information parce qu'elle enlève les ambiguïtés entre les sens des mots-clés dus à la synonymie et l'homonymie. La précision de la description sera encore meilleure si, en plus des concepts non ambigus, des relations entre ces concepts sont indexées.<br />Les documents vidéo ont un caractère multimédia qui fait que la recherche par le contenu dans ceux-ci présente un certain nombre de spécificités. Par exemple, un concept donné (personne, objet...) peut être interprété de différentes manières : il peut être vu, il peut être entendu ou il peut être mentionné. Des combinaisons de ces cas peuvent également se produire. Naturellement, ces distinctions sont importantes pour l'utilisateur. Des requêtes impliquant le concept C comme par exemple : « rechercher les segments vidéos montrant une image de C » ou comme : « rechercher les segments vidéos dans lesquels on parle de C » sont susceptibles de produire des réponses tout à fait différentes. Dans le premier cas, on rechercherait C dans le contenu visuel tandis que dans le second, on rechercherait dans le contenu audio un segment dans la transcription duquel C est mentionné. <br />Cette étude s'inscrit dans un contexte de modélisation, indexation et recherche d'information multimédia. Au niveau théorique, notre contribution consiste à la proposition d'un modèle pour la représentation du contenu sémantique des documents vidéo. Ce modèle permet la prise en compte synthétique et intégrée des éléments d'informations issus de chacune des modalités (image, texte, son). L'instanciation de ce modèle est réalisée à l'aide du formalisme des graphes conceptuels. Le choix de ce formalisme est justifié par son expressivité et son adéquation au contexte d'indexation et de recherche d'information par le contenu.<br />Notre contribution au niveau expérimental consiste à l'implémentation (en partie) du prototype CLOVIS . Nous avons intégré le modèle proposé dans d'un système d'indexation et de recherche vidéo par le contenu pour évaluer ses apports en termes d'efficacité et de précision. <br />Mots-clés : Recherche d'information multimédia, indexation conceptuel, document vidéo, graphe conceptuel, ontologie.
95

Contribution à la définition de modèles de recherche d'information flexibles basés sur les CP-Nets

Boubekeur, Fatiha 01 July 2008 (has links) (PDF)
Ce travail de thèse adresse deux principaux problèmes en recherche d'information : (1) la formalisation automatique des préférences utilisateur, (ou la pondération automatique de requêtes) et (2) l'indexation sémantique. Dans notre première contribution, nous proposons une approche de recherche d'information (RI) flexible fondée sur l'utilisation des CP-Nets (Conditional Preferences Networks). Le formalisme CP-Net est utilisé d'une part, pour la représentation graphique de requêtes flexibles exprimant des préférences qualitatives et d'autre part pour l'évaluation flexible de la pertinence des documents. Pour l'utilisateur, l'expression de préférences qualitatives est plus simple et plus intuitive que la formulation de poids numériques les quantifiant. Cependant, un système automatisé raisonnerait plus simplement sur des poids ordinaux. Nous proposons alors une approche de pondération automatique des requêtes par quantification des CP-Nets correspondants par des valeurs d'utilité. Cette quantification conduit à un UCP-Net qui correspond à une requête booléenne pondérée. Une utilisation des CP-Nets est également proposée pour la représentation des documents dans la perspective d'une évaluation flexible des requêtes ainsi pondéreés. Dans notre seconde contribution, nous proposons une approche d'indexation conceptuelle basée sur les CP-Nets. Nous proposons d'utiliser le formalisme CP-Net comme langage d'indexation afin de représenter les concepts et les relations conditionnelles entre eux d'une manière relativement compacte. Les noeuds du CP-Net sont les concepts représentatifs du contenu du document et les relations entre ces noeuds expriment les associations conditionnelles qui les lient. Notre contribution porte sur un double aspect : d'une part, nous proposons une approche d'extraction des concepts en utilisant WordNet. Les concepts résultants forment les noeuds du CP-Net. D'autre part, nous proposons d'étendre et d'utiliser la technique de règles d'association afin de découvrir les relations conditionnelles entre les concepts noeuds du CP-Nets. Nous proposons enfin un mécanisme d'évaluation des requêtes basé sur l'appariement de graphes (les CP-Nets document et requête en l'occurrence).
96

Modélisation de la pertinence en recherche d'information : modèle conceptuel, formalisation et application

Denos, Nathalie 28 October 1997 (has links) (PDF)
Les systèmes de recherche d'information ont pour fonction de permettre à l'utilisateur d'accéder à des documents qui contribuent à résoudre le problème d'information qui motive sa recherche. Ainsi le système peut être vu comme un instrument de prédiction de la pertinence des documents du corpus pour l'utilisateur. Les indices traditionnellement utilisés par le système pour estimer cette pertinence sont de nature thématique, et sont fournis par l'utilisateur sous la forme d'un ensemble de mots-clés : la requête. Le système implémente donc une fonction de correspondance entre documents et requête qui modélise la dimension thématique de la pertinence. Cependant l'éventail des utilisations et des utilisateurs des systèmes va s'élargissant, de même que la nature des documents présents dans les corpus, qui ne sont plus seulement des documents textuels. Nous tirons deux conséquences de cette évolution. D'une part, l'hypothèse que le facteur thématique de pertinence est prépondérant (et donc seul sujet à modélisation dans les systèmes), ne tient plus. Les autres facteurs, nombreux, de la pertinence interviennent d'une manière telle qu'ils compromettent les performances des systèmes dans le contexte d'une utilisation réelle. Ces autres facteurs dépendent fortement de l'individu et de sa situation de recherche d'information, ce qui remet en cause la conception de la pertinence système comme une fonction de correspondance qui ne prend en compte que les facteurs de la pertinence qui ne dépendent pas de l'utilisateur. D'autre part, la nature de l'utilisation interactive du système contribue à définir la situation de recherche de l'utilisateur, et en cela participe aux performances du système de recherche d'information. Un certain nombre de caractéristiques de l'interaction sont directement liées à la modélisation de la pertinence système et à des préoccupations spécifiques à la problématique de la recherche d'information. Notre thèse s'appuie sur les travaux réalisés sur les facteurs de la pertinence pour un individu, pour définir un modèle de conception de la pertinence système qui prend en compte les facteurs qui relèvent de l'utilisation interactive du système et de la nécessité d'adaptation de la fonction de correspondance à la situation de recherche particulière dans laquelle l'utilisateur se trouve. Ainsi, nous définissons trois nouvelles fonctions du système de recherche d'information, en termes d'utilisation du système : permettre la détection de la pertinence des documents retrouvés, permettre la compréhension des raisons de leur pertinence système, et permettre de procéder à une reformulation du problème d'information dans le cadre d'un processus itératif de recherche. La notion de schéma de pertinence se substitue à celle de requête, en tant qu'interface entre la pertinence système et l'utilisateur. Ce schéma de pertinence intègre deux types de paramètres permettant l'adaptation du système à la situation de recherche : d'une part les paramètres sémantiques, qui recouvrent non seulement la dimension thématique de la pertinence mais aussi d'autres critères de pertinence liés aux caractéristiques indexées des documents, et d'autre part les paramètres pragmatiques qui prennent en compte les facteurs de la pertinence liés aux conditions dans lesquelles l'utilisateur réalise les tâches qui lui incombent dans l'interaction. Nous appliquons ce modèle de conception de la pertinence système dans le cadre d'une application de recherche d'images, dont le corpus est indexé de façon à couvrir plusieurs dimensions de la pertinence outre la dimension thématique. Notre prototype nous permet de montrer comment le système s'adapte en fonction des situations qui se présentent au cours d'une session de recherche.
97

Indexation et interrogation de chemins de lecture en contexte pour la recherche d'information structurée sur le web

Géry, Mathias 24 October 2002 (has links) (PDF)
L'explosion du Web représente un nouveau défi pour la Recherche d'Information (RI). La plupart des systèmes actuels d'accès à l'information sont basés sur des modèles classiques, qui ont été développés pour des documents textuels, atomiques et indépendants et qui ne sont pas adaptés au Web. La structure du Web est un aspect essentiel de la description de l'information. Les travaux qui utilisent cette structure pour la RI simplifient le modèle du Web en un graphe orienté, dont les noeuds sont des pages HTML et les arcs sont des liens hypertextes, sans tenir compte du type des liens. L'objectif de ce travail est de prendre en compte l'impact des liens lors de la phase d'indexation et à la phase d'interrogation d'un système de Recherche d'Information Structurée (SRIS). Le modèle de RI proposé est fondé sur un modèle d'hyperdocuments en contexte considérant quatre facettes de la description d'information sur le Web : le contenu, la structure hiérarchique, la lecture linéaire/déambulatoire et le contexte. Un hyperdocument est modélisé par un contenu au sens des documents structurés, un ensemble de chemins de lecture et un contexte (espace d'information accessible et espace d'information référençant). Un processus d'indexation spécifique est proposé pour chaque facette. L'évaluation de notre système SmartWeb montre l'intérêt de l'information accessible combinée avec le contenu. Puis, à l'aide de collections de test structurées construites automatiquement, nous montrons l'intérêt d'une indexation au niveau des documents structurés et des chemins de lecture. Le modêle est également implanté dans un SRIS complet, montrant ainsi la faisabilité de notre approche dans sa globalité et sur le Web. En particulier, le typage des liens est à la fois un des aspects les plus importants du modèle et une difficulté majeure de sa mise en oeuvre : nous montrons qu'il est possible d'extraire une structure hiérarchique du Web et d'identifier différentes granularités d'information.
98

MODELE DE GRAPHE ET MODELE DE LANGUE POUR LA RECONNAISSANCE DE SCENES VISUELLES

Pham, Trong-Ton 02 December 2010 (has links) (PDF)
Nous présentons une nouvelle méthode pour exploiter la relation entre différents niveaux de représentation d'image afin de compléter le modèle de graphe visuel. Le modèle de graphe visuel est une extension du modèle de langue classique en recherche d'information. Nous utilisons des régions d'images et des points d'intérêts (associées automatiquement à des concepts visuels), ainsi que des relations entre ces concepts, lors de la construction de la représentation sous forme de graphe. Les résultats obtenus sur catégorisation de la collection RobotVision de la compétition d'ImageCLEF 2009 et la collection STOIC-101 montrent que (a) la procédure de l'induction automatique des concepts d'une image est efficace, et (b) l'utilisation des relations spatiales entre deux niveaux de représentation, en plus de concepts, permet d'améliorer le taux de reconnaissance.
99

Vers l'OLAP sémantique pour l'analyse en ligne des données complexes

Loudcher, Sabine 29 June 2011 (has links) (PDF)
L'analyse en ligne OLAP permet une navigation interactive dans les données, une visualisation rapide de l'information et une exploration de la structure multidimensionnelle des données. Une des limites est de se restreindre à des aspects exploratoires et navigationnels. De plus, avec l'avènement des données complexes (données multi-format et/ou multi-structure et/ou multi-source et/ou multi-modale et/ou multi-version), l'analyse en ligne doit s'adapter à la nature spécifique de ces données tout en gardant l'esprit de l'OLAP. Les opérateurs OLAP sont définis pour des données classiques et sont souvent inadaptés quand il s'agit de données complexes par exemple composées de textes, images, son ou vidéos. Les limites de l'OLAP ainsi que la spécificité des données complexes nécessitent une évolution ou adaptation de l'OLAP. Il devient nécessaire de : (1) enrichir les possibilités de l'analyse OLAP en la dotant de nouvelles possibilités ; (2) créer une analyse en ligne adaptée aux données complexes ; (3) faire évoluer l'OLAP vers une analyse sémantique des données. Dans cette vaste problématique, nous choisissons de traiter les questions d'agrégation et visualisation des données complexes, de réorganisation du cube pour identifier des régions d'analyse intéressantes, et d'étendre l'OLAP à des possibilités d'explication et de prédiction. Pour toutes ces questions, nous essayons également de tenir compte de la sémantique véhiculée par les données. Pour apporter des premières solutions, nous orientons vers une combinaison des principes de l'OLAP, de la fouille de données et de la recherche d'information. Afin d'introduire une analyse explicative dans l'OLAP, nous faisons une recherche guidée de règles d'association dans le cube. Cela nous conduit à modifier la définition du support et de la confiance d'une règle. Les arbres de régression nous permettent de proposer à l'utilisateur de faire de la prédiction dans le cube et d'avoir ainsi une démarche de type What If Analysis. Pour l'analyse des données complexes, deux méthodes factorielles (AFC et ACM) rendent possible la visualisation des faits dans un cube et la détection de régions intéressantes en réorganisant les dimensions du cube. Nous proposons également une agrégation sémantique des faits et une nouvelle hiérarchie de dimension construite automatiquement grâce aux principes d'une méthode de classification (CAH). Nos propositions sont une première démonstration de la faisabilité de combiner l'OLAP à d'autres techniques comme la fouille de données et la recherche d'information pour faire significativement évoluer l'analyse en ligne et s'adapter aux données complexes. L'OLAP a commencé à s'adapter à leur structure et à leur spécificité (XOLAP - XML OLAP, SOLAP - spatial OLAP). Mais il faut aller au delà et nous pensons qu'un des défis est d'extraire et d'analyser (en ligne) la sémantique contenue dans les données complexes. Ce point constitue un véritable verrou scientifique mais qui est que partiellement abordé par la communauté scientifique. Il faudrait également identifier tous les problèmes posés par les données complexes et ce quels que soient leur nature, contexte ou spécificités. Nous voulons poursuivre nos travaux dans cette voie et faire évoluer l'OLAP vers une nouvelle génération d'analyse en ligne : l'OLAP sémantique. Les problèmes majeurs à traiter seront comment : (1) modéliser toutes les formes de données complexes, leur sémantique et leurs liens ; (2) analyser en ligne les données complexes ; (3) Intégrer les connaissances de l'utilisateur dans le processus de l'analyse ?
100

Détection de dérivation de texte

Poulard, Fabien 24 March 2011 (has links) (PDF)
L'Internet permet la production et la diffusion de contenu sans effort et à grande vitesse. Cela pose la question du contrôle de leur origine. Ce travail s'intéresse à la détection des liens de dérivation entre des textes. Un lien de dérivation unit un texte dérivé et les textes préexistants à partir desquels il a été écrit. Nous nous sommes concentré sur la tâche d'identification des textes dérivés étant donné un texte source, et ce pour différentes formes de dérivation. Notre première contribution consiste en la définition d'un cadre théorique posant les concepts de la dérivation ainsi qu'un modèle mulitidimensionnel cadrant les différentes formes de dérivation. Nous avons ensuite mis en place un cadre expérimental constitué d'une infrastructure logicielle libre, de corpus d'évaluation et d'un protocole expérimental inspiré de la RI. Les corpus Piithie et Wikinews que nous avons développé sont à notre connaissance les seuls corpus en français pour la détection de dérivation. Finalement, nous avons exploré différentes méthodes de détection fondées sur l'approche par signature. Nous avons notamment introduit les notions de singularité et d'invariance afin de guider le choix des descripteurs utilisés pour la modélisation des textes en vue de leur comparaison. Nos résultats montrent que le choix motivé des descripteurs, linguistiques notamment, permet de réduire la taille de la modélisation des textes, et par conséquence des coûts de la méthode, tout en offrant des performances comparables à l'approche état de l'art beaucoup plus volumineuse.

Page generated in 0.0224 seconds