• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 102
  • 30
  • 16
  • Tagged with
  • 150
  • 53
  • 51
  • 47
  • 42
  • 41
  • 29
  • 28
  • 27
  • 24
  • 21
  • 19
  • 18
  • 18
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Etude itérative des liens entre utilisabilité et acceptabilité d'un dispositif de saisie et de reconnaissance de l'écriture manuscrite

Deconde, Guillaume 09 April 2009 (has links) (PDF)
Les interfaces de saisie et de reconnaissance automatique d'écriture manuscrite sur Pocket PC, bien que témoignant de performances théoriques élevées (McKenzie, 2002), ne sont pourtant pas jugés utilisables, et donc, acceptables, par leurs utilisateurs qui leur préfèrent le clavier virtuel (Ortelli, 2003, Költringer & Grechenig, 2004). Notre travail vise à comprendre ce problème d'acceptabilité, et s'articule autour de deux axes. Le premier consiste à améliorer la machine (ergonomie) tandis que le second consiste à comprendre l'utilisateur (efficience mentale et attitudes). Nous proposons tout d'abord une série de deux expériences et un test utilisateur dont le but est d'améliorer l'ergonomie d'une interface de saisie et de reconnaissance d'écriture manuscrite (DIGIME, développée en partenariat avec l'IRISA, Institut de Recherche en Informatique et Systèmes aléatoires), et ce afin d'en améliorer l'utilisabilité. Pour ce faire, nous mettons à contribution les modèles de la charge cognitive (Sweller, 1991), du format de présentation des illustrations (Mayer, 2001), ainsi que des critères ergonomiques (Bastien & Scapin, 2001). Les améliorations obtenues au niveau de l'ergonomie (expé 1) et du didacticiel (expé 2) ne s'avèrent pas suffisantes pour concurrencer les méthodes de saisies alternatives (expé 3). Par conséquent, dans un second temps, nous mettons en place trois autres expériences (dont un test de perception) qui tentent de mettre en relation processus rédactionnels, charge mentale (Kellogg, 1996) et acceptabilité (Davis, 1989). Les résultats montrent que s'il est vain de prendre en compte les avis des participants sans leur performance (expé 4), l'efficience mentale de l'écriture ne permet pas d'envisager de prévoir l'acceptabilité de DIGIME, de même que tout autre jugement porté sur cette interface (expé 5 et 5 bis). Ce cycle itératif de conception nous permet néanmoins de conclure que le défaut d'utilisabilité des logiciels de reconnaissance d'écriture est dû à un problème d'apprenabilité. L'acceptabilité s'en ressent, principalement du fait de la concurrence des claviers virtuels dont le fonctionnement, calqué sur les claviers matériels, est connu du plus grand nombre
42

Fusion non-linéaire appliquée aux voies pilote et données du signal GPS L2C

Azmani, Monir 20 December 2010 (has links) (PDF)
Le nouveau signal GPS L2C contient sur une même porteuse une voie pilote et une voie de données. Il est proposé dans cette thèse des opérateurs de fusion non-linéaire, pour estimer les décalages du code et les informations de retard de phase obtenus sur ces deux voies. De plus nous proposons une nouvelle architecture de poursuite basée sur des boucles ouvertes intégrant des estimateurs et détecteurs de ruptures conjoints. En effet, l'évolution du discriminant obtenu par une boucle de poursuite du code ouverte, est linéaire par morceaux. Nous proposons dans ce cas un estimateur de ruptures intégrant un nouvel opérateur de fusion non-linéaire qui utilise une information a priori sur le paramètre à estimer. Cette information a priori permet de diminuer la corrélation entre les différentes observations et ainsi de diminuer l'erreur quadratique moyenne des mesures fusionnées. La boucle de poursuite ouverte du retard de phase, fournit une mesure angulaire du déphasage du signal GPS reçu. Dans ce contexte nous avons étendu les techniques de fusion et de filtrage d'état Bayésien de la statistique linéaire à l'analyse des données circulaires pour l'estimation du déphasage. Nous proposons un nouvel opérateur de fusion angulaire, un filtre récursif circulaire et un estimateur de rupture de moyennes dans un processus circulaire stationnaire par morceaux. Les algorithmes proposés permettent de réaliser une intégration longue des valeurs cohérentes du discriminant et d'améliorer ainsi la localisation à la milliseconde d'un récepteur mobile.
43

Accès sémantique aux bases de données documentaires. Techniques symboliques de traitement automatique du langage pour l'indexation thématique et l'extraction d'informations temporelles

Kevers, Laurent 31 January 2011 (has links) (PDF)
Dans le contexte actuel d'une société et d'une économie centrées sur l'information, l'accès à la masse grandissante de documents électroniques est devenu un enjeu capital. De nombreux outils de recherche d'informations se contentent cependant d'un scénario de recherche classique, basé sur les mots. Pourtant, la relation entre un concept et son expression ne se limite pas toujours à un lien unique. Ainsi, un concept peut souvent être désigné par plusieurs expressions (« chômeur » et « demandeur d'emploi »), et inversement, un mot peut aussi parfois désigner plusieurs concepts différents (« carotte » en tant que légume ou en géologie). Afin de gérer cette difficulté, il peut être intéressant de représenter les documents non plus dans un espace de mots, mais dans un espace de concepts. Dans cette thèse, nous proposons trois façons d'apporter des éléments de sens à la représentation des documents : une méthode de classification supervisée (semi-)automatique de documents, la prise en compte de manière particulière de certains éléments d'informations, comme le temps, et finalement un système d'indexation thématico-temporel qui montre l'intérêt, et les perspectives en termes applicatifs, de cette approche multidimensionnelle et sémantique de l'accès à l'information.
44

Analyse de structures répétitives dans les séquences musicales / Repetitive structure analysis in music sequences

Martin, Benjamin 12 December 2012 (has links)
Cette thèse rend compte de travaux portant sur l’inférence de structures répétitives à partir du signal audio à l’aide d’algorithmes du texte. Son objectif principal est de proposer et d’évaluer des algorithmes d’inférence à partir d’une étude formelle des notions de similarité et de répétition musicale.Nous présentons d’abord une méthode permettant d’obtenir une représentation séquentielle à partir du signal audio. Nous introduisons des outils d’alignement permettant d’estimer la similarité entre de telles séquences musicales, et évaluons l’application de ces outils pour l’identification automatique de reprises. Nous adaptons alors une technique d’indexation de séquences biologiques permettant une estimation efficace de la similarité musicale au sein de bases de données conséquentes.Nous introduisons ensuite plusieurs répétitions musicales caractéristiques et employons les outils d’alignement pour identifier ces répétitions. Une première structure, la répétition d’un segment choisi, est analysée et évaluée dans le cadre dela reconstruction de données manquantes. Une deuxième structure, la répétition majeure, est définie, analysée et évaluée par rapport à un ensemble d’annotations d’experts, puis en tant qu’alternative d’indexation pour l’identification de reprises.Nous présentons enfin la problématique d’inférence de structures répétitives telle qu’elle est traitée dans la littérature, et proposons notre propre formalisation du problème. Nous exposons alors notre modélisation et proposons un algorithme permettant d’identifier une hiérarchie de répétitions. Nous montrons la pertinence de notre méthode à travers plusieurs exemples et en l’évaluant par rapport à l’état de l’art. / The work presented in this thesis deals with repetitive structure inference from audio signal using string matching techniques. It aims at proposing and evaluating inference algorithms from a formal study of notions of similarity and repetition in music.We first present a method for representing audio signals by symbolic strings. We introduce alignment tools enabling similarity estimation between such musical strings, and evaluate the application of these tools for automatic cover song identification. We further adapt a bioinformatics indexing technique to allow efficient assessments of music similarity in large-scale datasets. We then introduce several specific repetitive structures and use alignment tools to analyse these repetitions. A first structure, namely the repetition of a chosen segment, is retrieved and evaluated in the context of automatic assignment of missingaudio data. A second structure, namely the major repetition, is defined, retrieved and evaluated regarding expert annotations, and as an alternative indexing method for cover song identification.We finally present the problem of repetitive structure inference as addressed in literature, and propose our own problem statement. We further describe our model and propose an algorithm enabling the identification of a hierarchical music structure. We emphasize the relevance of our method through several examples and by comparing it to the state of the art.
45

Vieillissement cognitif et connaissances antérieures dans la recherche d'informations : étude des processus cognitifs et implications ergonomiques / Cognitive aging and prior knowledge in information search : cognitive processes involed and ergonomics implications

Sanchiz, Mylène 04 December 2017 (has links)
Rechercher de l’information sur Internet avec un moteur de recherche est une activité complexe qui exige des utilisateurs un grand nombre de traitements. Les travaux de recherche sur les effets du vieillissement en RI ont montré que les utilisateurs âgés ont de moins bonnes performances, passent plus de temps à évaluer les pages de résultats du moteur de recherche et reformulent moins que les jeunes. Ces difficultés seraient dues au déclin des habiletés cognitives fluides comme la flexibilité cognitive, la vitesse de traitement ou le rafraichissement en mémoire de travail. Pour comprendre comment le vieillissement cognitif affecte l’activité de RI, nos travaux ont investigué les stratégies de recherche élaborées par les utilisateurs jeunes et âgés ainsi que les processus cognitifs impliqués. La première partie de ce travail s’est attaché à étudier, au travers de 2 expérimentations, comment les connaissances antérieures peuvent soutenir l’activité de recherche des utilisateurs plus âgés et les aider à répondre aux exigences de la RI selon le niveau de complexité des tâches de recherche. La deuxième partie du travail de recherche a investigué le rôle de deux dispositifs d’aide à la RI : l’un maximisant les effets bénéfiques des connaissances antérieures par un dispositif de pré-activation (étude 3), et l’autre soutenant le maintien du but en mémoire de travail (étude 4). Nos résultats ont montré que les utilisateurs plus âgés ont davantage de difficultés que les jeunes à évaluer les pages de résultats du moteur de recherche et à reformuler leurs requêtes (ils produisent moins de nouveaux mots clés et utilisent plus de mots clés issus des problèmes de recherche). En outre, la phase initiale de l’activité de recherche s’est avérée être plus critique pour les adultes âgés qui produisent des requêtes initiales moins élaborées et passent plus de temps sur la première page de résultats du moteur de recherche. Les connaissances antérieures sur le domaine peuvent toutefois soutenir le niveau d’élaboration des requêtes des utilisateurs plus âgés et améliorer les stratégies de recherche. Par ailleurs, pré-activer les connaissances antérieures peut soutenir l’élaboration de stratégies de recherche descendantes et améliorer le contenu sémantique des requêtes des âgés (particulièrement dans un domaine pour lequel ils ont de faibles connaissances antérieures). Enfin, l’outil d’aide soutenant le maintien du but en mémoire de travail favorise des stratégies de recherche plus flexibles en améliorant la reformulation des requêtes (temps de reformulation plus courts) et en aidant l’exploration en début d’activité. Ces travaux de recherche posent les bases d’un nouveau modèle cognitif de l’activité des RI pour les utilisateurs plus âgés. / Searching for information with a search engine is a complex activity that requires users to perform a series of cognitive processes. Prior works showed that older users can have lower search performance, they spent more time on the search engine result pages and they produce fewer queries than young ones. Older users’ difficulties are mainly caused by the age-related decline of fluid abilities such as cognitive flexibility, processing speed or update in working memory. To understand the effects of aging on information search with a search engine, we studied the search strategies elaborated and the cognitive processes involved by young and older adults. The first part of the present work investigated how prior knowledge about the search topic can support older users’ on-line search behavior and help them deal with the search task complexity (2 experiments). The second part of our work analyzed the role of two information search support tools. One tool aimed at optimizing the benefits of domain knowledge by pre-activating prior knowledge (experiment 3) whereas the other aimed at supporting search goal refreshing in working memory (experiment 4). Results showed that older users had more difficulties evaluating the search engine results pages and reformulating than young ones (i.e. they produced fewer new keywords and used more keywords extracted from the search problem statement in their queries). The initial stage of the search represented a challenge for older users who formulated initial queries that were less elaborate and spent longer dwell time on the first search engine page than young ones. Prior knowledge can improve older users’ reformulation and support more elaborate search strategies. In addition, pre-activating prior knowledge can foster top-down search strategies and improve the semantic content of the queries produced by older users (especially in a domain for which they have low prior knowledge). The support tool helping search goal refreshing in working memory fostered more flexible search strategies and improved reformulation (i.e. reduced the time needed by older users to reformulate). Eventually, our research work led us to elaborate a new cognitive model of information search with a search engine that takes into account the role of aging.
46

Visualisation de données dynamiques et complexes : des séries temporelles hiérarchiques aux graphes multicouches / Visualization of Dynamic and Complex Data : from Hierarchical Time Series to Multilayer Graphs

Cuenca Pauta, Erick 12 November 2018 (has links)
L'analyse de données de plus en plus complexes, volumineuses et issues de différentes sources (e.g. internet, médias sociaux, etc.) est une tâche difficile. Elle reste cependant cruciale dans de très nombreux domaines d'application. Elle implique, pour pouvoir en extraire des connaissances, de mieux comprendre la nature des données, leur évolution ou les nombreuses relations complexes qu'elles peuvent contenir. La visualisation d'informations s'intéresse aux méthodes de représentations visuelles et interactives permettant d'aider un utilisateur à extraire des connaissances. C'est dans ce contexte que se situe le travail présenté dans ce mémoire. Dans un premier temps, nous nous intéressons à la visualisation de longues séries temporelles hiérarchiques. Après avoir analysé les différentes approches existantes, nous présentons le système MultiStream permettant de visualiser, explorer et comparer l'évolution de séries organisées dans une structure hiérarchique. Nous illustrons son utilisation par deux exemples d'utilisation : émotions exprimées dans des médias sociaux et évolution des genres musicaux. Dans un second temps nous abordons la problématique de données complexes modélisées sous la forme de graphes multicouches (différentes types d'arêtes peuvent relier les n÷uds). Plus particulièrement nous nous intéressons au requêtage visuel de graphes volumineux en présentant VERTIGo un système qui permet de construire des requêtes, d'interroger un moteur spécifique, de visualiser/explorer les résultats à différentes niveaux de détail et de suggérer de nouvelles extensions de requêtes. Nous illustrons son utilisation à l'aide d'un graphe d'auteurs provenant de différentes communautés. / The analysis of data that is increasingly complex, large and from different sources (e.g. internet, social medias, etc.) is a dificult task. However, it remains crucial for many fields of application. It implies, in order to extract knowledge, to better understand the nature of the data, its evolution or the many complex relationships it may contain. Information visualization is about visual and interactive representation methods to help a user to extract knowledge. The work presented in this document takes place in this context. At first, we are interested in the visualization of large hierarchical time series. After analyzing the different existing approaches, we present the MultiStream system for visualizing, exploring and comparing the evolution of the series organized into a hierarchical structure. We illustrate its use by two examples: emotions expressed in social media and the evolution of musical genres. In a second time, we tackle the problem of complex data modeled in the form of multilayer graphs (different types of edges can connect the nodes). More specifically, we are interested in the visual querying of large graphs and we present VERTIGo, a system which makes it possible to build queries, to launch them on a specific engine, to visualize/explore the results at different levels of details and to suggest new query extensions. We illustrate its use with a graph of co-authors from different communities.
47

contrôle et implantation des systèmes répartis de fusion d'informations

Passalacqua, Olivier 02 December 2009 (has links) (PDF)
La fusion d'informations est une discipline dont on retrouve des applications dès lors qu'il est nécessaire de regrouper des informations potentiellement imprécises ou incertaines. Initialement réalisée de façon mentale, la fusion d'informations nécessite à présent une mise en œuvre sur un support d'exécution informatisé, dénommé système de fusion, dont les évolutions technologiques ont guidée la répartition des ressources selon des contraintes géographiques, physiques et de sécurité. Cette thèse présente une étude du contrôle des systèmes répartis de fusion d'informations. Elle propose notamment un système de contrôle capable d'adapter l'utilisation des ressources disponibles au processus de fusion (PF) mis en œuvre, assez générique pour permettre l'expression des modèles de fusion basés sur des graphes de flot de données. Cinq tâches de contrôle sont dédiées à l'accomplissement d'un sous-objectif: la recherche d'une répartition des éléments du PF, le déploiement effectif d'un PF sur un ensemble variable de ressources réparties, l'analyse des performances du système, la surveillance du système pour détecter l'ajout de ressources,ou les occurrences d'erreurs et le déclanchement d'une modification de la répartition, soit pour en améliorer les performances, soit pour maintenir l'exécution du processus. L'ensemble du système de contrôle tire profit des ressources réparties par un mécanisme bio-inspiré, dans lequel la place de chaque agent est guidée par sa puissance de calcul. A titre expérimental, un système de fusion d'informations nommé eZFusion, implémentant les tâches de déploiement et d'analyse des performances, a été réalisé sur un réseau de plate-formes OSGI.
48

SARIPOD : Système multi-Agent de Recherche Intelligente POssibiliste de Documents Web

Bilel, Elayeb 26 June 2009 (has links) (PDF)
La présente thèse de doctorat en informatique propose un modèle pour une recherche d'information intelligente possibiliste des documents Web et son implémentation. Ce modèle est à base de deux Réseaux Petits Mondes Hiérarchiques (RPMH) et d'un Réseau Possibiliste (RP) : Le premier RPMH consiste à structurer les documents retrouvés en zones denses de pages Web thématiquement liées les unes aux autres. Nous faisons ainsi apparaître des nuages denses de pages qui traitent d'un sujet et des sujets connexes (assez similaires sémantiquement) et qui répondent toutes fortement à une requête. Le second RPMH est celui qui consiste à ne pas prendre les mots-clés tels quels mais à considérer une requête comme multiple en ce sens qu'on ne cherche pas seulement le mot-clé dans les pages Web mais aussi les substantifs qui lui sont sémantiquement proches. Les Réseaux Possibilistes combinent les deux RPMH afin d'organiser les documents recherchés selon les préférences de l'utilisateur. En effet, l'originalité du modèle proposé se décline selon les trois volets suivants qui synthétisent nos contributions : Le premier volet s'intéresse au processus itératif de la reformulation sémantique de requêtes. Cette technique est à base de relations de dépendance entre les termes de la requête. Nous évaluons notamment les proximités des mots du dictionnaire français « Le Grand Robert » par rapport aux termes de la requête. Ces proximités sont calculées par le biais de notre approche de recherche des composantes de sens dans un RPMH de dictionnaire de mots par application d'une méthode basée sur le dénombrement des circuits dans le réseau. En fait, l'utilisateur du système proposé choisit le nombre de mots sémantiquement proches qu'il désire ajouter à chaque terme de sa requête originelle pour construire sa requête reformulée sémantiquement. Cette dernière représente la première partie de son profil qu'il propose au système. La seconde partie de son profil est constituée des choix des coefficients de pertinence possibilistes affectés aux entités logiques des documents de la collection. Ainsi, notre système tient compte des profils dynamiques des utilisateurs au fur et à mesure que ces derniers utilisent le système. Ce dernier est caractérisé par son intelligence, son adaptativité, sa flexibilité et sa dynamicité. Le second volet consiste à proposer des relations de dépendance entre les documents recherchés dans un cadre ordinal. Ces relations de dépendance entre ces documents traduisent les liens sémantiques ou statistiques évaluant les distributions des termes communs à des paires ou ensembles de documents. Afin de quantifier ces relations, nous nous sommes basés sur les calculs des proximités entres ces documents par application d'une méthode de dénombrement de circuits dans le RPMH de pages Web. En effet, les documents peuvent ainsi être regroupés dans des classes communes (groupes de documents thématiquement proches). Le troisième volet concerne la définition des relations de dépendance, entre les termes de la requête et les documents recherchés, dans un cadre qualitatif. Les valeurs affectées à ces relations traduisent des ordres partiels de préférence. En fait, la théorie des possibilités offre deux cadres de travail : le cadre qualitatif ou ordinal et le cadre quantitatif. Nous avons proposé notre modèle dans un cadre ordinal. Ainsi, des préférences entre les termes de la requête se sont ajoutées à notre modèle de base. Ces préférences permettent de restituer des documents classés par préférence de pertinence. Nous avons mesuré aussi l'apport de ces facteurs de préférence dans l'augmentation des scores de pertinence des documents contenant ces termes dans le but de pénaliser les scores de pertinence des documents ne les contenant pas. Pour la mise en place de ce modèle nous avons choisi les systèmes multi-agents. L'avantage de l'architecture que nous proposons est qu'elle offre un cadre pour une collaboration entre les différents acteurs et la mise en œuvre de toutes les fonctionnalités du système de recherche d'information (SRI). L'architecture s'accorde parfaitement avec le caractère intelligent possibiliste et permet de bénéficier des capacités de synergie inhérente entre les différentes composantes du modèle proposé. Dans le présent travail, nous avons donc pu mettre en exergue à travers les expérimentations effectuées l'intérêt de faire combiner les deux RPMH via un réseau possibiliste dans un SRI, ce qui permet d'enrichir le niveau d'exploration d'une collection. Ce dernier n'est pas limité aux documents mais l'étend en considérant les requêtes. En effet, la phase de reformulation sémantique de requête permet à l'utilisateur de profiter des autres documents correspondants aux termes sémantiquement proches des termes de la requête originelle. Ces documents peuvent exister dans d'autres classes des thèmes. En conséquence, une reclassification proposée par le système s'avère pertinente afin d'adapter les résultats d'une requête aux nouveaux besoins des utilisateurs.
49

Structuration de collections d'images par apprentissage actif crédibiliste

Goëau, Hervé 25 May 2009 (has links) (PDF)
L'indexation des images est une étape indispensable pour valoriser un fond d'archive professionnel ou des collections d'images personnelles. Le "documentaliste" se doit de décrire précisément chaque document collecté dans la perspective de le retrouver. La difficulté est alors d'interpréter les contenus visuels et de les associer entre eux afin de couvrir différentes catégories qui peuvent être souvent très subjectives. Dans ce travail, nous nous inspirons du principe de l'apprentissage actif pour aider un utilisateur dans cette tâche de structuration de collections d'images. A partir de l'analyse des contenus visuels des images, différentes stratégies de sélection active sont développées afin d'aider un utilisateur à identifier et cerner des catégories pertinentes selon son point de vue. Nous proposons d'exprimer ce problème de classification d'images avec apprentissage actif dans le cadre du Modèle des Croyances Transférables (MCT). Ce formalisme facilite la combinaison, la révision et la représentation des connaissances que l'on peut extraire des images et des classes existantes à un moment donné. La méthode proposée dans ce cadre permet ainsi une représentation détaillée de la connaissance, notamment en représentant explicitement les cas d'appartenances à aucune ou à de multiples catégories, tout en quantifiant l'incertitude (liée entre autre au fossé sémantique) et le conflit entrainé par l'analyse des images selon différentes modalités (couleurs, orientations). Une interface homme-machine a été développée afin de valider notre approche sur des jeux de tests de référence, des collections d'images personnelles et des photographies professionnelles issues de l'Institut National de l'Audiovisuel. Une évaluation a été conduite auprès d'utilisateurs professionnels et a montré des résultats très positifs en termes d'utilité, d'utilisabilité et de satisfaction.
50

Représentation de collections de documents textuels : application à la caractéristique thématique

Mokrane, Abdenour 17 November 2006 (has links) (PDF)
Ce travail de thèse s'inscrit dans le contexte d'extraction de connaissances à partir de documents textuels, appelé Fouille de textes (FdT) ou Text Mining (TM). Ce mémoire s'articule autour des problématiques liées à la modélisation de documents et la représentation de connaissances textuelles. Il s'intéresse à des collections de documents qui abordent des thématiques différentes. Le mémoire s'attache à élaborer un modèle de représentation et un système permettant d'extraire automatiquement des informations sur les différentes thématiques abordées mais également des mécanismes offrant la possibilité d'avoir des aperçus sur les contenus. Il est montré que les approches basées sur les associations de termes sont adaptées à ce contexte. Cependant, ces approches souffrent de certaines lacunes liées au choix du modèle et de la connaissance à retenir. Pour l'élaboration du modèle de représentation, le choix porte sur l'extension de l'approche d'association de termes. A cet effet, la notion de contexte est étudiée et un nouveau critère appelé « partage de contextes » est défini. Via ce critère, il est possible de détecter des liens entre termes qui n'apparaîtraient pas autrement. L'objectif est de représenter le plus de connaissances possibles. Ces dernières sont exploitées pour une meilleure représentation du contenu et des informations enfouies dans les textes. Un système appelé IC-DOC est réalisé, ce dernier met en oeuvre le modèle de représentation dans un nouvel environnement d'extraction de connaissances à partir de documents textuels. Dans un contexte de veille scientifique, la proposition de ce type de systèmes devient indispensable pour extraire et visualiser de manière automatique l'information contenue dans les collections de documents textuels. L'originalité du système IC-DOC est de tirer profit du modèle de représentation proposé. Une série d'expérimentations et de validations sur divers jeux de données sont réalisées via le système IC-DOC. Deux applications sont considérées. La première s'intéresse à la caractérisation thématique et la seconde étend la première pour une cartographie visuelle de connaissances textuelles.

Page generated in 0.1961 seconds