• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 150
  • 47
  • 37
  • Tagged with
  • 236
  • 236
  • 122
  • 120
  • 109
  • 93
  • 55
  • 36
  • 33
  • 31
  • 31
  • 30
  • 29
  • 29
  • 28
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Indexation symbolique d'images : une approche basée sur l'apprentissage non supervisé de régularités

Bissol, Stéphane 13 October 2005 (has links) (PDF)
Ce travail porte sur l'indexation automatique de photographies personnelles par des concepts visuels de haut niveau d'abstraction. Nous argumentons en faveur d'une approche basée sur l'apprentissage non supervisé, en mettant en avant les limites de l'apprentissage supervisé. Nous proposons un paradigme d'apprentissage non supervisé basé sur deux types de régularités, correspondant respectivement aux notions de structure et de similarité. Ces régularités sont apprises à partir d'un flux d'informations visuelles et constituent les nœuds d'un réseau grandissant. Les données d'apprentissage sont recodées en termes des connaissances déjà acquises. Des expérimentations sur des données réelles et synthétisées montrent que notre approche permet de créer une représentation des données pertinente, engendrant une indexation de meilleure qualité. Ces expérimentations très prometteuses permettent d'esquisser des perspectives ambitieuses.
52

Extraction et impact des connaissances sur les performances des systèmes de recherche d'information

Haddad, Mohamed Hatem 24 September 2002 (has links) (PDF)
Dans un contexte riche d'information, un système de recherche d'information doit être capable de trouver les meilleurs résultats possibles dans un océan d'information. Notre étude s'intéresse aux connaissances qui peuvent être extraites du contenu textuel des documents en associant la finesse d'analyse d'une approche linguistique (extraction et structuration) à la capacité d'une approche statistique de traiter de gros corpus. L'approche statistique se base sur la fouille de données textuelles et principalement la technique de règles d'association. L'approche linguistique se base sur les syntagmes nominaux que nous considérons comme des entités textuelles plus susceptibles de représenter l'information contenue dans le texte que les termes simples. Elle explicite les contraintes linguistiques nécessaires à l'extraction des syntagmes nominaux et défini les rapports syntagmatiques entre les composantes d'un syntagme nominal. Ces relations syntagmatiques sont exploitées pour la structuration des syntagmes nominaux. Une mesure, appelée ``quantité d'information'', est proposée pour évaluer le pouvoir évocateur de chaque syntagme nominal, filtrer et comparer les syntagmes nominaux. Le modèle proposé démontre que la combinaison d'une approche statistique et d'une approche linguistique affine les connaissances extraites et améliore les performances d'un système de recherche d'information.
53

Approches catégoriques et non catégoriques en linguistique des corpus spécialisés, application à un système de filtrage d'information

Balvet, Antonio 11 December 2002 (has links) (PDF)
Cette thèse s'inscrit dans le cadre des études linguistiques sur corpus, centrées sur les productions effectives, dans des domaines de spécialité. La thèse reprend les présupposés théoriques et les méthodes des approches guidées par les observables linguistiques, afin d'extraire des corpus étudiés des unités lexicales complexes fortement corrélées à des sous-thèmes clairement identifiés. Ainsi, la thèse aboutit à une description et à un recensement de ces unités lexicales complexes, appelées signatures thématiques, pour un sous-thème du domaine financier : les cessions et acquisitions de sociétés. Le travail d'analyse des corpus, faisant principalement appel à une approche distributionnelle classique, tente également d'évaluer l'apport d'approches non catégoriques et non logiques (essentiellement des approches statistiques) dans la détection de signatures thématiques. Les signatures identifiées servent de base à un système de filtrage d'information, déployé en milieu industriel : le système CORAIL, issu d'un projet de recherches financé par le Ministère de la Recherche et de l'Industrie.
54

Étude ergonomique pour la consultation sur écran de petite taille de la documentation de maintenance aéronautique

Zafiharimalala, Herimanana 24 March 2011 (has links) (PDF)
Cette étude est fondée sur deux constats dans le domaine de la maintenance aéronautique : l'utilisation non systématique de la documentation de maintenance aéronautique (DMA) malgré la prescription légale et l'évolution technologique qui a entraîné l'introduction de l'utilisation de l'appareil à petit écran ou mobile pour la consultation et la recherche d'information pour la réalisation de la tâche de maintenance. L'objectif de cette étude est double : identifier les raisons de la sous utilisation de la DMA et contribuer à la conception d'une documentation de maintenance adaptée à la fois aux supports mobiles (PDA), à l'utilisateur et au contexte de la maintenance aéronautique. Des tests d'utilisabilité ont été menés et testaient l'hypothèse selon laquelle l'utilisation du petit écran a un effet négatif sur les performances des utilisateurs. Des observations et entretiens dans les centres de maintenance ainsi que des tests sur avion ont aussi été conduits pour évaluer la lisibilité de l'interface et la portabilité des appareils mobiles. Les résultats montrent que les raisons de la non utilisation de la documentation de maintenance sont principalement liées à la non adaptation de celle-ci aux utilisateurs et au contexte du métier, que l'utilisation du petit écran est envisageable aussi bien pour une application destinée aux petits écrans que pour celle destinée aux écrans standard. En outre, l'utilisation du petit écran ne détériore pas, d'une façon générale, les performances des utilisateurs et qu'elle est envisageable aussi bien chez les novices que chez les experts qui sont encore réticents mais n'y sont pas opposés.
55

Web sémantique et réseaux sociaux - Construction d'une mémoire collective par recommandations mutuelles et représentations

Ta, Tuan Anh 07 1900 (has links) (PDF)
Cette thèse présente un paradigme social pour la recherche d'information où l'intelligence humaine est exploitée pour faciliter l'accès à l'information. Nous avons suivi deux approches de développement. Pour la première, nous avons développé un réseau d'échange de connaissances appelé le "Web-of-people". Le principe de fonctionnement de ce réseau est d'utiliser les capacités sociales des utilisateurs pour filtrer, indexer et recommander l'information grâce au développement de relations de confiance entre les personnes. Ce réseau repose sur une architecture pair à pair dans laquelle on reprend les usages de partage et d'échange qui ont été popularisés autour des weblogs. Nous avons tiré profit de nouvelles promesses technologiques telles que le Web Sémantique et le Service Web pour le développement de ce réseau. Dans la deuxième approche, nous nous intéressons à un nouveau mode de présentation pour les résultats de recherche d'information. Au lieu de donner une liste simple de ressources en réponse, nous proposons de mettre les ressources trouvées dans un ordre de découverte progressive selon les thèmes relatifs à la requête posée par l'utilisateur. Pour cela, les ressources sont non seulement indexées avec des concepts ontologiques dans la base de description, mais elles peuvent être retrouvées également dans des thèmes de lecture reliés à ces concepts. En outre, un "parcours sémantique" peut être établi sur les thèmes de lecture grâce à des relations cognitives entre eux, e.g., "prérequis de", "composé de", "lié à", etc.
56

Transcription automatique de la musique de piano

Emiya, Valentin 10 October 2008 (has links) (PDF)
La transcription automatique de la musique (TAM) s'inscrit dans le champ de l'indexation audio et de la recherche d'informations musicales. Elle vise à extraire l'information relative aux notes jouées - début, fin, hauteur - dans un enregistrement numérique. Cette thèse aborde la TAM dans le cadre du piano, instrument difficile à transcrire par les systèmes actuels et qui occupe une place majeure d'instrument solo dans la musique occidentale. La problématique générale de la TAM étant vaste et complexe, nous exploitons certains aspects spécifiques du piano pour spécialiser la tâche, tout en abordant des thématiques générales comme l'estimation de fréquences fondamentales (F0) ou l'évaluation. Nous étudions tout d'abord la caractérisation spectrale des sons de piano pour la transcription à travers la distribution inharmonique des partiels, la modélisation de l'enveloppe spectrale des notes et celle du bruit. Nous proposons ensuite une méthode d'estimation de F0 isolées performante dans des conditions d'analyse difficiles qui sont réunies dans le cas du piano: les contraintes d'une fenêtre d'analyse courte et d'un registre étendu. L'estimation de F0 multiples et du degré de polyphonie est abordée via une modélisation conjointe paramétrique (autorégressive/à moyenne ajustée). Cette méthode spectrale s'intègre dans un système de TAM pour le piano analysant tout enregistrement avec des limites raisonnables en termes de polyphonie, de vélocité et de tessiture. Enfin, nous proposons de nouvelles métriques d'évaluation des transcriptions, un cadre d'évaluation de la qualité des métriques et une base de données de sons de piano pour l'estimation de F0 multiples et la TAM.
57

Représentation multi-facette des documents pour leur accès sémantique.

Ralalason, Bachelin 30 September 2010 (has links) (PDF)
La recherche d'information (RI) est un domaine prépondérant dans la vie contemporaine car elle permet de disposer d'éléments d'informations qui permettent d'agir et de prendre des décisions face à une situation donnée. En effet, l'objectif d'une RI est de s'informer, d'apprendre de nouvelles notions que nous ne maîtrisons pas. La disponibilité et la pertinence de ces nouvelles informations ont donc une très grande influence sur la prise de décision. La plupart des moteurs de recherche actuels utilisent des index regroupant les mots représentatifs des documents afin de permettre leur recherche ultérieure. Dans ces méthodes, les documents et les requêtes sont considérées comme des sacs de mots, non porteurs de sens. L'une des méthodes innovantes actuelles est l'indexation et la recherche sémantique des documents. Il s'agit de mieux prendre en compte le besoin de l'utilisateur en considérant la sémantique des éléments textuels. Nous nous intéressons à cet aspect de la RI en considérant une indexation et une recherche à base d'ontologies de domaine. Les solutions que nous proposons visent à améliorer la pertinence des réponses d'un système par rapport au thème de la recherche. Le discours contenu dans un document ou dans une requête ne sont pas les seuls éléments à prendre en compte pour espérer mieux satisfaire l'utilisateur. D'autres éléments relatifs au contexte de sa recherche doivent aussi être pris en compte. La granularité des informations à restituer à l'utilisateur est un autre aspect. Nous nous sommes intéressés à ces différents aspects et avons développé un méta-modèle de représentation multi-facette des documents en vue de leur accès sémantique. Dans notre modèle, le document est vu selon différentes dimensions dont la structure logique, la structure physique, la sémantique des contenus ainsi que leurs évolutions dans le temps. Nous avons également proposé des mesures de similarité sémantique entre concepts et une fonction de similarité entre les graphes d'annotation des requêtes et ceux des documents. Pour évaluer et valider nos solutions, nous avons instancié ce modèle dans trois domaines distincts : l'apprentissage en ligne, la maintenance automobile et les partitions musicales Braille. Nous avons également évalué les résultats en termes de rappel/précision des fonctions que nous avons proposées et montré leur supériorité par rapport à l'état de l'art.
58

Revisiter le couplage traitement automatique des langues et recherche d'information

Moreau, Fabienne 07 December 2006 (has links) (PDF)
La principale difficulté des systèmes de recherche d'information (SRI) est d'établir une correspondance entre l'information recherchée par un utilisateur et celle contenue dans leur base documentaire. Pour y parvenir, ils tentent généralement un appariement des mots de la requête posée avec ceux représentant le contenu des documents. Un tel mécanisme, fondé sur une simple comparaison de chaînes de caractères, ne permet cependant pas de prendre en compte le fait qu'un même mot peut posséder plusieurs sens et qu'une même idée peut être formulée de différentes manières. Pour pallier ces difficultés, une solution assez naturelle est de se tourner vers le traitement automatique des langues (TAL) qui, en considérant les mots non comme des chaînes de caractères mais comme des entités linguistiques à part entière, doit offrir un appariement requête-document plus pertinent. Les résultats des nombreux travaux proposant d'enrichir la RI par des informations linguistiques sont toutefois souvent décevants, peu tranchés et contradictoires. Pour comprendre ces faibles résultats et savoir comment les améliorer, nous abordons le couplage TAL-RI sous des angles nouveaux. Contrairement aux autres études, nous choisissons d'exploiter pleinement la richesse de la langue en combinant plusieurs informations linguistiques appartenant aux niveaux morphologique, syntaxique et sémantique. Afin de tester l'intérêt de coupler ces informations, nous proposons une plate-forme intégrant en parallèle ces multiples indices ; elle conduit à montrer l'apport significatif et tranché de plusieurs de ces connaissances, et, via une analyse originale des corrélations qu'elles présentent, des cas de complémentarité intéressants. Grâce à une méthode d'apprentissage supervisé qui fusionne les listes de résultats fournis par chaque index linguistique et s'adapte automatiquement aux caractéristiques des requêtes, nous prouvons, par des résultats plus stables qu'habituellement, le gain effectif du couplage d'informations linguistiques multi-niveaux. Enfin, nous proposons une méthode novatrice d'acquisition par apprentissage non supervisé d'informations morphologiques qui permet d'accroître encore l'impact de ces connaissances efficaces sur les performances de notre SRI. Nous montrons ainsi qu'en construisant des outils plus souples et plus adaptés aux contraintes de la RI, l'apport du TAL dans ce domaine est réel.
59

Approches textuelles pour la catégorisation et la recherche de documents manuscrits en-ligne

Peña Saldarriaga, Sebastián 24 March 2010 (has links) (PDF)
L'évolution technologique des dispositifs électroniques de capture de l'écriture manuscrite se traduit par l'apparition d'une grande quantité de documents manuscrits en-ligne. Cela pose la question de l'accès à l'information contenue dans ces données. Ce travail s'intéresse à l'accès à l'information textuelle contenue dans des documents qui se présentent sous la forme d'une séquence temporelle de points (x,y). Deux tâches principales ont été étudiées : la première concerne le développement d'un système de catégorisation de documents, tandis que la seconde s'intéresse à la recherche d'information dans des bases documentaires manuscrites. En amont, une première étape importante a consisté à collecter un corpus manuscrit de référence pour la validation expérimentale de cette étude. L'utilisation d'un système de reconnaissance de l'écriture étant l'élément transversal des approches proposées, une partie de notre travail a consisté à analyser le comportement de ces approches face aux erreurs de reconnaissance. La catégorisation est effectuée en enchaînant un système de reconnaissance à un système de catégorisation basé sur des méthodes d'apprentissage statistique. Pour la recherche d'information, deux approches ont été proposées. La première tire parti de la diversité des résultats restitués par des algorithmes de recherche différents, l'idée étant que la combinaison des résultats peut pallier leurs faiblesses respectives. La seconde approche exploite les relations de proximité thématique entre les documents. Si deux documents proches ont tendance à répondre au même besoin d'information, alors ces mêmes documents doivent avoir des scores de pertinence proches.
60

Browsing a Classification of an Image Collection

Loisant, Erwan 10 December 2005 (has links) (PDF)
Les données dites multimédia (images, vidéos) se distinguent des données classique par une densité variable d'information et l'impossibilité de normaliser ces données. Du fait de ces particularités, de nouvelles techniques d'indexation et de recherche d'information ont du être etudiées. Il y a principalement deux problèmes a résoudre pour la recherche d'information dans les collections multimédia (ou les bases de données multimédia) : (1) la représentation des données et (2) le processus de recherche du point de vue de l'utilisateur. Dans le cas des bases de données, l'indexation est fortement liée a ces deux problèmes. Dans le cas particulier des images, on distingue trois grandes classes: – la recherche par requêtes formelles, héritée des bases de données classiques ; – la recherche avec boucle de retour, où l'utilisateur fait partie intégrante du processus de recherche ; – la navigation où les images sont organisées en une structure preparée à l'avance, utilisée comme index et comme structure de recherche. C'est sur cette troisième approche que nos travaux se sont portés ; nous nous sommes en effet interessés au treillis de Galois, une structure de graphe permettant d'organiser les éléments d'une relation binaire. Une telle structure de navigation a plusieurs avantages sur une approche classique basée sur des requêtes : en particulier, elle permet d'affranchir l'utilisateur d'une phase de rédaction de requête.

Page generated in 0.0461 seconds