• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1766
  • 447
  • 240
  • 53
  • 41
  • 9
  • 7
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • Tagged with
  • 2708
  • 839
  • 539
  • 437
  • 379
  • 338
  • 273
  • 271
  • 240
  • 240
  • 210
  • 208
  • 186
  • 182
  • 180
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
361

Contributions à la modélisation, évaluation et conception de systèmes de recherche d'information en pair-à-pair / Contributions for modeling, evaluating and designing peer-to-peer information retrieval systems

Sicard, Jérôme 23 November 2010 (has links)
Cette thèse se base sur une vision originale des systèmes de Recherche d'Information en pair-à-pair (RI-P2P) ; pour proposer un ensemble d'outils pour mieux les évaluer et mieux les concevoir.Synthétiquement, la problématique d'évaluation consiste à comprendre quel système fonctionne bien dans quelles conditions ; comment les différents composants/aspects d'un système contribuent à ses performances ; comment des modifications du système peuvent faire évoluer ses performances. D'un point de vue conception, on voudrait savoir choisir une approche P2P en fonction du contexte de l'application à implémenter (jeu de données, propriétés du réseau...) ; comprendre comment mixer des systèmes ; mieux maîtriser l'impact d'une modification de l'implémentation sur le comportement et les performances d'un système.Nous pensons que ces deux problématiques d'évaluation et de conception sont fortement liées. Un même fondement est nécessaire pour progresser dans ces deux sens : mieux comprendre l'architecture des systèmes RI-P2P. À la base de notre réflexion, nous considérons qu'un système RI-P2P est l'implémentation en P2P d'un modèle RI, idée qui s'oppose au modèle traditionnel en deux couches. Nous nous appuyons sur cette idée pour donner un ensemble de définitions qui permettent de mieux appréhender les différents composants RI et composants P2P d'un même système et la façon dont ils s'organisent. Nous montrons ensuite comment on peut utiliser cette vision originale du domaine pour spécifier la démarche d'évaluation d'un système P2P et pour aider à la conception de nouveaux systèmes. / This PhD thesis develops an original vision of Peer-to-Peer Information Retrieval Systems. Based on this vision, we ropose a set of tools for a better evaluation and conception of P2P-IR systems.Synthetically, on the one hand, evaluating means understanding which system behaves well in which context ; how different components/aspects of a single system contribute to its performance ; how modifications of the system can make its performance evolve. On the other hand, considering design of P2P-IR systems, we would like to be able to choose a P2P approach based on what is known about the context the application will execute in (data set, network properties...) ; understand how to mix P2P systems ; better control the impact of a modification of the implementation of a system on its behavior an performance.We believe those concerns of evaluation and design are strongly related. There is a common need to improve on both directions : better understand the architecture of P2P-IR systems. On the basis of our reflexion, we consider a P2P-IR system is the implementation in P2P of an IR system, which contrasts with the traditional two-layered vision. We use this idea to give a set of definitions that help better understand the different RI and P2P components of a single system and their relationships. We then show how this vision can be used to help design new systems.
362

Les origines de la méthode psychanalytique : une étude d'histoire conceptuelle / The origins of the psychoanalytic method : a study in conceptual history

Padovan, Caio 16 June 2018 (has links)
Afin de contribuer d’un point de vue épistémologique au débat actuel sur la recherche en psychanalyse, nous avons cherché à établir dans notre thèse une histoire conceptuelle des origines de la méthode psychanalytique, une méthode clinique d’investigation et de traitement développée à Vienne entre 1886 et 1896 par le neuropathologiste Sigmund Freud. Ce travail se divise en trois grandes parties. Dans la première, intitulée « les antécédents », nous proposons d’identifier au sein de la neurologie et de la psychiatrie de langue française et allemande les conditions de possibilités empiriques de l’émergence de la méthode psychanalytique. Dans la deuxième, intitulée « les précédents », l’objectif est de reconnaître à l’intérieur de cette même tradition un certain nombre de pratiques apparentées à la psychanalyse, des pratiques considérées ici comme concurrentes de la méthode de Freud. Finalement, dans la troisième et dernière partie, intitulée « les origines », nous avons essayé de comprendre la manière dont la psychanalyse s’est effectivement établie en tant que méthode clinique d’investigation et de traitement dans son contexte particulier d’émergence. À la fin de ce parcours, nous avons pu constater l’existence de trois éléments qui sont à la base de la méthode freudienne et qui se trouvent dans la continuité de ses antécédents et précédents : 1) une notion non-dualiste de psychisme ancrée dans le postulat du parallélisme psycho-physique ; 2) un modèle nosologique fondé sur une hypothèse constitutionnelle non-congénitale ; et 3) une conception dynamique des rapports psychophysiologiques entre les représentations et les affects. Enfin, nous avons conclu que, bien que la psychanalyse de Freud possède une spécificité vis-à-vis d’autres pratiques psychologiques qui lui sont contemporaines, celle-ci ne peut être considérée comme un événement historique coupé de son contexte scientifique, ni comme quelque chose d’absolument exceptionnel par rapport à d’autres savoirs sur l’être humain. / Abstract In attempting to contribute from an epistemological point of view to the current debate on psychoanalytic research, we have sought in our thesis to establish a conceptual history of the origins of the psychoanalytic method, a clinical method of investigation and treatment developed in Vienna between 1886 and 1896 by neuropathologist Sigmund Freud. This work is divided into three main parts. In the first, entitled “the antecedents”, we propose to identify within the neurology and psychiatry of French and German languages the empirical conditions of the emergence of the psychoanalytic method. In the second, entitled “the precedents”, the objective is to recognize within this same tradition a certain number of practices related to psychoanalysis, practices considered here as concurrent of Freud's method. Finally, in the third and last part, entitled “the origins”, we have tried to understand how psychoanalysis has actually established itself as a clinical method of investigation and treatment in its particular context of emergence. At the end of this itinerary, we were able to recognize the existence of three elements which are at the base of the Freudian method and which are in the continuity of its antecedents and precedents: 1) a non-dualistic notion of psyche anchored in the postulate of psycho-physical parallelism; 2) a nosological model based on a non-congenital constitutional hypothesis; and 3) a dynamic conception of the psychophysiological relationships between representations and affects. Finally, we conclude that although Freud's psychoanalysis possesses a specificity regarding other psychological and contemporary practices, it cannot be considered as a historical event disconnected from its scientific context, nor as something absolutely exceptional concerning other knowledge about the human being.
363

Structuration statistique de données multimédia pour la recherche d'information

Gelgon, Marc 30 November 2007 (has links) (PDF)
L'unité du travail réside en ce qu'on s'intéresse à la recherche de structure dans les données numériques (issues de données multimédia), en vue d'y faciliter la recherche d'information. Le cadre méthodologique de la résolution est que nous privilégions ici celui des modèles probabi- listes, en particulier les mélanges de lois, et de l'estimation statistique associée. La recherche de structure implique que le jeu de données étudié est composé de sous-populations de caracté- ristiques distinctes : il s'agit de séparer et de caractériser ces sous-populations, deux problèmes fortement imbriqués. Les entités extraites et les attributs qu'on en leur associe seront alors directement utiles pour la recherche d'information.
364

OPTIMISATION DE REQUETES DANS UN SYSTEME DE RECHERCHE D'INFORMATION<br />APPROCHE BASEE SUR L'EXPLOITATION DE TECHNIQUES AVANCEES DE L'ALGORITHMIQUE GENETIQUE

Tamine, Lynda 21 December 2000 (has links) (PDF)
Les travaux présentés dans cette thèse traitent des apports de l'algorithmique génétique à la conception de systèmes de recherche d'information adaptatifs aux besoins des utilisateurs.<br>Notre étude se focalise en premier lieu, sur l'analyse des différents modèles et stratégies de représentation et de recherche d'information. Nous mettons notamment en évidence, leur contribution à la résolution des problèmes inhérents à la recherche d'information. <br>En second lieu, notre intérêt s'est porté sur l'étude des algorithmes génétiques. Nous basant alors sur leur robustesse, théoriquement et expérimentalement prouvée, nous intégrons ces algorithmes à la mise en oeuvre de notre approche d'optimisation de requête.<br>Nous présentons une approche de recherche d'information qui intègre une stratégie de reformulation de requête par injection de pertinence, fondée sur l'hybridation d'un processus d'optimisation génétique, à un modèle de recherche de base. Nous proposons un algorithme spécifique à la recherche d'information, par l'intégration d'opérateurs génétiques augmentés par la connaissance du domaine d'une part, et d'une heuristique permettant de résoudre le problème de multimodalité de la pertinence d'autre part. L'heuristique de nichage en l'occurrence, est diffusée globalement lors de l'évolution de l'AG. La population est alors organisée en niches de requêtes effectuant une recherche parallèle et coopérative d'informations.<br>Nous évaluons enfin notre approche de recherche d'information, au travers d'expérimentations réalisées à l'aide du système Mercure, sur la collection de référence TREC.
365

Modèle d'accès personnalisé à l'information basé sur les Diagrammes d'Influence intégrant un profil utilisateur évolutif

Zemirli, Nesrine 12 June 2008 (has links) (PDF)
La RI personnalisée est une direction de recherche qui permet la mise en oeuvre de systèmes d'accès à l'information centrés utilisateurs, non dans le sens d'un utilisateur générique mais d'un utilisateur spécifique et ce, en vue d'adapter son fonctionnement à son contexte précis. L'objet de cette thèse est de proposer un modèle formel capable d'intégrer l'utilisateur dans le processus d'accès à l'information. Nous avons orienté nos travaux vers l'utilisation des diagrammes d'influence comme support théorique nous permettant de formaliser l'utilité des décisions associées à la pertinence des documents compte tenu de la requête et du pro- fil de l'utilisateur. L'idée de base est de substituer à la fonction de pertinence classique qui mesure le degré d'appariement requête-document une fonction intégrant l'utilisateur. Dans notre approche, le profil utilisateur comprend ses centres d'intérêt à court terme et long terme. Le profil repose sur une représentation à deux dimensions corrélées : historique des interactions et centres d'intérêts. Le processus de définition du profil est fondé sur l'interaction des phases de construction et d'évolution. Plus précisément, le profil est construit et évolue à partir des informations collectées sur les documents jugés implicitement ou explicitement pertinents lors des interactions de l'utilisateur avec un SRI. Nous utilisons pour cela un opérateur d'agrégation d'informations ainsi qu'une méthode statistique qui permet de scruter le changement dans les centres d'intérêt de l'utilisateur, au cours du temps. N'ayant pas de cadre standard d'évaluation, nous proposons un cadre d'évaluation adapté à l'accès personnalisé à l'information en augmentant les collections de la campagne TREC par des profils utilisateurs simulés. Nous validons notre contribution par comparaison au modèle de recherche Bayésien classique.
366

Une méthode de classification non-supervisée pour l'apprentissage de règles et la recherche d'information

Cleuziou, Guillaume 08 December 2004 (has links) (PDF)
Le regroupement d'objets, dans un cadre non-supervisé, est une tâche importante et difficile en apprentissage. Ce processus intervient dans des contextes variés tels que la découverte de connaissances, la simplification dans le représentation ou la description d'un ensemble de données.<br /><br />Nous proposons, dans cette étude, l'algorithme de clustering PoBOC permettant de structurer un ensemble d'objets en classes non-disjointes. Nous utilisons cette méthode de clustering comme outil de traitement dans deux applications très différentes.<br /><br />- En apprentissage supervisé, l'organisation préalable des instances apporte une connaissance utile pour la tâche d'induction de règles propositionnelles et logiques.<br /><br />- En Recherche d'Information, les ambiguïtés et subtilités de la langue naturelle induisent naturellement des recouvrements entre thématiques.<br /><br />Dans ces deux domaines de recherche, l'intérêt d'organiser les objets en classes non-disjointes est confirmé par les études expérimentales adaptées.
367

Utilisation de connaissances sémantiques pour l'analyse de justifications de réponses à des questions

Barbier, Vincent 22 January 2009 (has links) (PDF)
Notre travail se positionne dans la thématique du traitement automatique du langage et plus précisément des systèmes de question-réponse. Il se fonde sur la notion de justification, qu'il formalise dans un modèle faisant intervenir trois types de phénomène linguistiques : les variations paradigmatiques locales d'un terme (sémantiques, morphologiques, inférences), les liens syntagmatiques entre les constituants d'une phrase, et une composante de sémantique énonciative reliant des éléments distants (anaphores, coréférences, thématisation), dans un contexte multiphrase, aussi bien mono- que multi-documents. Nous fondons notre formalisation de la structure des justifications sur un corpus de couples question-réponse extrait de façon semi-automatique. Ensuite, nous décrivons et évaluons un programme extrayant d'articles de journaux justifications structurées. Notre programme vise à conserver au système la capacité de produire une justification structurée, tout en rendant possible l'intégration modulaire d'une grande hétérogénéité de traitements linguistiques, de nature, de niveau de granularité et de fiabilité variés.
368

Ressources et méthodes semi-supervisées pour l'analyse sémantique de texte en français

Mouton, Claire 17 December 2010 (has links) (PDF)
Pouvoir chercher des informations sur un niveau sémantique plutôt que purement lexical devrait améliorer la recherche d'informations. Cette thèse a pour objectif de développer des modules d'analyse sémantique lexicale a n d'améliorer le système de recherche de documents textuels de la société Exalead. Les travaux présentés concernent plus spécifi quement l'analyse sémantique de texte en français. La problématique liée au traitement du français réside dans le fait qu'il n'existe que peu de ressources sémantiques et de corpus annotés pour cette langue. Rendre possible une telle analyse implique donc d'une part de pourvoir aux besoins en ressources linguistiques françaises, et d'autre part, de trouver des méthodes alternatives ne nécessitant pas de corpus français manuellement annoté. Notre manuscrit est structuré en trois parties suivies d'une conclusion. Les deux chapitres de la première partie délimitent les objectifs et le contexte de notre travail. Le premier introduit notre thèse en évoquant la problématique de la sémantique en recherche d'information, en présentant la notion de sens et en identifiant deux tâches d'analyse sémantique : la désambiguïsation lexicale et l'analyse en rôles sémantiques. Ces deux tâches font l'objet de l'ensemble de notre étude et constituent respectivement les parties 2 et 3. Le second chapitre dresse un état de l'art de toutes les thématiques abordées dans notre travail. La deuxième partie aborde le problème de la désambiguïsation lexicale. Le chapitre 3 est consacré à la constitution de nouvelles ressources françaises pour cette tâche. Nous décrivons dans un premier temps une méthode de traduction automatique des synsets nominaux de WordNet vers le français à partir de dictionnaires bilingues et d'espaces distributionnels. Puis, nous constituons une ressource automatiquement en proposant une adaptation de deux méthodes d'induction de sens existantes. L'originalité des clusters de sens ainsi constitués est de contenir des mots dont la syntaxe est proche de celle des mots source. Ces clusters sont alors exploités dans l'algorithme que nous proposons au chapitre 4 pour la désambiguïsation elle-même. Le chapitre 4 fournit également des recommandations concernant l'intégration d'un tel module dans un système de recherche de documents. L'annotation en rôles sémantiques est traitée dans la troisième partie. Suivant une structure similaire, un premier chapitre traite de la constitution de ressources pour le français, tandis que le chapitre suivant présente l'algorithme développé pour l'annotation elle-même. Ainsi, le chapitre 5 décrit nos méthodes de traduction et d'enrichissement des prédicats de FrameNet, ainsi que l'évaluation associée. Nous proposons au chapitre 6 une méthode semi-supervisée exploitant les espaces distributionnels pour l'annotation en rôles sémantiques. Nous concluons ce chapitre par une ré flexion sur l'usage des rôles sémantiques en recherche d'information et plus particulièrement dans le cadre des systèmes de réponses à des questions posées en langage naturel. La conclusion de notre mémoire résume nos contributions en soulignant le fait que chaque partie de notre travail exploite les espaces distributionnels syntaxiques et que ceci permet d'obtenir des résultats intéressants. Cette conclusion mentionne également les perspectives principales que nous inspirent ces travaux. La perspective principale et la plus immédiate est l'intégration de ces modules d'analyse sémantique dans des prototypes de recherche documentaire.
369

Enrichissement de réseaux sémantiques par la proximité de concepts

Shetty, Reena 12 November 2008 (has links) (PDF)
Ces dernières années ont vu le déferlement d'une vague d'information sous forme électronique liée à l'usage croissant du World Wide Web (WWW). Pour beaucoup, le World Wide Web est devenu un moyen essentiel pour mettre à disposition ou rechercher de l'information, conduisant à une forte accumulation de données. La recherche sur Internet dans sa forme présente devient vite exaspérante car les données disponibles peuvent être superficielles et de formes très diverses. Les utilisateurs du Web en ont assez d'obtenir des ensembles gigantesques de réponses à leurs requêtes simples, ce qui les oblige à investir de plus en plus de temps pour analyser les résultats. De nombreux résultats s'avèrent non pertinents et les liens les plus intéressants restent souvent en dehors de l'ensemble des résultats. Le chapitre1 introduit la motivation de notre travail de recherche. L'une des principales explications concernant la difficulté à effectuer une recherche d'information efficace est que les ressources existantes sur le web sont exprimées sous une forme destinée à la compréhension humaine. En d'autres termes, ces données sont difficilement utilisables par la machine et l'intervention humaine s'avère indispensable. Ainsi, l'un des principaux challenges est d'imaginer des outils intelligents fondés sur les concepts et méthodes autour de la représentation et du traitement des connaissances pour créer des données exploitables par la machine et obtenir de meilleurs résultats. Le chapitre 2 évalue et étudie les méthodes existantes et leurs limitations. De nombreux chercheurs ont travaillé sur la problématique de la compréhension des données par la machine et certaines des solutions les plus intéressantes sont les ontologies basées sur le « web sémantique ». Les ontologies permettent une meilleure « compréhension » des documents et facilitent à l'aide d'outils appropriés la qualité des recherches dans l'information existante. L'accent est mis sur la réflexion nécessaire à la construction de la signification du concept relié aux réseaux pour la représentation des connaissances. L'idée est de tendre vers la production semi-automatique voire complètement automatique de résultats de grande qualité. Autrement dit, l'objectif est de minimiser l'intervention humaine est de maximiser la qualité des résultats obtenus. Le chapitre 3 présente la plate-forme ToxNuc-E et le positionnement de notre recherche autour de cette plate-forme. Etant donné l'importance pratique et théorique du développement d'ontologies, il n'est pas surprenant de retrouver un grand nombre de chercheurs, fervents et engagés dans ce domaine de recherche. Dans le cadre de notre travail de recherche nous proposons une approche nouvelle, dite ESN (« Extended Semantic Network »), qui contrairement aux approches classiques, basées sur les mots clés, fonde la construction d'ontologie sur la convergence d'associations entre concepts ou nœuds sémantiques sur un ensemble de thèmes et la proximité des termes dans un ensemble de documents. Notre terrain d'application est le programme de toxicologie nucléaire environnementale français : ToxNuc-E. Le chapitre 4 précise le concept de « réseau de proximité », généré par des modèles mathématiques. L'idée de base de notre approche ESN est de construire efficacement une ontologie adaptée à la recherche d'information dans de larges corpus. La première phase consiste à traiter une grande quantité d'information textuelle en utilisant des modèles mathématiques pour automatiser la construction d'un embryon d'ontologie. L'objectif est d'obtenir un réseau de mots qui peut être assez volumineux. Celui-ci est calculé en utilisant des outils mathématiques venant de l'analyse de données et la classification automatique. Ainsi, la création d'un réseau de proximité repose alors sur la proximité des mots dans un document. Le chapitre 5 présente la construction des « réseaux sémantiques » et introduit notre modèle de conception pour gagner en efficacité. Le réseau sémantique est essentiellement un graphe orienté étiqueté permettant l'utilisation de règles génériques, de l'héritage, et de la représentation orientée objet. Il est souvent utilisé comme une forme de représentation des connaissances, où les concepts représentés par les nœuds sont connectés l'un à l'autre en utilisant les liens relationnels représentés par des arcs. Le réseau sémantique est construit de façon manuelle avec l'aide d'experts de la connaissance possédants la compréhension d'un domaine. Il est donc principalement construit par les hommes, dans notre approche de taille assez réduite, et d'une très bonne précision. Le chapitre 6 détaille le « réseau sémantique étendu ». La deuxième phase de traitement consiste à examiner attentivement et de manière efficace les différentes possibilités d'intégrer les informations issues du modèle mathématique (réseau de proximité) et du modèle cognitif développé manuellement (réseau sémantique). Cette phase se base sur une méthode heuristique développée dans l'extension des réseaux et utilisant les résultats de la méthode mathématique. Cette phase se termine en considérant le modèle humain (développé manuellement) comme le point d'entrée de notre réseau de concepts. L'idée principale est de développer une approche novatrice combinant les caractéristiques humaines et la théorie des concepts utilisée par la machine. Les résultats peuvent présenter un grand intérêt dans différents champs de recherche tels que la représentation des connaissances, la classification, l'extraction, ainsi que le filtrage des données. Le chapitre 7 illustre quelques expérimentations réalisées à l'aide de notre réseau sémantique étendu et ouvre des orientations pour les perspectives d'avenir. Les questions concernant la représentation des connaissances, la gestion, le partage et l'extraction d'information sont passionnantes et complexes. Cet attrait est en toute évidence essentiellement du aux rapports entre l'homme et la machine. Le fait que nous essayons de combiner les résultats de deux aspects différents constitue l'une des caractéristiques les plus intéressantes de notre recherche actuelle. Notre proposition peut faciliter la construction d'ontologies de manière plus rapide et plus simple. Le réseau sémantique étendu peut être utilisé, à la place d'une ontologie plus classique, par des outils comme par exemple : un classificateur de documents. Nous considérons notre résultat comme étant structuré par l'esprit et calculé par la machine. L'une des principales perspectives pour le travail à suivre est de trouver un bon compromis entre concepts du réseau sémantique et graphes de mot issus du réseau de proximité. D'autres perspectives à ce travail consistent à mettre en place des benchmarks dans différents contextes pour mesurer l'efficacité de notre prototype.
370

Recherche et filtrage d'information multimédia (texte, structure et séquence) dans des collections de documents XML hétérogènes

Popovici, Eugen 10 January 2008 (has links) (PDF)
Les documents numériques sont aujourd'hui des données complexes qui intègrent d'une manière hétérogène des informations textuelles, structurelles, multimédia ainsi que des méta-données. Le langage de balisage générique XML s'est progressivement imposé comme support privilégié non seulement pour l'échange des données mais aussi pour leur stockage. La gestion des documents stockés sous les formats XML nécessite le développement de méthodes et d'outils spécifiques pour l'indexation, la recherche, le filtrage et la fouille des données. En particulier, les fonctions de recherche et de filtrage doivent prendre en compte des requêtes disposant de connaissances incomplètes, imprécises, parfois même erronées sur la structure ou le contenu des documents XML. Ces fonctions doivent par ailleurs maintenir une complexité algorithmique compatible avec la complexité des données et surtout avec leur volume toujours en forte croissance, ceci pour assurer le passage à l'échelle des solutions informatiques. Dans cette thèse, nous étudions des méthodes et développons des outils pour indexer et rechercher des informations multimédia hétérogènes stockées dans des banques de documents XML. Plus précisément, nous abordons la question de la recherche par similarité sur des données composites décrites par des éléments structurels, textuels et séquentiels. En s'appuyant sur la partie structurelle des documents XML, nous avons défini un modèle de représentation, d'indexation et d'interrogation flexible pour des types hétérogènes de données séquentielles. Les principes que nous développons mettent en oeuvre des mécanismes de recherche qui exploitent simultanément les éléments des structures documentaires indexées et les contenus documentaires non structurés. Nous évaluons également l'impact sur la pertinence des résultats retournés par l'introduction de mécanismes d'alignement approximatif des éléments structurels. Nous proposons des algorithmes capables de détecter et de suggérer les « meilleurs points d'entrée » pour accéder directement à l'information recherchée dans un document XML. Finalement, nous étudions l'exploitation d'une architecture matérielle dédiée pour accélérer les traitements les plus coûteux du point de vue de la complexité de notre application de recherche d'information structurée. v

Page generated in 0.0397 seconds