• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 102
  • 30
  • 16
  • Tagged with
  • 150
  • 53
  • 51
  • 47
  • 42
  • 41
  • 29
  • 28
  • 27
  • 24
  • 21
  • 19
  • 18
  • 18
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Contributions en faveur d'une meilleure personnalisation de la recherche d'informations - Applications à la tâche questions-réponses, à la recherche de documents audio et à l'accessibilité pour des personnes dyslexiques

Bellot, Patrice 04 December 2008 (has links) (PDF)
Dans un article récent sur les enjeux de la recherche d'informations, Belkin (2008) rappelle que la question de la personnalisation est annoncée comme majeure depuis une vingtaine d'années mais que la plupart des tentatives vers une étude systématique ont échoué. S'il n'est pas question de prétendre que les évaluations TREC Interactive puis TREC Hard et TREC ciQA, pour ne mentionner qu'elles, n'ont abouti à rien dans ce domaine, force est de constater que l'utilisateur n'intervient que très peu dans les systèmes de recherche de l'Internet et qu'aussi bien des paradigmes d'évaluation que des stratégies efficaces restent encore à trouver. <br /><br />Dans les différents chapitres qui constituent ce mémoire d'Habilitation, nous présentons trois directions vers une personnalisation de la recherche d'informations. La première correspond à une analyse du besoin en information d'un utilisateur qui permet de distinguer recherche documentaire et recherche de réponses précises sachant que celles-ci peuvent être des informations factuelles, des définitions ou des explications. Cette distinction correspond à celle entre Recherche d'informations (RI) et questions-réponses (QR) mais, pour être utilisables, les systèmes correspondants devront être fusionnés. En outre, il sera utile d'inciter l'utilisateur à changer ses habitudes pour laisser de côté les requêtes mots-clés et (re)venir à des requêtes en langue naturelle. Les solutions logicielles que nous avons développées ont été évaluées dans le cadre des campagnes TREC, CLEF et EQUER.<br /><br />La seconde direction que nous avons suivie est celle de l'aide à la navigation dans de grandes bases documentaires mélangeant fichiers audio et textes. Elle consiste à définir une interface homme-machine permettant un survol chronologique, par l'exploitation de méthodes de reconnaissance de la parole, d'indexation sémantique (LSI), de segmentation thématique et de résumé automatique (campagne d'évaluation DUC), des documents de la collection. Les techniques d'indexation en jeu n'exploitent pas la totalité des traits propres à l'audio (prosodie, hésitations...) et cela fera l'objet de travaux futurs. L'objectif étant de parvenir à des systèmes multimodaux dans lesquels les documents audio ne sont pas \textit{noyés} parmi des documents texte plus nombreux et plus verbeux.<br /><br />La troisième direction consiste à prendre en compte la capacité de lecture et d'écriture d'un utilisateur dans le calcul du score de pertinence d'un document vis à vis d'une requête. Les avancées les plus récentes de la technique et de l'imagerie médicale nous offrent des modélisations plausibles de nos fonctionnements cognitifs dont nous pouvons nous inspirer afin de simuler l'humain dans des domaines tels que le langage et la pensée. Nous nous sommes plus particulièrement intéressé aux modèles cognitifs de la lecture et à la tentative de les exploiter afin de définir des systèmes de recherche d'informations capables d'estimer l'effort nécessaire à la compréhension d'un document et d'être suffisamment robustes pour accepter des requêtes mal orthographiées. Les modèles de recherche d'informations usuels permettent d'ordonner des documents en fonction de la quantité d'informations qu'ils véhiculent vis à vis de ce que l'utilisateur a exprimé dans sa requête tout en tenant compte, dans le meilleur des cas, du taux de nouveautés apportées par rapport à d'autres documents déjà connus. Il s'agit d'une vision purement informationnelle de la pertinence posant l'hypothèse que plus le nombre d'informations nouvelles est grand, plus le document est susceptible d'intéresser l'utilisateur. Cela s'avère exact dans une certaine mesure mais ne tient pas compte du fait que les besoins sont différents suivant le niveau d'expertise de l'utilisateur : une personne novice dans un domaine sera certainement plus intéressée par un document de vulgarisation que par une étude approfondie, au vocabulaire et à la structure complexes. Cela est vrai à plus forte raison pour des personnes ayant des difficultés élevées de lecture tels les dylsexiques. Il s'agit alors de définir de nouvelles mesures prenant en compte cet aspect tout en offrant la possibilité de présenter d'abord les documents les plus "simples", les plus "lisibles".<br /><br />La problématique de la personnalisation et de la prise en compte de l'utilisateur en recherche d'informations renvoie naturellement à celle, bien plus large, des fondements du traitement automatique des langues, au croisement de la linguistique et de l'informatique, toutes deux rejointes par la psycholinguistique et la psychologie cognitive pour l'étude des comportements individuels, les neurosciences pour l'étude des racines physiologiques du langage mais aussi par la sémiologie pour des analyses globales des usages et des significations. Ce croisement pluridisciplinaire est un enjeu majeur des années à venir si l'on veut aller au-delà, pour paraphraser K. Sparck-Jones, de la seule étude permettant d'espérer (et encore ne s'agit-il que d'un espoir sans même être convaincu de la significativité des gains) grappiller quelques points de précision en recherche ad-hoc.<br /><br />Il va de soi que les recherches présentées correspondent à un travail d'équipe. Elles sont ainsi l'\oe uvre des activités conduites au LIA depuis septembre 2000, et notamment, en respectant l'ordre chronologique, celles de Laurent Gillard, Benoît Favre et Laurianne Sitbon dont j'ai co-encadrées les thèses de Doctorat avec Marc El-Bèze (Université d'Avignon et des Pays de Vaucluse), Jean-François Bonastre (Université d'Avignon et des Pays de Vaucluse) et Philippe Blache (CNRS et Université Aix-Marseille).
52

Un modèle d'indexation pour les documents textuels structurés

Paradis, Francois 07 November 1996 (has links) (PDF)
La plupart des modèles d'indexation en recherche d'informations sont spécifiques à une application ou à un domaine particulier, et n'exploitent pas toute la richesse des documents électroniques. Le but de ce travail est de définir un modèle d'indexation pour les documents textuels qui tienne compte de la structure et d'autres informations complémentaires au discours. Le modèle proposé comporte deux composantes : le langage de représentation, qui définit de façon conceptuelle les informations du document, y compris les index eux-mêmes, et les règles de dérivation, qui, reprenant ce langage, permettent de déduire un type particulier d'index, les thèmes. L'indexation dans notre modèle ne se contente pas de produire une représentation statique du document, mais elle est aussi dynamiquement liée au processus de correspondance ; ainsi, le choix des thèmes, tels que déterminés par les règles, est fonction du document et de l'utilisateur. Notre approche a été validée en deux temps. D'abord, un questionnaire a été soumis à un groupe d'utilisateurs afin de cerner leur processus de dérivation de thèmes. Cette validation à priori a permis de démontrer le bien-fondé de nos règles de dérivation. Puis, dans une validation à posteriori, le modèle a été implémenté et testé sur une collection de documents sgml. Cette expérimentation a demontré l'applicabilité et la flexibilité du modèle.
53

Conception intégrée et gestion d'informations techniques: application à l'ingénierie du produit et de sa séquence d'assemblage

Demoly, Frédéric 16 July 2010 (has links) (PDF)
Dans le contexte concurrentiel actuel, les entreprises issues des secteurs automobile et aéronautique doivent impérativement mettre en place, de manière efficace, des stratégies d'ingénierie intégrée et de gestion de cycle de vie des produits, ceci afin de maintenir leurs facteurs de compétitivité, tels que la productivité, l'efficacité et la flexibilité, en particulier en phase de début de cycle de vie des produits (développement et industrialisation). Dans ce contexte, une condition industrielle nécessaire est requit pour l'intégration des contraintes liées aux différentes phases du cycle de vie du produit au sein du processus de développement avec le support de systèmes permettant la gestion des données-informations-connaissances. Dès lors, il est important d'apporter, le plus tôt possible, une aide à la décision en ingénierie, afin de fournir un produit se prêtant aux problématiques liées aux phases de son cycle de vie. Ce travail de thèse s'inscrit dans les domaines de la conception intégrée et de la gestion des informations techniques, plus particulièrement centrée sur le produit et sa séquence d'assemblage. Celui-ci a consisté à la mise en place d'un modèle multi-vues baptisé MUlti-Vues Orienté Assemblage (MUVOA) visant à cartographier les concepts dans les domaines du produit et du processus d'assemblage pour la définition, la propagation et la traçabilité des informations du couple produit-process. Un ensemble de vues interdépendantes (fonctionnelle, comportementale, structurelle, géométrique, technologique et contextuelle) a été défini en fonction des profils (rôle, préoccupation, termes métier, processus métier, etc.) des acteurs métier impliqués dans les questions de conception orientée assemblage, à savoir l'architecte produit, le gammiste, le concepteur et l'expert process. Sur la base de ce modèle MUVOA, un cadre méthodologique baptisé Proactive ASsembly Oriented DEsign (PASODE) a été proposé, ceci afin de définir une séquence d'assemblage optimale dans les phases préliminaires du processus de développement, et de l'utiliser pour définir un contexte d'assemblage à base de squelettes dans la vue géométrique produit. De ce fait, le cadre méthodologique PASODE proposé regroupe trois approches, telles que : l'approche basée sur l'algorithme ASDA (Assembly Sequence Definition Algorithm) dédiée à la définition/planification de séquences d'assemblage en phases préliminaires du processus de développement des produits, l'approche SKL-ACD (SKeLeton-based Assembly Context Definition) dédiée la définition d'un contexte d'assemblage à base de squelettes géométriques, et l'approche PRM (Product Relationships Management) dédiée à la gestion des relations du produit à différents niveaux d'abstraction en contexte PLM. Le modèle MUVOA ainsi que le cadre méthodologique PASODE ont été mis œuvre dans un outil informatique appelé PEGASUS, situé à l'interface des systèmes PLM (Product Lifecycle Management) associés à la gestion des informations techniques du couple produit-process, tels que les systèmes PDM (Product Data Management), MPM (Manufacturing Process Management) et CAO (Conception Assistée par Ordinateur). Cette implémentation informatique, basée sur la méthode Modèle Vue - VueModèle et le langage C#, nous a permis de réaliser trois expérimentations industrielles, afin d'illustrer et de valider les trois approches du cadre méthodologique. Parmi les cas d'applications, nous avons introduit un cas de conception d'un combiné Catalyseur – Filtre à Particules en collaboration avec l'entreprise Faurecia Technologies de Contrôle des Emissions (ECT), la conception de la partie structurelle d'un avion de type A320 en collaboration avec l'entreprise EADS Innovation Works, et un dernier cas avec l'entreprise MABI sur la conception d'un marteau burineur pneumatique.
54

Exploitation de la demande prévisionnelle pour le pilotage des flux amont d'une chaîne logistique dédiée à la production de masse de produits fortement diversifiés

Sali, Mustapha 06 November 2012 (has links) (PDF)
Dans cette thèse, nous nous sommes intéressés au mode d'exploitation de la demande prévisionnelle pour le pilotage des flux amont dans un contexte de production de masse de produits fortement diversifiés et de dispersion géographique des unités de production. Lorsque l'information prévisionnelle est mal exploitée, des phénomènes, similaires à l'effet coup de fouet connu en chaîne logistique aval, apparaissent en chaîne logistique amont altérant durablement sa performance. Dans le but de contrer certains des mécanismes à l'origine de ces phénomènes, nous avons proposé une adaptation de la MRP permettant d'exploiter au mieux l'information prévisionnelle. L'adaptation de la MRP repose sur une méthode de calcul des besoins basée sur l'exploitation statistique des nomenclatures de planification et la diffusion d'informations sur les niveaux de recomplètement le long de la chaîne logistique amont. Cette approche a été testée avec succès sur plusieurs cas d'application dans l'industrie automobile
55

Impact du partage d'informations et du vendor managed inventory sur la performance des chaines logistiques

Rouibi, Sonia 15 May 2012 (has links) (PDF)
Le développement des technologies de l'information et de la communication que connait notre siècle a grandement facilité les pratiques d'échanges d'informations au sein des chaînes logistiques. Ces pratiques ont pu ainsi évoluer vers de nouvelles formes de collaborations entre entreprises, telles que le Partage d'Informations (PI) et le Vendor Managed Inventory (VMI). Le VMI est un mécanisme de coordination dans lequel le fournisseur a la responsabilité de la gestion des stocks de son client. Ce mécanisme repose sur plusieurs principes parmi lesquels un partage d'informations très développé entre les parties qui s'y engagent. Le PI et le VMI sont adoptés par les entreprises pour permettre une augmentation des profits et une réduction des coûts. Toutefois, leurs résultats sont mitigés et nécessitent encore un approfondissement de leur compréhension. La contribution de cette thèse se situe dans l'analyse des impacts de ces mécanismes sur des chaînes logistiques où tous les maillons sont des entreprises de production dont les efficacités peuvent être différentes. Pour ce faire, plusieurs scénarios ont été étudiés sur des chaînes logistiques constituées de trois échelons, chaque échelon peut appartenir à quatre classes d'efficacité. Ces chaînes peuvent répondre à deux types de demande du marché final ; une demande stable ou une demande variable. De plus, plusieurs mécanismes de coordination sont étudiés : les mécanismes de gestion standard, de partage d'informations entre deux échelons, de partage d'informations entre trois échelons, de VMI entre deux échelons, puis de VMI étendu aux trois échelons. L'outil utilisé pour mener ces expérimentations est le logiciel de simulation à évènements discrets Arena. L'interprétation des résultats a montré que le mécanisme de coordination avec partage d'informations n'a pas eu d'amélioration très significative sur les résultats. En effet, puisque les entreprises ont des capacités de production finies, la disponibilité de l'information n'a pas permis d'obtenir des résultats différents. Le VMI, de son côté, a pu réaliser des réductions des stocks et des coûts de la chaîne logistique. Ces réductions ont été plus importantes chez les chaînes logistiques dont les maillons sont de faibles efficacités. Chez ces dernières, ce sont les deux parties concernées par le VMI (le fournisseur et le donneur d'ordres) qui ont tiré des avantages du VMI. Chez les chaînes logistiques constituées de maillons de haute efficacité, le VMI a permis une réduction des coûts moins importante, car ces chaînes logistiques sont déjà de performance élevée. Pour celles ci, c'est le client qui a tiré profit du VMI, alors que le fournisseur VMI a subi une augmentation des coûts suite à l'augmentation de la fréquence de transport qu'a impliqué ce mécanisme.
56

Fusion d'Informations dans un Système de Positionnement Hybride GPS Multi-Porteuses/Estime

Kacemi, Jamila 23 June 2006 (has links) (PDF)
Le travail présenté dans ce mémoire de thèse concerne l'étude et la mise en oeuvre de méthodes de fusion d'informations pour la localisation 3D d'un véhicule terrestre en environnement urbain dense. L'approche étudiée est la fusion des mesures fournies par le système de navigation absolue GPS multi-porteuses et les capteurs de navigation estimes odomètre et gyromètre. Ces mesures sont hybridées à l'aide de filtres récursifs pour l'estimation de la position. On réalise l'étude de l'estimateur de position en deux étapes. La première étape concerne l'étude et la mise en oeuvre d'un estimateur pour la fusion des observables de code et de phase du GPS multi-porteuses. L'expérimentation sur données synthétiques et réelles montre que le système proposé permet d'augmenter la précision des mesures lorsque la puissance du bruit sur chaque porteuse est du même ordre de grandeur. La deuxième étape concerne le système d'hybridation serrée qui fournit une estimation de la direction du véhicule et des pseudo-distances satellite-récepteur, même en absence de mesures GPS. Dans ce cadre, nous proposons un filtre circulaire récursif qui permet d'estimer la direction du véhicule. Le filtre d'hybridation réalise la fusion centralisée des mesures de pseudo-distances corrigées et la fusion distribuée des observables de phase avec les mesures gyrométriques et odométriques. L'expérimentation réalisée dans un contexte synthétique et réel montre que le système proposé est au moins aussi précis que le système d'hybridation lâche habituellement utilisé en pratique.
57

Modélisation de l'utilisateur et recherche coopérative d'information dans les systèmes de recherche d'informations multimedia en vue de la personnalisation des réponses

David, Amos 29 June 1999 (has links) (PDF)
Le fonctionnement d'un SRI est constitué de plusieurs étapes : l'étape de présentation des besoins par l'utilisateur, celle du traitement de la requête de l'utilisateur par le système, celle de l'évaluation des solutions du système par l'utilisateur et celle de la modification ou mise à jour de la requête par le système ou par l'utilisateur. Dans chacune de ces étapes, la prise en compte des particularités de chaque utilisateur est nécessaire pour rendre le système plus efficace, en particulier par rapport à la pertinence des réponses du système. On exige de l'utilisateur de bien définir ses besoins et d'être capable de les traduire dans le langage du système. Le jugement de pertinence d'une réponse par l'utilisateur dépend des paramètres qui lui sont propres.<br /><br />En ce qui concerne l'utilisateur, nous travaillons sur trois types de connaissance pour le représenter : ses habitudes évocatives, son niveau de connaissance basé sur la notion de catégorie fondamentale, et ses jugements de pertinence sur les solutions du système en réponse à ses requêtes. Par l'observation du fonctionnement d'un centre de documentation et par l'efficacité des résultats obtenus par le dialogue entre l'utilisateur et un médiateur du centre, nous avons orienté nos travaux vers le développement d'un système de recherche coopérative d'information (SRCI). Dans un SRCI, l'utilisateur pourra effectuer sa recherche en collaboration avec un médiateur sur des postes de travail distants.<br /><br />Les perspectives à court terme sont de représenter chaque utilisateur par l'historique de ses activités. Ces activités sont représentées sous forme de documents qui pourront être analysés par notre méthode d'accès et d'analyse de l'information. Nous comptons employer les techniques de raisonnement à base de cas pour exploiter ces analyses pour personnaliser les réponses du système et exploité par un médiateur dans un contexte de recherche coopérative d'information.<br /><br />A plus long terme, nous pensons qu'il faudra étudier le processus de communication (ou de dialogue) entre l'utilisateur et le médiateur dans un contexte de SRCI. Les systèmes que nous avons développé pourront servir d'outils d'observation des comportements de l'utilisateur. Il faudra également étudier l'intégration de ces outils dans un environnement de recherche documentaire permettant non seulement d'obtenir et d'analyser les informations d'une base mais permettant d'accéder aux documents primaires.
58

Multi-providers location based services for mobile-tourism : a use case for location and cartographic integrations on mobile devices

Karam, Roula 26 September 2011 (has links) (PDF)
Les services géolocalisés (LBS) sont destinés à délivrer de l'information adéquate aux utilisateurs quelque soit le temps et l'endroit et ceci en se basant sur leur profil, contexte et position géographique. A travers n'importe quelle application dans ce domaine, par exemple m-tourisme, les utilisateurs souhaitent toujours recevoir une réponse rapide et précise en se déplaçant. Cependant, la qualité de service proposée par les fournisseurs cartographiques actuels (i.e. Google Maps, Bing, Yahoo Maps, Mappy ou Via Michelin) dépend de leurs données géographiques. En général, ces données sont stockées de plusieurs bases de données géographiques (BDG) dans le monde entier. D'autre part, le nombre croissant des différentes BDG couvrant la même zone géographique et la récupération des données/métadonnées non erronées pour un service quelconque, impliquent de nombreux raisonnements et de contrôles d'accès aux BDG afin de résoudre les ambiguïtés dues à la présence des objets homologues dupliqués sur l'écran mobile. Mon travail consiste à permettre cette intégration cartographique pour les applications mtourisme et ceci en récupérant les informations spatiales/non-spatiales (noms, positions géographiques, catégorie du service, détails sémantiques et symboles cartographiques) de plusieurs fournisseurs. Cependant, ceci peut conduire à visualiser des objets dupliqués pour le même point d'intérêt et causer des difficultés au niveau de la gestion des données. En outre, l'utilisateur sera dérouté par la présence de résultats multiples pour un même point. Donc, mon but ultime sera de générer automatiquement une carte unique intégrant plusieurs interfaces des fournisseurs sur laquelle les objets homologues seront intégrés avant de les visualiser sur l'écran mobile. Nos nouveaux concepts, basés sur certains algorithmes de fusion, sur l'ontologie pour assurer l'intégration au niveau sémantique et cartographique, sur l'orchestration des géo web services, sont implémentés dans des prototypes modulaires et évalués.
59

Les communications anonymes à faible latence

Aguilar Melchior, Carlos 04 July 2006 (has links) (PDF)
Dans ce mémoire nous proposons des systèmes de communication anonyme à faible latence. Pour cela nous étudions les performances des systèmes basés sur les primitives classiques : envoi superposé ou bourrage chiffré pour l'émission, et diffusion avec adressage implicite pour la réception, quand les groupes d'utilisateurs potentiels sont contraints à être de petite taille, peu changeants, ou localisés. Nous proposons l'utilisation des protocoles de récupération d'informations privée (ou protocoles PIR pour Private Information Retrieval) comme alternative à la diffusion avec adressage implicite, et nous étudions les systèmes en résultant. Ces systèmes permettent de réduire significativement le coût des communications, au prix d'un coût calculatoire important. Au moyen d'exemples, nous montrons que ces nouvelles solutions offrent un meilleur choix dans certaines situations, notamment pour les utilisateurs connectés au service par Internet. Dans un deuxième temps, nous mettons en avant les relations entre les différentes techniques et montrons que les systèmes basés sur les primitives classiques ne sont en fait que des instances d'une famille qui, par l'utilisation de la récupération d'informations privée, devient nombreuse et polyvalente. Ainsi, on dispose de beaucoup plus de degrés de liberté pour l'implémentation de solutions fournissant des communications anonymes dans le cadre des groupes d'utilisateurs sous contraintes.
60

Essays on communication and information transmission / Essai sur la communication et la transmission d'informations

Schopohl, Simon 13 November 2017 (has links)
Cette thèse de doctorat traite de différentes questions concernant la communication et la transmission d’informations dans le cadre de la théorie des jeux. J’analyse différents dilemmes auxquels peut être confronté un joueur qui envoie des informations. Ces dilemmes correspondent aux questions suivantes: "Devrais-je investir dans un message vérifiable?", "Quand dois-je transmettre mon information?" et "Est-il préférable de ne pas envoyer mon information et uniquement de recueillir l’information des autres?". Cette thèse comprend une introduction et trois chapitres. L’introduction contient une motivation générale pour les trois problèmes que je présente dans cette thèse. Je donne une vue d’ensemble détaillée de tous les chapitres, j’examine la littérature relative au sujet et je la compare à mes résultats. / This Ph.D dissertation addresses different issues concerning communication and information transmission in a game theoretical framework. I analyze different dilemmas that a player who sends information has to deal with. These dilemmas correspond to the following questions: "Should I invest into a verifiable message?", "When should I pass my information?" and "Is it better if I do not send my information, but collect information from others?". This thesis includes an introduction and three chapters. The introduction contains a general motivation for the three different problems that I model in this thesis. I give a detailed overview of all the chapters, survey the related literature and compare it to my results.

Page generated in 0.1237 seconds