• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 12
  • 4
  • 2
  • Tagged with
  • 18
  • 18
  • 9
  • 7
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Ajout de données textuelles au modèle de Cox dans un contexte longitudinal

Lépine, Simon-Olivier 27 March 2023 (has links)
Afin d'éviter le départ de ses clients, une compagnie d'assurance souhaite prédire la probabilité d'annulation de polices d'assurance automobile dans un intervalle de temps à partir de données sur les voitures et les clients. Les clients étant suivis dans le temps, le modèle doit incorporer des variables explicatives qui dépendent du temps. Nous utilisons le modèle de survie de Cox pour prédire les probabilités d'événement dans un intervalle de temps variable. Des notes prises par des agents lors de conversations téléphoniques avec les clients et des courriels sont également disponibles. Il est pertinent d'inclure ces textes dans le modèle statistique, car ils contiennent de l'information utile pour prédire l'annulation du contrat. Plusieurs méthodes de traitement automatique du langage naturel sont utilisées pour représenter les textes en vecteurs qui peuvent être utilisés par le modèle de Cox. Puis, une sélection de variables est effectuée. Le modèle est ensuite utilisé pour prédire les probabilités d'événements. Les notes d'agents contiennent des fautes d'orthographe, des abréviations, etc. Ainsi, nous étudions dans un premier temps l'effet d'utiliser des textes dont la qualité est graduellement détériorée sur les performances prédictives du modèle de Cox. Nous trouvons que toutes les méthodes d'encodage du texte utilisées, sans faire de raffinement sur les textes, ont un certain niveau de robustesse face aux textes de moins bonne qualité. Ensuite, nous étudions l'effet de différentes approches d'inclusion des textes dans le modèle de Cox dans un contexte longitudinal. Les effets de la sélection de variables, des méthodes d'encodage du texte et de la concaténation temporelle des textes sont analysés. L'approche proposée pour inclure les textes a permis d'améliorer les performances comparativement à un modèle qui n'inclut aucun texte. Toutefois, les performances sont similaires d'une méthode d'encodage du texte à l'autre. / In order to avoid customer attrition, an insurance company wants to predict the probability of cancellation of car insurance policies in a time interval based on car and customer covariates. Since customers are tracked over time, the model must incorporate time-dependent covariates. We use a Cox survival model to predict event probabilities in a variable time interval. Notes taken by agents during telephone conversations with customers and emails are also available. It is relevant to include these texts in the statistical model, as they contain information useful for predicting policy cancellation. Several natural language processing methods are used to represent the documents with vectors that can be used by the Cox model. Then, variable selection is performed. The model is then used to predict event probabilities. Notes taken by the agents contain spelling mistakes, abbreviations, etc. Thus, we first study the effect of using texts of gradually worse quality on the predictive performance of the Cox model. We find that all the text encoding methods used, without fine-tuning the embedding models, have a certain level of robustness against texts of lower quality. Next, we investigate the effect of different approaches to including texts in the Cox model in a longitudinal context. The effects of variable selection, text encoding methods and temporal concatenation of texts are analyzed. The proposed approach to include text resulted in improved performance compared to a model that does not include any text. However, the performance is similar across text encoding methods.
2

Les bases de données textuelles : étude du concept de document et application à deux réalisations

Kowarski, Irène 05 July 1983 (has links) (PDF)
Etude du concept de document en vue de l'intégration des textes dans les bases de données. Les documents comportent des aspects externes permettant leur classement et leur recherche, ainsi que des aspects internes. Les documents sont regroupés selon des types, définis en fonction de leur structure. La présentation physique des documents imprimés que l'on produit peut être liée à leur structure. Deux réalisations pratiques sont décrites.
3

Extraction et impact des connaissances sur les performances des systèmes de recherche d'information

Haddad, Mohamed Hatem 24 September 2002 (has links) (PDF)
Dans un contexte riche d'information, un système de recherche d'information doit être capable de trouver les meilleurs résultats possibles dans un océan d'information. Notre étude s'intéresse aux connaissances qui peuvent être extraites du contenu textuel des documents en associant la finesse d'analyse d'une approche linguistique (extraction et structuration) à la capacité d'une approche statistique de traiter de gros corpus. L'approche statistique se base sur la fouille de données textuelles et principalement la technique de règles d'association. L'approche linguistique se base sur les syntagmes nominaux que nous considérons comme des entités textuelles plus susceptibles de représenter l'information contenue dans le texte que les termes simples. Elle explicite les contraintes linguistiques nécessaires à l'extraction des syntagmes nominaux et défini les rapports syntagmatiques entre les composantes d'un syntagme nominal. Ces relations syntagmatiques sont exploitées pour la structuration des syntagmes nominaux. Une mesure, appelée ``quantité d'information'', est proposée pour évaluer le pouvoir évocateur de chaque syntagme nominal, filtrer et comparer les syntagmes nominaux. Le modèle proposé démontre que la combinaison d'une approche statistique et d'une approche linguistique affine les connaissances extraites et améliore les performances d'un système de recherche d'information.
4

Accès personnalisé à l'information : prise en compte de la dynamique utilisateur / Personnalized access to information : taking the user's dynamic into account

Guàrdia Sebaoun, Elie 29 September 2017 (has links)
L’enjeu majeur de cette thèse réside dans l’amélioration de l’adéquation entre l’information retournée et les attentes des utilisateurs à l’aide de profils riches et efficaces. Il s’agit donc d’exploiter au maximum les retours utilisateur (qu’ils soient donnés sous la forme de clics, de notes ou encore d’avis écrits) et le contexte. En parallèle la forte croissance des appareils nomades (smartphones, tablettes) et par conséquent de l’informatique ubiquitaire nous oblige à repenser le rôle des systèmes d’accès à l’information. C’est pourquoi nous ne nous sommes pas seulement intéressés à la performance à proprement parler mais aussi à l’accompagnement de l’utilisateur dans son accès à l’information. Durant ces travaux de thèse, nous avons choisi d’exploiter les textes écrit par les utilisateurs pour affiner leurs profils et contextualiser la recommandation. À cette fin, nous avons utilisé les avis postés sur les sites spécialisés (IMDb, RateBeer, BeerAdvocate) et les boutiques en ligne (Amazon) ainsi que les messages postés sur Twitter.Dans un second temps, nous nous sommes intéressés aux problématiques de modélisation de la dynamique des utilisateurs. En plus d’aider à l’amélioration des performances du système, elle permet d’apporter une forme d’explication quant aux items proposés. Ainsi, nous proposons d’accompagner l’utilisateur dans son accès à l’information au lieu de le contraindre à un ensemble d’items que le système juge pertinents. / The main goal of this thesis resides in using rich and efficient profiling to improve the adequation between the retrieved information and the user's expectations. We focus on exploiting as much feedback as we can (being clicks, ratings or written reviews) as well as context. In the meantime, the tremendous growth of ubiquitous computing forces us to rethink the role of information access platforms. Therefore, we took interest not solely in performances but also in accompanying users through their access to the information. Through this thesis, we focus on users dynamics modeling. Not only it improves the system performances but it also brings some kind of explicativity to the recommendation. Thus, we propose to accompany the user through his experience accessing information instead of constraining him to a given set of items the systems finds fitting.
5

Association rules mining in massive datasets : an application to polypharmacy detection

Berteloot, Théophile 09 June 2023 (has links)
Titre de l'écran-titre (visionné le 30 mai 2023) / Ce travail s'inscrit dans un projet de plus grande envergure, concernant la détection de polypharmacie potentiellement inappropriée, c'est-à-dire les combinaisons de 5 médicaments ou plus pris par un individu dans un court laps de temps entrainant des effets de santé indésirables. L'objectif de ce travail est de trouver une méthode efficace et rapide pour extraire un nombre raisonnable de lois d'association de qualité. Ici nos lois d'association mettent en relation des combinaisons de médicaments et des états médicaux. Nous nous sommes intéressés aux mesures permettant de juger la qualité d'une loi d'association ainsi que leur pertinence dans le projet. Ensuite, nous avons mis au point plusieurs méthodes permettant de miner des lois d'association. La première est une métaheuristique basée sur la période géologique appelée l'explosion cambrienne. Les métaheuristiques sont des algorithmes d'optimisation utilisant des processus stochastiques pour faire converger une population (un ensemble de solutions) vers l'optimum d'une fonction. Nous avons ensuite envisagé l'utilisation de réseaux de neurones profonds, plus précisément des auto-encodeurs. Nous avons alors créé l'algorithme ARM-AE qui utilise les auto-encodeurs et obtient de bonnes performances et surpasse les méthodes classiques sur plusieurs mesures de performance. Finalement, nous avons appliqué ARM-AE sur le jeu de données massives en santés de l'INSPQ (Institut national de santé publique du Québec) et nous fournissons une analyse des lois trouvées d'un point de vue statistique et médical. / This work is part of a larger project regarding the detection of potentially inappropriate polypharmacy leading to negative health effects in Quebec seniors. Polypharmacy is most often defined as a combinations of five or more medications taken at the same time by an individual. The objective of this work is to find an efficient and fast method to find a reasonable number of quality association rules. An association rule is an implication of the form A ⇒ C, which can be read as ”If A then C”, with A and C two sets of items, here the items are drugs and medical outcomes. We are interested in measures that allow to judge the quality of an association rule, as well as their relevance in the project. Then we develop several methods to mine association rules. The first one is a metaheuristic based on the geological period called the Cambrian explosion. Metaheuristics are optimisation algorithms using stochastic processes to converge a population (a set of solutions) to the optimum of a function. We then consider using deep neural networks, more precisely auto-encoders. We create the ARM-AE algorithm which uses auto-encoders and presents good performances and has several advantages over classical methods. Finally we apply ARM-AE on the massive healthcare dataset of the INSPQ (Institutnational de santé publique du Québec), and we provide an analysis of the rules found from a statistical and a medical point of view.
6

Délit de langue et paternité textuelle : une approche informatisée

Houle, Annie 19 April 2018 (has links)
Cette étude vise à évaluer l’utilité d’une assistance informatique lors de l’identification de l’auteur d’un texte en français dans un cadre judiciaire. L’objectif est de proposer un environnement informatique au linguiste oeuvrant en contexte judiciaire et plus spécifiquement en analyse de paternité textuelle et de valider la légitimité de cette assistance automatisée à travers une étude de cas impliquant des textes courts et très courts rédigés en français. L’analyse se scinde en deux parties : une partie quantitative presqu’essentiellement automatisée et une partie qualitative semi-automatisée. Les résultats provenant de cette étude suggèrent qu’un environnement automatisé est un gain pour le linguiste, non seulement quant au temps et à la neutralité d’exécution de l’analyse, mais également quant aux résultats encourageants obtenus grâce aux outils créés.
7

Opérations d'accès par le contenu à une base de documents textuels : application à un environnement de bureau

Jimenez Guarin, Claudia Lucia 05 July 1989 (has links) (PDF)
Sont présentées la définition, l'implantation et l'expérimentation de méthodes d'accèes par le contenu à une base de documents textuels, dans le cadre d'un serveur d'information bureautique. L'intégration de ces opérations comprend d'une part l'intégration des documents au modèle de données du serveur, d'autre part l'intégration au niveau fonctionnel des opérations spécifiques aux documents par l'introduction des opérateurs correspondants dans le langage de manipulation de données. Est considérée la coexistence de deux modèles de contenu des documents: le contenu textuel, forme par les chaines de caractères qui forment les portions de contenu de leur structure logique, et le contenu sémantique, qui est le résultat d'une analyse du contenu. Ont ainsi ete définies deux opérations de recherche, la recherche textuelle et la recherche sémantique, effectuées sur ces deux modèles de contenu. Les méthodes d'accès et de stockage correspondantes utilisent des méthodes de signature pour l'établissement des index textuel et sémantique. Ces méthodes permettent de tres bonnes performances, facilite de mise a jour et évaluation de requête. Ont été expérimentées une approche logicielle et une approche matérielle (avec le filtre Schuss) pour la réalisation de ces opérations. Une grande partie de ce travail a été intégrée dans le serveur ois, développe dans le cadre du projet esprit 231, Doeois
8

La gouvernance d'entreprise managériale : positionnement et rôle des gérants de fonds socialement responsables

Morvan, Jérémy 29 November 2005 (has links) (PDF)
Cette thèse développe une modélisation de la gouvernance de la firme fondée sur la légitimité du pouvoir. <br /><br />Dans la première partie, nous développons une approche théorique de la gouvernance. Dans le premier chapitre, nous présentons la théorie de l'agence et la théorie des parties prenantes pour identifier les acteurs du processus productif. Dans un deuxième chapitre, nous cherchons à faire évoluer le paradigme en présentant un modèle de légitimité du pouvoir dans la firme.<br /><br />Dans la seconde partie, nous produisons une approche empirique de la gouvernance. L'objectif est de comprendre l'imbrication des légitimités pragmatique, cognitive et morale de la firme dans sa recherche d'une adhésion des partenaires. Dans le troisième chapitre, une analyse de données textuelles permet d'identifer les attentes financières, partenariales et citoyennes de ces fonds socialement responsables (SR) en direction de l'entreprise. Dans le quatrième chapitre, nous comparons les performances de fonds et indices SR et traditionnels.
9

Locating Information in Heterogeneous log files / Localisation d'information dans les fichiers logs hétérogènes

Saneifar, Hassan 02 December 2011 (has links)
Cette thèse s'inscrit dans les domaines des systèmes Question Réponse en domaine restreint, la recherche d'information ainsi que TALN. Les systèmes de Question Réponse (QR) ont pour objectif de retrouver un fragment pertinent d'un document qui pourrait être considéré comme la meilleure réponse concise possible à une question de l'utilisateur. Le but de cette thèse est de proposer une approche de localisation de réponses dans des masses de données complexes et évolutives décrites ci-dessous.. De nos jours, dans de nombreux domaines d'application, les systèmes informatiques sont instrumentés pour produire des rapports d'événements survenant, dans un format de données textuelles généralement appelé fichiers log. Les fichiers logs représentent la source principale d'informations sur l'état des systèmes, des produits, ou encore les causes de problèmes qui peuvent survenir. Les fichiers logs peuvent également inclure des données sur les paramètres critiques, les sorties de capteurs, ou une combinaison de ceux-ci. Ces fichiers sont également utilisés lors des différentes étapes du développement de logiciels, principalement dans l'objectif de débogage et le profilage. Les fichiers logs sont devenus un élément standard et essentiel de toutes les grandes applications. Bien que le processus de génération de fichiers logs est assez simple et direct, l'analyse de fichiers logs pourrait être une tâche difficile qui exige d'énormes ressources de calcul, de temps et de procédures sophistiquées. En effet, il existe de nombreux types de fichiers logs générés dans certains domaines d'application qui ne sont pas systématiquement exploités d'une manière efficace en raison de leurs caractéristiques particulières. Dans cette thèse, nous nous concentrerons sur un type des fichiers logs générés par des systèmes EDA (Electronic Design Automation). Ces fichiers logs contiennent des informations sur la configuration et la conception des Circuits Intégrés (CI) ainsi que les tests de vérification effectués sur eux. Ces informations, très peu exploitées actuellement, sont particulièrement attractives et intéressantes pour la gestion de conception, la surveillance et surtout la vérification de la qualité de conception. Cependant, la complexité de ces données textuelles complexes, c.-à-d. des fichiers logs générés par des outils de conception de CI, rend difficile l'exploitation de ces connaissances. Plusieurs aspects de ces fichiers logs ont été moins soulignés dans les méthodes de TALN et Extraction d'Information (EI). Le grand volume de données et leurs caractéristiques particulières limitent la pertinence des méthodes classiques de TALN et EI. Dans ce projet de recherche nous cherchons à proposer une approche qui permet de répondre à répondre automatiquement aux questionnaires de vérification de qualité des CI selon les informations se trouvant dans les fichiers logs générés par les outils de conception. Au sein de cette thèse, nous étudions principalement "comment les spécificités de fichiers logs peuvent influencer l'extraction de l'information et les méthodes de TALN?". Le problème est accentué lorsque nous devons également prendre leurs structures évolutives et leur vocabulaire spécifique en compte. Dans ce contexte, un défi clé est de fournir des approches qui prennent les spécificités des fichiers logs en compte tout en considérant les enjeux qui sont spécifiques aux systèmes QR dans des domaines restreints. Ainsi, les contributions de cette thèse consistent brièvement en :〉Proposer une méthode d'identification et de reconnaissance automatique des unités logiques dans les fichiers logs afin d'effectuer une segmentation textuelle selon la structure des fichiers. Au sein de cette approche, nous proposons un type original de descripteur qui permet de modéliser la structure textuelle et le layout des documents textuels.〉Proposer une approche de la localisation de réponse (recherche de passages) dans les fichiers logs. Afin d'améliorer la performance de recherche de passage ainsi que surmonter certains problématiques dûs aux caractéristiques des fichiers logs, nous proposons une approches d'enrichissement de requêtes. Cette approches, fondée sur la notion de relevance feedback, consiste en un processus d'apprentissage et une méthode de pondération des mots pertinents du contexte qui sont susceptibles d'exister dans les passage adaptés. Cela dit, nous proposons également une nouvelle fonction originale de pondération (scoring), appelée TRQ (Term Relatedness to Query) qui a pour objectif de donner un poids élevé aux termes qui ont une probabilité importante de faire partie des passages pertinents. Cette approche est également adaptée et évaluée dans les domaines généraux.〉Etudier l'utilisation des connaissances morpho-syntaxiques au sein de nos approches. A cette fin, nous nous sommes intéressés à l'extraction de la terminologie dans les fichiers logs. Ainsi, nous proposons la méthode Exterlog, adaptée aux spécificités des logs, qui permet d'extraire des termes selon des patrons syntaxiques. Afin d'évaluer les termes extraits et en choisir les plus pertinents, nous proposons un protocole de validation automatique des termes qui utilise une mesure fondée sur le Web associée à des mesures statistiques, tout en prenant en compte le contexte spécialisé des logs. / In this thesis, we present contributions to the challenging issues which are encounteredin question answering and locating information in complex textual data, like log files. Question answering systems (QAS) aim to find a relevant fragment of a document which could be regarded as the best possible concise answer for a question given by a user. In this work, we are looking to propose a complete solution to locate information in a special kind of textual data, i.e., log files generated by EDA design tools.Nowadays, in many application areas, modern computing systems are instrumented to generate huge reports about occurring events in the format of log files. Log files are generated in every computing field to report the status of systems, products, or even causes of problems that can occur. Log files may also include data about critical parameters, sensor outputs, or a combination of those. Analyzing log files, as an attractive approach for automatic system management and monitoring, has been enjoying a growing amount of attention [Li et al., 2005]. Although the process of generating log files is quite simple and straightforward, log file analysis could be a tremendous task that requires enormous computational resources, long time and sophisticated procedures [Valdman, 2004]. Indeed, there are many kinds of log files generated in some application domains which are not systematically exploited in an efficient way because of their special characteristics. In this thesis, we are mainly interested in log files generated by Electronic Design Automation (EDA) systems. Electronic design automation is a category of software tools for designing electronic systems such as printed circuit boards and Integrated Circuits (IC). In this domain, to ensure the design quality, there are some quality check rules which should be verified. Verification of these rules is principally performed by analyzing the generated log files. In the case of large designs that the design tools may generate megabytes or gigabytes of log files each day, the problem is to wade through all of this data to locate the critical information we need to verify the quality check rules. These log files typically include a substantial amount of data. Accordingly, manually locating information is a tedious and cumbersome process. Furthermore, the particular characteristics of log files, specially those generated by EDA design tools, rise significant challenges in retrieval of information from the log files. The specific features of log files limit the usefulness of manual analysis techniques and static methods. Automated analysis of such logs is complex due to their heterogeneous and evolving structures and the large non-fixed vocabulary.In this thesis, by each contribution, we answer to questions raised in this work due to the data specificities or domain requirements. We investigate throughout this work the main concern "how the specificities of log files can influence the information extraction and natural language processing methods?". In this context, a key challenge is to provide approaches that take the log file specificities into account while considering the issues which are specific to QA in restricted domains. We present different contributions as below:> Proposing a novel method to recognize and identify the logical units in the log files to perform a segmentation according to their structure. We thus propose a method to characterize complex logicalunits found in log files according to their syntactic characteristics. Within this approach, we propose an original type of descriptor to model the textual structure and layout of text documents.> Proposing an approach to locate the requested information in the log files based on passage retrieval. To improve the performance of passage retrieval, we propose a novel query expansion approach to adapt an initial query to all types of corresponding log files and overcome the difficulties like mismatch vocabularies. Our query expansion approach relies on two relevance feedback steps. In the first one, we determine the explicit relevance feedback by identifying the context of questions. The second phase consists of a novel type of pseudo relevance feedback. Our method is based on a new term weighting function, called TRQ (Term Relatedness to Query), introduced in this work, which gives a score to terms of corpus according to their relatedness to the query. We also investigate how to apply our query expansion approach to documents from general domains.> Studying the use of morpho-syntactic knowledge in our approaches. For this purpose, we are interested in the extraction of terminology in the log files. Thus, we here introduce our approach, named Exterlog (EXtraction of TERminology from LOGs), to extract the terminology of log files. To evaluate the extracted terms and choose the most relevant ones, we propose a candidate term evaluation method using a measure, based on the Web and combined with statistical measures, taking into account the context of log files.
10

Diversité culturelle et religieuse dans le Devisement du monde de Marco Polo / Cultural and religious diversity in Marco Polo’s Travels

Lapierre, Dominique 23 October 2018 (has links)
L’objectif de cette thèse est de proposer une nouvelle lecture du Devisement du Monde – connu également sous le titre du Livre des Merveilles, La Description du Monde ou Il Milione – axée sur le regard que porte Marco Polo sur ses contemporains de l’autre bout du monde et la réception qui lui est réservée. Parti dans le contexte des croisades qui réduit l’opposition Orient/Occident à la dualité sarrasin/chrétien, le jeune Marco Polo se retrouve, au travers de ses voyages et à la cour de Kubilai Khan, dans une problématique beaucoup plus vaste, où pratiques et croyances multiples s’inscrivent dans des courants philosophiques jusqu’alors peu connus en Occident. « L’observateur des religions », comme le nomme Philippe Ménard, semble être véritablement fasciné par cette diversité culturelle et religieuse qu’il relève durant son séjour dans l’empire mongol. Tant de nouveautés sont difficiles à assimiler et surtout à rapporter. Nous nous intéressons à la forme que prennent ces descriptions à l’intérieur d’un récit aux versions et traductions multiples, dans un contexte historique et littéraire marqué par les guerres de religion et de pouvoir. Dans la poursuite des travaux de C. Dutschke et de C. Gadrat sur la réception, ce travail de recherche s’appuie sur l’étude diachronique de dix manuscrits et de six éditions du Devisement du monde datant de la première moitié du XIVe siècle jusqu’à la fin du XIXe siècle. Nous envisageons cette réception du texte, non pas sous l’angle de l’usage du récit polien par d’autres auteurs ou au regard de sa diffusion, mais à partir du texte lui-même, du paratexte ainsi que des enluminures et des illustrations. Ces éléments renseignent sur la manière dont le texte est reçu au cours des siècles, et sont porteurs des attentes du public potentiel qui évoluent elles-mêmes avec le temps. La numérisation systématique des versions/traductions retenues, ainsi que l’usage d’outils d’analyse de données textuelles permettent de concilier une lecture attentive du texte et une analyse quantitative au-delà de l’approche linéaire traditionnelle. / The main goal of this dissertation is to propose a new reading and approach of Marco Polo’s Travels, also known as the Devisement du monde, the Description of the World or Il Milione. This study is based both on Marco Polo’s description of people living on the other side of the world and on the critical reception of his book. When Marco Polo left Venice, the prevailing opposition between West and East was mainly grounded in the duality opposing Christians and Saracens. However, through his travels and during his stay at Kubilai Khan’s Mongol court, the young man embraced more complex issues relating to religious beliefs and practices related to philosophical movements barely known in the Western world.“The observer of religions”, as historian P. Ménard calls him, seems to be fascinated by the cultural and religious diversity he encounters during his stay in the Mongol empire. So, many differences with his own culture were difficult to absorb and to report. In this study, we particularly focus on the many versions and translations of these descriptions, written in a context of political and religious turmoil. Following the works of C. Dutschke and C. Gadrat on the reception theory applied to the Travels, this diachronic research is founded on ten manuscripts and six editions dating from the early 14th century until the late 19th century. The impact of Marco Polo’s account is not studied here through the circulation of his Travels or according to the number of authors mentioning it in their own writings, but is rather established in relation to the text itself, along with the paratext, miniatures and illustrations. All these elements provide valuable information concerning its reception through ages, and about the expectations of the potential audience, which also evolved over time. All the versions and translations of our corpus have been digitized, and thanks to text analysis tools, we were able to reconcile close reading and data processing while analyzing the text.

Page generated in 0.0645 seconds