• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 154
  • 24
  • 16
  • 12
  • 9
  • 3
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 233
  • 64
  • 50
  • 33
  • 32
  • 29
  • 29
  • 29
  • 28
  • 28
  • 27
  • 26
  • 26
  • 23
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Extraction de séquences inattendues : des motifs séquentiels aux règles d'implication

Li, Haoyuan 10 September 2009 (has links) (PDF)
Les motifs séquentiels peuvent être vus comme une extension de la notion d'itemsets fréquents intégrant diverses contraintes temporelles. La recherche de tels motifs consiste ainsi à extraire des enchaînements d'ensembles d'items, couramment associés sur une période de temps bien spécifiée. La construction de règles à partir de ces motifs séquentiels permet d'étendre la notion de règles d'association pour la pris en compte de la temporalité. En fait, cette recherche met en évidence des associations inter-transactions, contrairement à celle des règles d'association qui extrait des combinaisons intra-transactions. Ce problème, posé à l'origine dans un contexte de marketing, intéresse à présent des domaines aussi variés que les télécommunications, la finance, ou encore la médecine et la bioinformatique. Même s'il existe aujourd'hui de très nombreuses approches efficaces pour extraire des motifs, ces derniers ne sont pas forcément adaptés aux besoins des applications réelles. En fait, les résultats obtenus sont basés sur une mesure statistique et ne tiennent pas compte de la connaissance du domaine. De plus, ces approches sont principalement axées sur la recherche de tendances et ne permettent pas d'extraire des connaissances sur les éléments atypiques ou inattendus. Dans le cadre de cette thèse, nous nous intéressons donc à la problématique de l'extraction de motifs séquentiels et règles inattendus en intégrant la connaissance du domaine. Le travail présenté dans cette thèse comporte la mise en œuvre d'un cadre MUSE pour l'extraction de séquences inattendues par rapport à un système de croyances, des extensions avec la théorie de logique floue, l'intégration des données hiérarchisées, la définition des motifs séquentiels et règles inattendus et, enfin, l'extraction de phrases inattendues dans des documents textes. Des expérimentations menées sur des données synthétiques et sur des données réelles sont rapportées et montrent l'intérêt de nos propositions.
192

Visualisations interactives pour l'aide personnalisée à l'interprétation d'ensembles documentaires

Roy, Thibault 17 October 2007 (has links) (PDF)
Avec la multiplication des documents électroniques, les utilisateurs se retrouvent face à une véritable montagne de textes difficile à gravir.<br />Cette thèse, prenant place en Traitement Automatique des Langues, a pour objectif d'aider les utilisateurs dans de telles situations.<br />Les systèmes traditionnellement proposés (tels les moteurs de recherche) ne donnent pas toujours satisfaction aux utilisateurs pour des tâches répétées, prenant peu en considération leur point de vue et leurs interactions avec le matériau textuel.<br /><br />Nous proposons dans cette thèse que la personnalisation et l'interaction soient au centre de nouveaux outils d'aide pour l'accès au contenu d'ensembles de textes.<br />Ainsi, nous représentons le point de vue de l'utilisateur sur ses domaines d'intérêt par des ensembles de termes décrits et organisés selon un modèle de sémantique lexicale différentielle.<br />Nous exploitons de telles représentations pour construire des supports cartographiques d'interactions entre l'utilisateur et l'ensemble de textes, supports lui permettant de visualiser des regroupements, des liens et des différences entre textes de l'ensemble, et ainsi d'appréhender son contenu.<br /><br />Afin d'opérationnaliser de telles propositions, nous avons mis au point la plate-forme ProxiDocs.<br />Différentes validations de la plate-forme, prenant place dans des contextes pluridisciplinaires variés allant notamment de la recherche d'information sur Internet à l'étude d'expressions métaphoriques, ont ainsi permis de dégager la valeur ajoutée de nos propositions.
193

Du texte d'auteur aux textes des chaînes. Édition et traduction des chaînes aux Proverbes (1-3 ; 8, 22-36 ; 30, 15-33 et 31, 10-31) / From the Original Text to the Catenary Texts. Edition and Translation of the Catenae on the Proverbs (1-3 ; 8, 22-36 ; 30, 15-33 et 31, 10-31)

Danezan, Meredith 11 December 2018 (has links)
Le présent ouvrage livre la première édition et la première traduction de l’ensemble des chaînes aux Proverbes recensées pour les Chapitres 1 à 3 ; 8, 22-36 ; 30, 15-33 et 31, 10-31 des Proverbes. Les résultats de cette recherche permettent de considérer sous un jour nouveau la mouvance observée entre les différentes traditions caténaires. L’apport d’un manuscrit jusqu’ici négligé, le Bodleianus Barocci 195, permet de démêler l’écheveau de textes amalgamés, non délimités, souvent anonymes et parfois fautivement attribués par les caténistes ou les critiques. Il permet de retrouver un état de texte long et articulé, sous la forme d’un commentaire continu, de l’exégèse de Didyme aux Proverbes, quand les autres traditions ont eu tendance à la pulvériser sous la forme d’une multitude de scholies. Le commentaire qui accompagne cette édition repense à la fois les rapports entre les différentes formes de textes et le rapport de ces textes aux textes d’auteurs, jusqu’à redéfinir les contours d’un genre généralement conçu de façon trop monolithique : la chaîne exégétique. Outre les fragments nouveaux qu’il porte à la connaissance du public, le présent ouvrage se propose de reconstruire, sur la base de l’échantillon considéré, la personnalité herméneutique et littéraire d’auteurs qui ne sont pas conservés, pour les commentaires aux Proverbes, autrement que par cette forme de littérature secondaire : Didyme d’Alexandrie au premier chef, mais aussi Hippolyte et Origène. La mise en regard des traditions caténaires donne un riche aperçu de la réception patristique du premier des trois livres bibliques attribués au Roi Salomon. / The present work gives the first edition and first translation of all the catenae on the Proverbs known to these days, for parts commenting on Chapters 1 to 3 ; 8, 22-36 ; 30, 15-33 and 31, 10-31. The results of my inquiry allow to give a new signification to the mobility between the different traditions. The rediscovery of a neglected witness, the Bodleianus Barocci 195, brings some new light on texts amalgamated, without clear delimitation, often anonymous, and sometimes wrongly ascribed to antique writers by compilers or modern critics. It allows to have access to an extended and more articulated state of text for Didymus’ work on the Proverbs: a running commentary, not membra disjecta. The analysis in a separate volume rethinks the links between the different forms of texts and those between the catenary texts and the original texts. It renews our understanding of a too strictly defined genre: the exegetical catena. In addition to new fragments edited for the first time, the present work tries to rebuild the exegetic and literary personality of authors whose commentaries on the Proverbs are not preserved out of this form of secondary literature: Didymus of Alexandria first, but also Hippolytus and Origen. The parallel established between the various catenary traditions gives a rich insight into the Patristic reception of the first of the three biblical books ascribed to King Salomon.
194

Les conversations des internautes. Approche pragmatique d'acquisition de connaissances à partir de conversations textuelles pour la recherche marketing / Conversations of internet users. A Pragmatic Approach to knowledge Acquisition from Textual Conversations for Marketing Research

Leenhardt, Marguerite 17 January 2017 (has links)
Ce travail de recherche s'inscrit dans le cadre des méthodes de la linguistique de corpus et procède des besoins d'exploitation formulés dans le domaine du marketing à l'égard des conversations des internautes. Deux pistes sont poursuivies, la première relevant de leur description du point de vue de l'analyse des conversations et de la textométrie, la seconde visant des applications pratiques relatives à la fouille de textes. Une méthode de description systématique et automatisable est proposée, à partir de laquelle un procédé de mesure de l'engagement conversationnel des participants est mis en œuvre. L'étude des diagrammes d'engagement conversationnel (DEC) produits à partir de cette mesure permet d'observer des régularités typologiques dans les postures manifestées par les participants. Ce travail met également en exergue l'apport de la méthode textométrique pour l'acquisition de connaissances utiles à des fins de catégorisation automatique. Plusieurs analyses textométriques sont utilisées (spécificités, segments répétés, inventaires distributionnels) pour élaborer un modèle de connaissance dédié à la détection des intentions d'achat dans des fils de discussion issus d'un forum automobile. Les résultats obtenus, encourageants malgré la rareté des signaux exploitables au sein du corpus étudié, soulignent l'intérêt d'articuler des techniques d'analyse textométrique et de fouille de données textuelles au sein d'un même procédé d'acquisition de connaissances pour l'analyse automatique des conversations des internautes. / This research is part of the methods of corpus linguistics and proceeds from the needs expressed in the field of marketing regarding conversations of internet users. Two lines of research are investigated, the first falling under the perspective of conversation analysis and textometry, the second focuses on practical applications for text mining. A systematic and automated description is provided, from which a method of measuring participants' conversational engagement is implemented. The study of conversational engagement diagrams (CED) produced from this measure allows to observe typological regularities regarding how participants position themselves in conversations. This work also highlights the contribution of the textometric method for acquiring useful knowledge for supervised classification. Several textometric measures are used (specificity, repeated segments, distributional inventories) to develop a knowledge model for the detection of purchase intentions in discussions threads from an automotive forum. The results, encouraging despite the scarcity of usable signals in the corpus, underline the importance of articulating textometric analysis techniques and text mining in the same process of knowledge acquisition for automatic analysis of conversations of internet users.
195

Entrepôt de textes : de l'intégration à la modélisation multidimensionnelle de données textuelles / Text Warehouses : from the integration to the multidimensional modeling of textual data

Aknouche, Rachid 26 April 2014 (has links)
Le travail présenté dans ce mémoire vise à proposer des solutions aux problèmes d'entreposage des données textuelles. L'intérêt porté à ce type de données est motivé par le fait qu'elles ne peuvent être intégrées et entreposées par l'application de simples techniques employées dans les systèmes décisionnels actuels. Pour aborder cette problématique, nous avons proposé une démarche pour la construction d'entrepôts de textes. Elle couvre les principales phases d'un processus classique d'entreposage des données et utilise de nouvelles méthodes adaptées aux données textuelles. Dans ces travaux de thèse, nous nous sommes focalisés sur les deux premières phases qui sont l'intégration des données textuelles et leur modélisation multidimensionnelle. Pour mettre en place une solution d'intégration de ce type de données, nous avons eu recours aux techniques de recherche d'information (RI) et du traitement automatique du langage naturel (TALN). Pour cela, nous avons conçu un processus d'ETL (Extract-Transform-Load) adapté aux données textuelles. Il s'agit d'un framework d'intégration, nommé ETL-Text, qui permet de déployer différentes tâches d'extraction, de filtrage et de transformation des données textuelles originelles sous une forme leur permettant d'être entreposées. Certaines de ces tâches sont réalisées dans une approche, baptisée RICSH (Recherche d'information contextuelle par segmentation thématique de documents), de prétraitement et de recherche de données textuelles. D'autre part, l'organisation des données textuelles à des fins d'analyse est effectuée selon TWM (Text Warehouse Modelling), un nouveau modèle multidimensionnel adapté à ce type de données. Celui-ci étend le modèle en constellation classique pour prendre en charge la représentation des textes dans un environnement multidimensionnel. Dans TWM, il est défini une dimension sémantique conçue pour structurer les thèmes des documents et pour hiérarchiser les concepts sémantiques. Pour cela, TWM est adossé à une source sémantique externe, Wikipédia, en l'occurrence, pour traiter la partie sémantique du modèle. De plus, nous avons développé WikiCat, un outil pour alimenter la dimension sémantique de TWM avec des descripteurs sémantiques issus de Wikipédia. Ces deux dernières contributions complètent le framework ETL-Text pour constituer le dispositif d'entreposage des données textuelles. Pour valider nos différentes contributions, nous avons réalisé, en plus des travaux d'implémentation, une étude expérimentale pour chacune de nos propositions. Face au phénomène des données massives, nous avons développé dans le cadre d'une étude de cas des algorithmes de parallélisation des traitements en utilisant le paradigme MapReduce que nous avons testés dans l'environnement Hadoop. / The work, presented in this thesis, aims to propose solutions to the problems of textual data warehousing. The interest in the textual data is motivated by the fact that they cannot be integrated and warehoused by using the traditional applications and the current techniques of decision-making systems. In order to overcome this problem, we proposed a text warehouses approach which covers the main phases of a data warehousing process adapted to textual data. We focused specifically on the integration of textual data and their multidimensional modeling. For the textual data integration, we used information retrieval (IR) techniques and automatic natural language processing (NLP). Thus, we proposed an integration framework, called ETL-Text which is an ETL (Extract- Transform- Load) process suitable for textual data. The ETL-Text performs the extracting, filtering and transforming tasks of the original textual data in a form allowing them to be warehoused. Some of these tasks are performed in our RICSH approach (Contextual information retrieval by topics segmentation of documents) for pretreatment and textual data search. On the other hand, the organization of textual data for the analysis is carried out by our proposed TWM (Text Warehouse Modelling). It is a new multidimensional model suitable for textual data. It extends the classical constellation model to support the representation of textual data in a multidimensional environment. TWM includes a semantic dimension defined for structuring documents and topics by organizing the semantic concepts into a hierarchy. Also, we depend on a Wikipedia, as an external semantic source, to achieve the semantic part of the model. Furthermore, we developed WikiCat, which is a tool permit to feed the TWM semantic dimension with semantics descriptors from Wikipedia. These last two contributions complement the ETL-Text framework to establish the text warehouse device. To validate the different contributions, we performed, besides the implementation works, an experimental study for each model. For the emergence of large data, we developed, as part of a case study, a parallel processing algorithms using the MapReduce paradigm tested in the Apache Hadoop environment.
196

Gouverner le peuple chrétien : édition critique, traduction et commentaire des traités royaux d'Hincmar, archevêque de Reims (845-882) / Ruling Christian People : edition, Translation into French and Commentary of the royal Treatises of Archbishop Hincmar of Rheims (845-882)

Valette, Clementine 22 November 2014 (has links)
Le présent travail propose une édition critique de cinq traités rédigés par l’archevêque de Reims Hincmar (845-882) entre 873 et 882, qui portent tous sur la fonction royale : le De regis persona (873), le De fide Carolo regi seruanda (875), l’Ad Ludouicum Balbum (877), l’Ad Carolum Crassum (879) et l’Ad episcopos pro institutione Carolomanni (882). Les textes édités sont accompagnés d’une traduction originale en langue française. Les oeuvres théologico-politiques d’Hincmar sont replacées dans le contexte politique et intellectuel de l’ensemble carolingien de la seconde moitié du IXe siècle : au moment où des reconfigurations transforment la royauté carolingienne, l’archevêque de Reims, fort de trente années de pratique de la charge épiscopale, entreprend de guider des souverains qui appartiennent à trois générations successives. L’étude des sources révèle l’importance de la Bible, l’emprise de la pensée patristique de la période tardo-antique sur Hincmar, mais également les méthodes de travail et de lecture du prélat rémois. Le commentaire éclaire les éléments du contexte carolingien, ainsi que l’usage original que fait Hincmar des sources littéraires. Se dégage ainsi la vision du pouvoir que forge progressivement l’archevêque de Reims, en regard du pouvoir de l’évêque, garant et double du roi, dans le cadre d’un discours parénétique. / This study gives a critical edition for five treatises written by archbishop of Rheims Hincmar (845-882), between 873 and 882, the aim of which is to define the royal function : De regis persona (873), De fide Carolo regi seruanda (875), Ad Ludouicum Balbum (877), Ad Carolum Crassum (879) and Ad episcopos pro institutione Carolomanni (882). An original French translation complements this edition. Hincmar’s theological and political works are situated in the political and intellectual context of the second half of the ninth century : when carolingian kingship underwent successive reconfigurations. The archbishop of Rheims, thanks to thirty years of practice of episcopal function, tries to guide three generations of Carolingian kings. The enquiry into the sources reveals firstly, the importance of the Bible; secondly, the weight of late antique patristic thought; thirdly the work and reading methods of the bishop. The commentary highlights various elements of the Carolingian context and the original way Hincmar uses his sources. The vision of power he progressively develops thus comes to light, regarding the power of the bishop, warden and double of the king, within an exhortative discourse.
197

Les femmes à l’époque sassanide. Données iconographiques et sources textuelles en Iran du IIIème au VIIème siècle apr. J.-C. / Women in the sasanian empire. Iconographic and textual data in Iran from the IIIrd to the VIIth century ad

Sangari, Esmaeil 03 September 2013 (has links)
L’étude de la place et du statut des femmes dans l’Iran sassanide est fondée sur des données textuelles (cinq livres en pehlevie) et sur des matériaux archéologiques et iconographiques. L’objectif est la confrontation entre les deux séries de sources.Le volume I (texte, illustrations) en trois chapitres étudie les représentations des femmes puis traite du statut des femmes d’après les textes. Le troisième chapitre est la confrontation des deux séries de données. Le deuxième volume est le catalogue donnant d’une part la transcription et la traduction de textes d’époque sassanide et post-sassanide décrivant la situation des femmes dans la société, accompagnées de commentaires ; d’autre part des documents iconographiques: personnages féminins sur les bas-reliefs, sceaux et cachets, argenterie, mosaïques, monnaies, tissus, stucs, figurines et quelques autres objets.Au cours des quatre siècles sassanides, on constate une évolution relativement positive du statut de la femme d’après les textes, et en parallèle une augmentation des représentations féminines sur des documents officiels comme les sceaux, les meilleurs indicateurs de la place et du rôle des femmes dans la société de l’Iran sassanide. / The study of the role and status of women in Sasanian Iran is based on the textual sources (five books in Pahlavi) and series of archaeological and iconographic objects. This dissertation aims at confronting these two series of data.Volume I (text and illustrations) including three chapters is a study of women representation on the iconographic objects and then deals with their status in the texts. In the third chapter these two categories will be confronted. Volume II contains the catalogues: on the one hand the transcription and translation of the texts surviving from Sasanian and Post-Sasanian periods, which describe women’s status in the society, enriched with some commentaries; on the other hand the catalogue of iconographic evidence depicting women, including rock-reliefs, seals and bullae, silverware, mosaics, coins, fabrics, stuccoes, figurines, textiles, and the other varied kinds of objects. Our investigations suggest a rather positive evolution of the women’s status during the four-century period of the Sasanian empire, according to the available texts. At the same time, one observes an increasing number of female representations on such official documents as the seals, which are the most precise evidence on the social situation and place of women in Sasanian Iran.
198

Élan et devenir. Sony Labou Tansi (1967-1975) : naissance d’un écrivain et d’une écriture / Sony Labou Tansi (1967-1975) : emergence of a writer’s voice

Gahungu, Céline 20 June 2016 (has links)
Les recherches consacrées à Sony Labou Tansi et les publications d’inédits témoignent de la richesse d’une œuvre dont les facettes sont multiples. Un pan de cet univers demeure toutefois méconnu : les premiers pas de l’écrivain. L’accès à ses manuscrits et tapuscrits conservés en partie à la Bibliothèque francophone de Limoges – d’autres sont consultables à l’ITEM – ouvre la voie à des analyses renouvelées. Composés de 1967 à 1975, ces textes, pour la grande majorité inédits de son vivant, dressent le portrait d’un auteur congolais en formation, se lançant dans l’aventure de l’écriture. Celle-ci consiste alors à construire son identité d’auteur, fabriquer un univers et professionnaliser son écriture destinée à investir les maisons d’édition françaises. Dans une première partie, ce travail démontre qu’en rédigeant ses textes, Sony Labou Tansi forge son identité auctoriale. Il se conçoit sous les traits d’une bombe, les manuscrits devenant des laboratoires où s’exerce son audace. Devenir écrivain revêt une dimension institutionnelle, à laquelle s’intéresse notre deuxième partie. À rebours de l’imaginaire anarchiste de la bombe, la création littéraire est considérée comme un métier : il faut donc en accepter les codes et élaborer une stratégie d’émergence afin d’être publié. Une troisième partie analyse les métamorphoses de son univers en gésine. Les refus des maisons d’édition ainsi que la tension entre le fantasme d’une création conçue comme une révolte et le désir d’être adoubé l’institution littéraire ne le conduisent nullement à renoncer à ses ambitions. Le maître mot de ces années d’apprentissage est devenir et c’est ainsi que Sony Labou Tansi réinvente son univers, qui est le lieu de transformations incessantes. Sa trajectoire est doublement significative : la bataille de la création et de la publication est le lot de tout novice, mais paraît bien plus complexe pour une génération d’auteurs africains confrontée à un univers éditorial francophone en mutation. / The searches on Sony Labou Tansi’s works and the publications of his manuscripts testify of the wealth of his texts. A piece of it remains however unknown : the first steps of the writer. The access to its manuscripts and typescripts partially kept at the Francophone Library of Limoges – others are available for consultation in the Institute of Modern Texts and Manuscripts – open the way to renewed analyses. Written between 1967 and 1975, these texts, for the great majority unpublished in his lifetime, paint the portrait of a Congolese writer in training, dashing into the adventure of the writing. This one consists then in building his author’s identity, in making a universe and in professionalizing his writing intended to invest the French edition. In a first part, this work demonstrates that by drafting his texts, Sony Labou Tansi forges his auctorial identity. He conceives himself under the features of a bomb, the manuscripts becoming bold laboratories. Becoming a writer includes an institutional dimension, in which is interested our second part. Despite the anarchistic imagination of the bomb, the creative writing is considered as a job : it is thus necessary to accept its codes and to develop a strategy of emergence to be published. Our third part analyzes the metamorphoses of this universe under construction. The refusals of publishing houses as well as the tension between the fantasy of a creation conceived as a revolt and the desire to be recognized by the literary institution do not affect his will. The key word of these years of learning is to become and so Sony Labou Tansi reinvents its universe, which is the place of ceaseless transformations. His trajectory is doubly interesting : the battle of the creation and of the publication concerns every young writer, but seems more complex for a generation of African authors confronted with a changing editorial universe.
199

Les auteurs andalous dans les oeuvres médicales montpelliéraines au Moyen Âge. Essai de mise en évidence d'une voie de transmission montpelliéraine / The Andalusian authors in the medical works of Montpellier during the Middle Ages. An attempt to highlight a way of transmission peculiar to Montpellier / Los autores andalusíes en las obras médicas de Montpellier durante la Edad Media. Intento para poner de manifiesto una vía de trasmisión peculiar a Montpellier

Bosc, Jean-Louis 16 October 2010 (has links)
En 1204, le roi d’Aragon devint seigneur de Montpellier. À partir de 1309, la curie apostolique s’installa à Avignon. Sous ces deux patronages, l’Université de médecine connut, de la seconde moitié du XIIIe siècle à la fin du XIVe, sa période la plus florissante. Ce fut la période de plus grande activité littéraire de ses gradués. Après avoir assimilé les œuvres arabes traduites au Mont-Cassin et à Tolède, les maîtres montpelliérains étaient à la recherche de nouveaux textes, tant pour leur enseignement que pour leur exercice, notamment au sein des deux cours. Or la récente intégration à la Couronne d’Aragon des territoires du Levante donnait accès à de nouveaux textes issus d’al-Andalus. Sous l’impulsion des maîtres montpelliérains, prospéra ainsi un second foyer de traduction « espagnol ». L’étude des citations faites par les auteurs médicaux montpelliérains montre que sept œuvres andalouses, traduites en latin entre le XIIIe et le XIVe siècles, sont citées dans une vingtaine d’œuvres montpelliéraines. Certaines d’entre elles, qui datent des XVe et XVIe siècles, prouvent que les textes traduits sont restés pendant des décennies à la disposition des étudiants montpelliérains. Ces traductions ne fournirent qu’une faible proportion des citations d’auteurs andalous trouvées dans les textes montpelliérains. Mais elles associent à l’activité du studium montpelliérain de nouveaux auteurs andalous. Le recours à ceux-ci témoigne du dynamisme de l’Université de médecine au Moyen Âge, qui conduisit ses maîtres vers la terra incognita de nouvelles œuvres andalouses. / In 1204, the King of Aragon became Lord of Montpellier. In 1309, the Curia apostolic was installed in Avignon. Under these two patronages, the University of medicine experienced, from the second half of the thirteen century to the end of the fourteenth century, its most flourishing period. It was the period of the greatest literary activity of its graduates. After they had digested the Arabic works translated at Montecassino and Toledo, the Montpellier masters were looking for new texts in order to teach as well as to practise, especially within the two courts. Now the recent integration of the territories of Levante into the Crown of Aragon gave access to new texts from al-Andalus. So, on the impulse of the Montpellier masters, translations flourished in a second « Spanish » place. The study of the quotations made by the medical authors of Montpellier show that seven Andalusian works, translated into latin between the thirteen century and the fourteenth century, are quoted in about twenty works from Montpellier. Some among them, dating from the fifteenth and sixteenth centuries, prove that the translated texts remained at the disposal of the Montpellier students for decades. These translations make up only a small proportion of the quotations of Andalusian authors found in the Montpellier texts. But they associate some new Andalusian authors with the activity of the Montpellier studium. The resort to these authors attest the dynamism of the medical university in the Middle Ages which led its masters to the terra incognita of new Andalusian works / En 1204, el Rey de Aragón se volvió Señor de Montpellier. A partir de 1309, la curia apostólica se instaló en Aviñón. Bajo aquellos dos patrocinios, la Universidad de medicina conoció, desde la segunda mitad del siglo XIII hasta el final del siglo XIV, su periódo más próspero. Fue el periódo de la más gran actividad literaria de sus graduados.Despues de haber asimilado las obras árabes traducidas en el Montecassino y en Toledo, los maestros de Montpellier estaban buscando nuevos textos, tanto para su enseñanza como para su desempeño, particularmente al seno de las dos cortes. Pues la reciente integración de los territorios del Levante a la Corona de Aragón daba el acceso a nuevos textos que provenían de al-Andalus. Bajo el impulso de los maestros de Montpellier, prosperó así un segundo foco « español » de traducción. El estudio de las citas hechas por los autores médicos de Montpellier demuestra que siete obras andalusíes, traducidas al latín entre el siglo XIII y el siglo XIV, están citadas en unas veinte obras de Montpellier. Algunas de aquellas, que datan de los siglos XV y XVI, prueban que los textos traducidos quedaron durante decenios a la disposición de los estudiantes de Montpellier. Aquellas traducciones no produjeron más que una escasa proporción de las citas de autores andalusíes encontradas en los textos de Montpellier. Pero asocian nuevos autores andalusíes a la actividad del studium de Montpellier. El recurso a aquellos da un testimonio del dinamismo de la Universidad de medicina en la Edad Media, que llevó sus maestros hacia la terra incognita de nuevas obras andalucíes.
200

VGCN-BERT : augmenting BERT with graph embedding for text classification : application to offensive language detection

Lu, Zhibin 05 1900 (has links)
Le discours haineux est un problème sérieux sur les média sociaux. Dans ce mémoire, nous étudions le problème de détection automatique du langage haineux sur réseaux sociaux. Nous traitons ce problème comme un problème de classification de textes. La classification de textes a fait un grand progrès ces dernières années grâce aux techniques d’apprentissage profond. En particulier, les modèles utilisant un mécanisme d’attention tel que BERT se sont révélés capables de capturer les informations contextuelles contenues dans une phrase ou un texte. Cependant, leur capacité à saisir l’information globale sur le vocabulaire d’une langue dans une application spécifique est plus limitée. Récemment, un nouveau type de réseau de neurones, appelé Graph Convolutional Network (GCN), émerge. Il intègre les informations des voisins en manipulant un graphique global pour prendre en compte les informations globales, et il a obtenu de bons résultats dans de nombreuses tâches, y compris la classification de textes. Par conséquent, notre motivation dans ce mémoire est de concevoir une méthode qui peut combiner à la fois les avantages du modèle BERT, qui excelle en capturant des informations locales, et le modèle GCN, qui fournit les informations globale du langage. Néanmoins, le GCN traditionnel est un modèle d'apprentissage transductif, qui effectue une opération convolutionnelle sur un graphe composé d'éléments à traiter dans les tâches (c'est-à-dire un graphe de documents) et ne peut pas être appliqué à un nouveau document qui ne fait pas partie du graphe pendant l'entraînement. Dans ce mémoire, nous proposons d'abord un nouveau modèle GCN de vocabulaire (VGCN), qui transforme la convolution au niveau du document du modèle GCN traditionnel en convolution au niveau du mot en utilisant les co-occurrences de mots. En ce faisant, nous transformons le mode d'apprentissage transductif en mode inductif, qui peut être appliqué à un nouveau document. Ensuite, nous proposons le modèle Interactive-VGCN-BERT qui combine notre modèle VGCN avec BERT. Dans ce modèle, les informations locales captées par BERT sont combinées avec les informations globales captées par VGCN. De plus, les informations locales et les informations globales interagissent à travers différentes couches de BERT, ce qui leur permet d'influencer mutuellement et de construire ensemble une représentation finale pour la classification. Via ces interactions, les informations de langue globales peuvent aider à distinguer des mots ambigus ou à comprendre des expressions peu claires, améliorant ainsi les performances des tâches de classification de textes. Pour évaluer l'efficacité de notre modèle Interactive-VGCN-BERT, nous menons des expériences sur plusieurs ensembles de données de différents types -- non seulement sur le langage haineux, mais aussi sur la détection de grammaticalité et les commentaires sur les films. Les résultats expérimentaux montrent que le modèle Interactive-VGCN-BERT surpasse tous les autres modèles tels que Vanilla-VGCN-BERT, BERT, Bi-LSTM, MLP, GCN et ainsi de suite. En particulier, nous observons que VGCN peut effectivement fournir des informations utiles pour aider à comprendre un texte haiteux implicit quand il est intégré avec BERT, ce qui vérifie notre intuition au début de cette étude. / Hate speech is a serious problem on social media. In this thesis, we investigate the problem of automatic detection of hate speech on social media. We cast it as a text classification problem. With the development of deep learning, text classification has made great progress in recent years. In particular, models using attention mechanism such as BERT have shown great capability of capturing the local contextual information within a sentence or document. Although local connections between words in the sentence can be captured, their ability of capturing certain application-dependent global information and long-range semantic dependency is limited. Recently, a new type of neural network, called the Graph Convolutional Network (GCN), has attracted much attention. It provides an effective mechanism to take into account the global information via the convolutional operation on a global graph and has achieved good results in many tasks including text classification. In this thesis, we propose a method that can combine both advantages of BERT model, which is excellent at exploiting the local information from a text, and the GCN model, which provides the application-dependent global language information. However, the traditional GCN is a transductive learning model, which performs a convolutional operation on a graph composed of task entities (i.e. documents graph) and cannot be applied directly to a new document. In this thesis, we first propose a novel Vocabulary GCN model (VGCN), which transforms the document-level convolution of the traditional GCN model to word-level convolution using a word graph created from word co-occurrences. In this way, we change the training method of GCN, from the transductive learning mode to the inductive learning mode, that can be applied to new documents. Secondly, we propose an Interactive-VGCN-BERT model that combines our VGCN model with BERT. In this model, local information including dependencies between words in a sentence, can be captured by BERT, while the global information reflecting the relations between words in a language (e.g. related words) can be captured by VGCN. In addition, local information and global information can interact through different layers of BERT, allowing them to influence mutually and to build together a final representation for classification. In so doing, the global language information can help distinguish ambiguous words or understand unclear expressions, thereby improving the performance of text classification tasks. To evaluate the effectiveness of our Interactive-VGCN-BERT model, we conduct experiments on several datasets of different types -- hate language detection, as well as movie review and grammaticality, and compare them with several state-of-the-art baseline models. Experimental results show that our Interactive-VGCN-BERT outperforms all other models such as Vanilla-VGCN-BERT, BERT, Bi-LSTM, MLP, GCN, and so on. In particular, we have found that VGCN can indeed help understand a text when it is integrated with BERT, confirming our intuition to combine the two mechanisms.

Page generated in 0.1076 seconds