• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 9
  • Tagged with
  • 11
  • 11
  • 8
  • 8
  • 8
  • 8
  • 7
  • 7
  • 7
  • 7
  • 6
  • 5
  • 5
  • 5
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Automatisation du repérage et de l'encodage des collocations en langue de spécialité

Orliac, Brigitte January 2004 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
2

"Exploration des procédés de condensation pour le résumé de texte grâce à l'application des formalismes de la théorie sens-texte"

Bélanger, Pascale January 2003 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
3

Modèle de structuration des relations lexicales fondé sur le formalisme des fonctions lexicales

Jousse, Anne-Laure 04 1900 (has links)
Thèse réalisée en cotutelle avec l'Université Paris Diderot (Paris 7) / Cette thèse porte sur l’élaboration d’un modèle de structuration des relations lexicales, fondé sur les fonctions lexicales de la Théorie Sens-Texte [Mel’cuk, 1997]. Les relations lexicales considérées sont les dérivations sémantiques et les collocations telles qu’elles sont définies dans le cadre de la Lexicologie Explicative et Combinatoire [Mel’cuk et al., 1995]. En partant du constat que ces relations lexicales ne sont pas décrites ni présentées de façon satisfaisante dans les bases de données lexicales, nous posons la nécessité d’en créer un modèle de structuration. Nous justifions l’intérêt de créer un système de fonctions lexicales puis détaillons les quatre perspectives du système que nous avons mises au point : une perspective sémantique, une perspective axée sur la combinatoire des éléments d’une relation lexicale, une perspective centrée sur leurs parties du discours, ainsi qu’une perspective mettant en avant l’élément sur lequel se focalise la relation. Le système intègre l’ensemble des fonctions lexicales, y compris les fonctions lexicales non standard, dont nous proposons une normalisation de l’encodage. Le système a été implémenté dans la base de données lexicale du DiCo. Nous présentons trois applications dans lesquelles il peut être exploité. Premièrement, il est possible d’en dériver des interfaces de consultation pour les bases de données lexicales de type DiCo. Le système peut également être directement consulté en tant qu’assistant à l’encodage des relations lexicales. Enfin, il sert de référence pour effectuer un certain nombre de calculs sur les informations lexicographiques, qui pourront, par la suite, être implémentés pour automatiser la rédaction de certains champs de fiches lexicographiques. / This thesis proposes a model for structuring lexical relations, based on the concept of lexical functions (LFs) proposed in Meaning-Text Theory [Mel’cuk, 1997]. The lexical relations taken into account include semantic derivations and collocations as defined within this theoretical framework, known as Explanatory and Combinatorial Lexicology [Mel’cuk et al., 1995]. Considering the assumption that lexical relations are neither encoded nor made available in lexical databases in an entirely satisfactory manner, we assume the necessity of designing a new model for structuring them. First of all, we justify the relevance of devising a system of lexical functions rather than a simple classification. Next, we present the four perspectives developped in the system: a semantic perspective, a combinatorial one, another one targetting the parts of speech of the elements involved in a lexical relation, and, finally, a last one emphasizing which element of the relation is focused on. This system covers all LFs, even non-standard ones, for which we have proposed a normalization of the encoding. Our system has already been implemented into the DiCo relational database. We propose three further applications that can be developed from it. First, it can be used to build browsing interfaces for lexical databases such as the DiCo. It can also be directly consulted as a tool to assist lexicographers in encoding lexical relations by means of lexical functions. Finally, it constitutes a reference to compute lexicographic information which will, in future work, be implemented in order to automatically fill in some fields within the entries in lexical databases.
4

Modèle de structuration des relations lexicales fondé sur le formalisme des fonctions lexicales

Jousse, Anne-Laure 04 1900 (has links)
Cette thèse porte sur l’élaboration d’un modèle de structuration des relations lexicales, fondé sur les fonctions lexicales de la Théorie Sens-Texte [Mel’cuk, 1997]. Les relations lexicales considérées sont les dérivations sémantiques et les collocations telles qu’elles sont définies dans le cadre de la Lexicologie Explicative et Combinatoire [Mel’cuk et al., 1995]. En partant du constat que ces relations lexicales ne sont pas décrites ni présentées de façon satisfaisante dans les bases de données lexicales, nous posons la nécessité d’en créer un modèle de structuration. Nous justifions l’intérêt de créer un système de fonctions lexicales puis détaillons les quatre perspectives du système que nous avons mises au point : une perspective sémantique, une perspective axée sur la combinatoire des éléments d’une relation lexicale, une perspective centrée sur leurs parties du discours, ainsi qu’une perspective mettant en avant l’élément sur lequel se focalise la relation. Le système intègre l’ensemble des fonctions lexicales, y compris les fonctions lexicales non standard, dont nous proposons une normalisation de l’encodage. Le système a été implémenté dans la base de données lexicale du DiCo. Nous présentons trois applications dans lesquelles il peut être exploité. Premièrement, il est possible d’en dériver des interfaces de consultation pour les bases de données lexicales de type DiCo. Le système peut également être directement consulté en tant qu’assistant à l’encodage des relations lexicales. Enfin, il sert de référence pour effectuer un certain nombre de calculs sur les informations lexicographiques, qui pourront, par la suite, être implémentés pour automatiser la rédaction de certains champs de fiches lexicographiques. / This thesis proposes a model for structuring lexical relations, based on the concept of lexical functions (LFs) proposed in Meaning-Text Theory [Mel’cuk, 1997]. The lexical relations taken into account include semantic derivations and collocations as defined within this theoretical framework, known as Explanatory and Combinatorial Lexicology [Mel’cuk et al., 1995]. Considering the assumption that lexical relations are neither encoded nor made available in lexical databases in an entirely satisfactory manner, we assume the necessity of designing a new model for structuring them. First of all, we justify the relevance of devising a system of lexical functions rather than a simple classification. Next, we present the four perspectives developped in the system: a semantic perspective, a combinatorial one, another one targetting the parts of speech of the elements involved in a lexical relation, and, finally, a last one emphasizing which element of the relation is focused on. This system covers all LFs, even non-standard ones, for which we have proposed a normalization of the encoding. Our system has already been implemented into the DiCo relational database. We propose three further applications that can be developed from it. First, it can be used to build browsing interfaces for lexical databases such as the DiCo. It can also be directly consulted as a tool to assist lexicographers in encoding lexical relations by means of lexical functions. Finally, it constitutes a reference to compute lexicographic information which will, in future work, be implemented in order to automatically fill in some fields within the entries in lexical databases. / Thèse réalisée en cotutelle avec l'Université Paris Diderot (Paris 7)
5

Approche hybride - lexicale et thématique - pour la modélisation, la détection et l'exploitation des fonctions lexicales en vue de l'analyse sémantique de texte

Schwab, Didier 07 December 2005 (has links) (PDF)
Utilisée à la fois pour l'apprentissage et l'exploitation des vecteurs conceptuels, l'analyse sémantique de texte est centrale à nos recherches. L'amélioration qualitative du processus d'analyse entraîne celle des vecteurs. En retour, cette meilleure pertinence a un effet positif sur l'analyse. Parmi les différentes voies à explorer pour obtenir ce cercle vertueux, l'une des pistes les plus intéressantes semble être la découverte puis l'exploitation des relations lexicales entre les mots du texte. Ces relations, parmi lesquelles la synonymie, l'antonymie, l'hyperonymie, la bonification ou l'intensification, sont modélisables sous la forme de fonctions lexicales. Énoncées essentiellement dans un cadre de production par Igor Mel'čuk, nous cherchons, dans cette thèse, à les adapter à un cadre d'analyse. Nous introduisons ici deux classes de Fonctions Lexicales d'Analyse. Les premières, les FLA de construction permettent de fabriquer un vecteur conceptuel à partir des informations lexicales disponibles. Les secondes, les FLA d'évaluation permettent de mesurer la pertinence d'une relation lexicale entre plusieurs termes. Ces dernières sont modélisables grâce à des informations thématiques (vecteurs conceptuels) et/ou grâce à des informations lexicales (relations symboliques entre les objets lexicaux).<br /><br />Les informations lexicales sont issues de la base lexicale sémantique dont nous introduisons l'architecture à trois niveaux d'objets lexicaux (item lexical, acception, lexie). Elles sont matérialisées sous la forme de Relations Lexicales Valuées qui traduisent la probabilité d'existence de la relation entre les objets. L'utilité de ces relations a pu être mis en évidence pour l'analyse sémantique grâce à l'utilisation du paradigme des algorithmes à fourmis. Le modèle introduit dans cette thèse, utilise à la fois les vecteurs conceptuels et les relations du réseau lexical pour résoudre une partie des problèmes posés lors d'une analyse sémantique.<br /><br />Tous nos outils ont été implémentés en Java. Ils reposent sur Blexisma (Base LEXIcale Sémantique Multi-Agent) une architecture multi-agent élaborée au cours de cette thèse dont l'objectif est d'intégrer tout élément lui permettant de créer, d'améliorer et d'exploiter une ou plusieurs Bases Lexicales Sémantiques. Les expériences menées ont montré la faisabilité de cette approche, sa pertinence en termes d'amélioration globale de l'analyse et ouvert des perspectives de recherches fort intéressantes.
6

Évaluation de deux méthodes d’identification des liens lexicaux : méthode manuelle et méthode statistique

Poudrier, Caroline 05 1900 (has links)
Ce mémoire présente une évaluation des différentes méthodes utilisées en lexicographie afin d’identifier les liens lexicaux dans les dictionnaires où sont répertoriées des collocations. Nous avons ici comparé le contenu de fiches du DiCo, un dictionnaire de dérivés sémantiques et de collocations créé selon les principes de la lexicologie explicative et combinatoire, avec les listes de cooccurrents générées automatiquement à partir du corpus Le Monde 2002. Notre objectif est ici de proposer des améliorations méthodologiques à la création de fiches de dictionnaire du type du DiCo, c’est-à-dire, des dictionnaires d’approche qualitative, où la collocation est définie comme une association récurrente et arbitraire entre deux items lexicaux et où les principaux outils méthodologiques utilisés sont la compétence linguistique de ses lexicographes et la consultation manuelle de corpus de textes. La consultation de listes de cooccurrents est une pratique associée habituellement à une approche lexicographique quantitative, qui définit la collocation comme une association entre deux items lexicaux qui est plus fréquente, dans un corpus, que ce qui pourrait être attendu si ces deux items lexicaux y étaient distribués de façon aléatoire. Nous voulons mesurer ici dans quelle mesure les outils utilisés traditionnellement dans une approche quantitative peuvent être utiles à la création de fiches lexicographiques d’approche qualitative, et de quelle façon leur utilisation peut être intégrée à la méthodologie actuelle de création de ces fiches. / This paper presents an evaluation of the various methods used in lexicography in order to identify the lexical bonds in dictionaries where collocations are indexed. We compared the contents of entries of the DiCo, a dictionary of semantic derivatives and collocations created according to the principles of explanatory and combinative lexicology, with the lists of cooccurrents generated automatically from the Le Monde 2002 corpus. Our objective here is to propose improvement in the methodology of creation of dictionary entry of DiCo-like dictionaries, i.e., dictionaries of a qualitative approach, where collocation is defined as the recurring and arbitrary associations between two lexical items and where the principal methodological tools used are the linguistic ability of its lexicographers and the manual consultation of corpus of text. The consultation of lists of cooccurrents is a practice associated traditionally with a quantitative lexicographical approach, which defines collocation as an association between two lexical items, which is more frequent, in a corpus, than what could be expected if these two lexical items were randomly distributed in corpus. We want to evaluate in what respect the tools used traditionally in a quantitative approach can be used for the creation of lexicographical entries of a qualitative approach, and how their use can be integrated into the current methology of creation of these entries.
7

Les collocations du champ sémantique des émotions en mandarin

Zhao, Xiaoyu 11 1900 (has links)
No description available.
8

Évaluation de deux méthodes d’identification des liens lexicaux : méthode manuelle et méthode statistique

Poudrier, Caroline 05 1900 (has links)
Ce mémoire présente une évaluation des différentes méthodes utilisées en lexicographie afin d’identifier les liens lexicaux dans les dictionnaires où sont répertoriées des collocations. Nous avons ici comparé le contenu de fiches du DiCo, un dictionnaire de dérivés sémantiques et de collocations créé selon les principes de la lexicologie explicative et combinatoire, avec les listes de cooccurrents générées automatiquement à partir du corpus Le Monde 2002. Notre objectif est ici de proposer des améliorations méthodologiques à la création de fiches de dictionnaire du type du DiCo, c’est-à-dire, des dictionnaires d’approche qualitative, où la collocation est définie comme une association récurrente et arbitraire entre deux items lexicaux et où les principaux outils méthodologiques utilisés sont la compétence linguistique de ses lexicographes et la consultation manuelle de corpus de textes. La consultation de listes de cooccurrents est une pratique associée habituellement à une approche lexicographique quantitative, qui définit la collocation comme une association entre deux items lexicaux qui est plus fréquente, dans un corpus, que ce qui pourrait être attendu si ces deux items lexicaux y étaient distribués de façon aléatoire. Nous voulons mesurer ici dans quelle mesure les outils utilisés traditionnellement dans une approche quantitative peuvent être utiles à la création de fiches lexicographiques d’approche qualitative, et de quelle façon leur utilisation peut être intégrée à la méthodologie actuelle de création de ces fiches. / This paper presents an evaluation of the various methods used in lexicography in order to identify the lexical bonds in dictionaries where collocations are indexed. We compared the contents of entries of the DiCo, a dictionary of semantic derivatives and collocations created according to the principles of explanatory and combinative lexicology, with the lists of cooccurrents generated automatically from the Le Monde 2002 corpus. Our objective here is to propose improvement in the methodology of creation of dictionary entry of DiCo-like dictionaries, i.e., dictionaries of a qualitative approach, where collocation is defined as the recurring and arbitrary associations between two lexical items and where the principal methodological tools used are the linguistic ability of its lexicographers and the manual consultation of corpus of text. The consultation of lists of cooccurrents is a practice associated traditionally with a quantitative lexicographical approach, which defines collocation as an association between two lexical items, which is more frequent, in a corpus, than what could be expected if these two lexical items were randomly distributed in corpus. We want to evaluate in what respect the tools used traditionally in a quantitative approach can be used for the creation of lexicographical entries of a qualitative approach, and how their use can be integrated into the current methology of creation of these entries.
9

Une contribution à l'amélioration des ressources terminographiques : étude terminologique fondée sur un corpus de textes de spécialité du domaine du droit de l'internet / A contribution to the improvement of terminographic resources : terminological study based on a specialized corpus in the field of Internet law

Liczner, Aleksandra 28 September 2016 (has links)
Le présent travail se donne comme objectif de proposer une méthode de description complète des unités terminologiques du domaine du droit de l’Internet. Il s’agit d’un modèle hybride permettant de refléter à la fois la dimension linguistique et conceptuelle des termes et plus précisément, les relations lexico-sémantiques et les liens conceptuels que ces derniers entretiennent avec d’autres unités terminologiques et lexicales appartenant au vocabulaire du domaine et ceci par le biais de leur comportement dans l’univers discursif. Le projet, que nous avons baptisé DITerm, s’inscrit donc dans une démarche résolument descriptive dont l’ambition est de rendre compte des usages observés dans la langue de spécialité donnée. Le modèle en question est créé à partir d’un corpus de textes juridiques d’environ 5 000 000 mots et doit servir de base à la conception d’un dictionnaire spécialisé d’encodage destiné aux traducteurs dont la langue de travail est le français. Le terme, tel qu’il est envisagé dans le cadre de cette étude, constitue une unité à dimensions multiples qui doit être considérée sous différents angles. Sa description est donc basée sur l’analyse de ses relations lexicales, conceptuelles et contextuelles et s’inspire largement des modèles lexicographiques. Le projet DITerm a pour arrière-plan théorique la Lexicologie Explicative et Combinatoire, composante lexicologique de la théorie Sens-Texte (Mel’čuk et al. 1995) ainsi que la théorie des cadres et ses différentes applications (Minsky, Fillmore, Martin). La méthodologie adoptée dans ce projet s’inscrit dans le cadre de la linguistique de corpus (Sinclair). Le modèle DITerm propose de décrire chaque terme comme le centre d’une constellation autour de laquelle gravitent de nombreux termes coordonnés formant ce que Cornu (2002) appelle des familles opérationnelles. Pour modéliser les relations que partage le terme vedette avec les unités qui ont tendance à apparaître dans son univers contextuel, nous avons recours à des formules explicites fondées sur un métalangage compréhensible pour tous. Ce formalisme, basé sur la paraphrase, correspond en partie à la vulgarisation des fonctions lexicales. Il présente par ailleurs l’avantage de pouvoir s’adapter à la représentation des liens d’ordre conceptuel. Deplus, la description est enrichie par la mise en place d’un modèle d’annotation des contextes au moyen des cadres sémantiques à la FrameNet permettant de mettre en évidence les liens indirects entretenus par les termes / The aim of this work is to propose a holistic description of terminological units in the field of Internet law, based on a hybrid model that reflectis both the linguistic and the conceptual dimension of terms. To be more precise, this model aims to point out the lexical-semantic relationships and conceptual links that those terms maintain with other terminological and lexical units belonging to the Internet law vocabulary, by studying their behavior in the discursive universe. The project (which we call DITerm) is part of a descriptive approach whose ambition is to explain observed usage in the specialized language at hand. The model was created using acorpus made up of legal texts which totals about 5 000,000 words. The model will be used as the basis for the conception of a specialized encoding dictionary. This dictionary is intended for translators with French language as their working language. The term, as it is viewed in this study, is a multi-dimensional unity which should be considered from many angles. Its description is hence based on the analysis of its lexical, conceptual and contextual relationships which is widely inspired by lexicographical models. Thetheoretical background of the DITerm project is Explanatory and Combinatorial Lexicology, the lexicological component of Meaning-Text Theory (Mel’čuk et al. 1995). We also draw inspiration from the frame theory and its different applications (Minsky’s Frame System Theory,Fillmore’s Frame Semantics). The methodology adopted in this project fits into the framework of corpus linguistics (Sinclair).The DITerm model proposes to describe each term as the center of a constellation around which several coordinated terms gravitate, creating what Cornu (2002) calls operational families. In order to model the relationships the term shares with the units which tend to appear in its contextual universe, we rely on several explicit formulas based on a broadly comprehensible metalanguage. This formalism, which is based on paraphrase, correlates partly with the popularization of the lexical functions. On the other hand, it has the advantage of adapting to the representation of conceptual links. In addition, the description is enriched by the implementation of an annotation model of the contexts in which the terms occur, which makes it possible to account for indirect links that are maintained by terms. This annotation model is an application of the FrameNet methodology.
10

Implémentation des collocations pour la réalisation de texte multilingue

Lambrey, Florie 12 1900 (has links)
La génération automatique de texte (GAT) produit du texte en langue naturelle destiné aux humains à partir de données non langagières. L’objectif de la GAT est de concevoir des générateurs réutilisables d’une langue à l’autre et d’une application à l’autre. Pour ce faire, l’architecture des générateurs automatiques de texte est modulaire : on distingue entre la génération profonde qui détermine le contenu du message à exprimer et la réalisation linguistique qui génère les unités et structures linguistiques exprimant le message. La réalisation linguistique multilingue nécessite de modéliser les principaux phénomènes linguistiques de la manière la plus générique possible. Or, les collocations représentent un de ces principaux phénomènes linguistiques et demeurent problématiques en GAT, mais aussi pour le Traitement Automatique des Langues en général. La Théorie Sens-Texte analyse les collocations comme des contraintes de sélection lexicale. Autrement dit, une collocation est composée de trois éléments : (i) la base, (ii) le collocatif, choisi en fonction de la base et (iii) d’une relation sémantico-lexicale. Il existe des relations sémantico-lexicales récurrentes et systématiques. Les fonctions lexicales modélisent ces relations. En effet, des collocations telles que peur bleue ou pluie torrentielle instancient une même relation, l’intensification, que l’on peut décrire au moyen de la fonction lexicale Magn : Magn(PEUR) = BLEUE, Magn(PLUIE) = TORRENTIELLE, etc. Il existe des centaines de fonctions lexicales. Ce mémoire présente la méthodologie d’implémentation des collocations dans un réalisateur de texte multilingue, GÉCO, à l’aide des fonctions lexicales standard syntagmatiques simples et complexes. Le cœur de la méthodologie repose sur le regroupement des fonctions lexicales ayant un fonctionnement similaire dans des patrons génériques. Au total, plus de 26 000 fonctions lexicales ont été implémentées, représentant de ce fait une avancée considérable pour le traitement des collocations en réalisation de texte multilingue. / Natural Language Generation (NLG) produces text in natural language from non-linguistic content. NLG aims at developing generators that are reusable across languages and applications. In order to do so, these systems’ architecture is modular: while the deep generation module determines the content of the message to be expressed, the text realization module maps the message into its most appropriate linguistic form. Multilingual text realization requires to model the core linguistic phenomena that one finds in language. Collocations represent one of the core linguistic phenomena that remain problematic not only in NLG, but also in Natural Language Processing in general. The Meaning-Text theory analyses collocations as constraints on lexical selection. In other words, a collocation is made up of three constituents: (i) the base, (ii) the collocate, chosen according to (iii) a semantico-lexical relation. Some of these semantico-lexical relations are systematic and shared by many collocations. Lexical functions are a system for modeling these relations. In fact, collocations such as heavy rain or strong preference instantiate the same relation, intensity, can be described with the lexical function Magn: Magn(RAIN) = HEAVY, Magn(PREFERENCE) = STRONG, etc. There are hundreds of lexical functions. Our work presents a methodology for the implementation of collocations in a multilingual text realization engine, GÉCO, that relies on simple and complex syntagmatic standard lexical functions. The principal aspect of the methodology consists of regrouping lexical functions that show a similar behavior into generic patterns. As a result, 26 000 lexical functions have been implemented, which is a considerable progress in the treatment of collocations in multilingual text realization.

Page generated in 0.113 seconds