• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 101
  • 19
  • 5
  • 1
  • 1
  • 1
  • Tagged with
  • 130
  • 64
  • 56
  • 53
  • 41
  • 37
  • 30
  • 28
  • 28
  • 22
  • 21
  • 19
  • 19
  • 18
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Étude sémantique et lexico-combinatoire de lexèmes du champ sémantique de la santé en breton vannetais dans le cadre de la théorie linguistique Sens-Texte / Semantic and lexico-combinatorial study of lexemes of the semantic field of Health in Breton vannetais in the frame of the linguistic theory Sense - Text

Louis, François 14 December 2015 (has links)
La thèse propose un début d’étude du champ sémantique de la santé en breton vannetais. Cette étude est basée sur un corpus de breton littéraire vannetais et un corpus de breton oral recueilli auprès de locuteurs traditionnels de la région de Pontivy. Le travail de description de lexies de ce champ sémantique est fait dans le cadre de la théorie linguistique Sens-Texte. Dans un premier temps sont données des explications sur le modèle linguistique proposé par la théorie Sens-Texte et sur la branche lexicologique de cette théorie, la Lexicologie Explicative et Combinatoire. La combinatoire lexicale et syntaxique des noms dénotant des troubles physiologiques, y compris ceux dénotant des maladies, est ensuite décrite. Cette description suppose un travail de lexémisation – c’est-à-dire de distinction des différentes acceptions d’un mot polysémique – de quelques vocables dont certaines acceptions sont des lexèmes de base de ce champ sémantique : les vocables DROUG ‘mal’, KLEÑVED ‘maladie’, KLAÑV ‘malade’, KLEÑVEDET lit. ‘maladié’ = ‘qui a une maladie’, YAC’H ‘en bonne santé’, YEC’HED ‘santé’ et AESAAT ‘guérir’. Il est proposé une description la plus complète possible de ces lexèmes. Il s’agit de la toute première tentative d’application au breton d’une méthodologie d’élaboration dictionnairique claire et cohérente, au fort pouvoir descriptif. En outre, ce travail de thèse débouche sur un corpus de breton oral d’environ un demi-million de mots, outil précieux pour les chercheurs sur la langue bretonne / The thesis offers a first-start study of the semantic field of health in the vannetais variety of Breton, based both on a corpus of literary Breton from the Vannes region and a corpus of oral Breton collected from traditional speakers in the Pontivy area. Lexicographic description of lexical units from that semantic field is embedded in the Meaning-Text linguistic theory. An overview of the theory, in particular it’s lexicological branch, the Explanatory and Combinatorial Lexicology is given, followed by a detailed description of the lexical and syntactic co-occurrence of nouns denoting physiological disorders, illnesses and diseases. Such a description has required lexemization of vocables (= discrimination of different word-senses of polysemous words) to which belong basic lexemes of this semantic field: DROUG ‘≈ physiological disorder’, KLEÑVED ‘disease’, KLAÑV ‘ill / sick’, KLEÑVEDET lit. ‘made.ill’ = ‘having an illness’, YAC’H ‘healthy’, YEC’HED ‘health’ and AESAAT ‘to cure / heal’. These lexemes have been given a detailed lexicographic description. The thesis represents the very first attempt at applying a clear, coherent and descriptively powerful lexicographic methodology to Breton data. In addition, it makes available to the scientific community a corpus of oral Breton of about a half million words
52

Problèmes morpho-syntaxiques analysés dans un modèle catégoriel étendu : application au coréen et au français avec une réalisation informatique / Morpho-syntactic problems analyzed in an extended categorial model : application to korean and to french with a development of a categorial parser

Choi, Juyeon 28 June 2011 (has links)
Ce travail de thèse vise à proposer les analyses formelles de phénomènes langagiers, tels que le système casuel, le double cas, la flexibilité de l'ordre des mots, la coordination, la subordination et la thématisation, dans deux langues structurellement très distinctes : le coréen et le français. Le choix théorique s'est porté sur le formalisme de la Grammaire Catégorielle Combinatoire Applicative, développée par Jean-Pierre Desclés et Ismail Biskri, en mettant en œuvre les combinateurs de la Logique Combinatoire de Curry et le calcul fonctionnel des types de Church. Le problème à résoudre est le suivant : en prenant une langue « à cas » comme le coréen, avec les constructions « à double cas » et la flexibilité dans l'ordre des mots, spécifiques à certaines langues extrêmes orientales, cette langue est-elle analysable avec un formalisme catégoriel et selon quelle stratégie de calcul ? Nous donnons un certain nombre d'exemples qui répondent à cette question. Les analyses formelles proposées dans ce travail permettent ensuite d'examiner la pertinence syntaxique de l'hypothèse « anti-anti relativiste » en dégageant certains invariants syntaxiques à partir des opérations de prédication, de détermination, de transposition, de quantification et de coordination. Nous proposons également un analyseur catégoriel, ACCG, applicable au coréen et au français, qui permet d'engendrer, de façon automatique, les calculs catégoriels, ainsi que les structures opérateur/opérande. / This dissertation aims at proposing the formal analysis of the linguistic phenomena, such as the case system, the double case, the flexible word order, the coordination, the subordination and the thematisation, in the two structurally distinct languages: Korean and French. The formalism of Applicative Combinatory Categorial Grammar, developed by Jean-Pierre Desclés and Ismail Biskri, allow us to analyze these problems by means of the combinators of the Combinatory Logic of Curry and the functional calculus of the Church's types. By taking account of these formal analysis applied to Korean and to French, we discuss on the « anti-anti relativist » hypothesis by finding some syntactic invariants from the different operations such as the predication, the determination, the quantification, the transposition and the coordination. We propose also a categorial parser, ACCG, applicable to Korean and French sentences, which generates automatically categorial calculus and the operator-operand structures.
53

Discontinuous constituency parsing of morphologically rich languages / Analyse syntaxique automatique en constituants discontinus des langues à morphologie riche

Coavoux, Maximin 11 December 2017 (has links)
L’analyse syntaxique consiste à prédire la représentation syntaxique de phrases en langue naturelle sous la forme d’arbres syntaxiques. Cette tâche pose des problèmes particuliers pour les langues non-configurationnelles ou qui ont une morphologie flexionnelle plus riche que celle de l’anglais. En particulier, ces langues manifestent une dispersion lexicale problématique, des variations d’ordre des mots plus fréquentes et nécessitent de prendre en compte la structure interne des mots-formes pour permettre une analyse syntaxique de qualité satisfaisante. Dans cette thèse, nous nous plaçons dans le cadre de l’analyse syntaxique robuste en constituants par transitions. Dans un premier temps, nous étudions comment intégrer l’analyse morphologique à l’analyse syntaxique, à l’aide d’une architecture de réseaux de neurones basée sur l’apprentissage multitâches. Dans un second temps, nous proposons un système de transitions qui permet de prédire des structures générées par des grammaires légèrement sensibles au contexte telles que les LCFRS. Enfin, nous étudions la question de la lexicalisation de l’analyse syntaxique. Les analyseurs syntaxiques en constituants lexicalisés font l’hypothèse que les constituants s’organisent autour d’une tête lexicale et que la modélisation des relations bilexicales est cruciale pour désambiguïser. Nous proposons un système de transition non lexicalisé pour l’analyse en constituants discontinus et un modèle de scorage basé sur les frontières de constituants et montrons que ce système, plus simple que des systèmes lexicalisés, obtient de meilleurs résultats que ces derniers. / Syntactic parsing consists in assigning syntactic trees to sentences in natural language. Syntactic parsing of non-configurational languages, or languages with a rich inflectional morphology, raises specific problems. These languages suffer more from lexical data sparsity and exhibit word order variation phenomena more frequently. For these languages, exploiting information about the internal structure of word forms is crucial for accurate parsing. This dissertation investigates transition-based methods for robust discontinuous constituency parsing. First of all, we propose a multitask learning neural architecture that performs joint parsing and morphological analysis. Then, we introduce a new transition system that is able to predict discontinuous constituency trees, i.e.\ syntactic structures that can be seen as derivations of mildly context-sensitive grammars, such as LCFRS. Finally, we investigate the question of lexicalization in syntactic parsing. Some syntactic parsers are based on the hypothesis that constituent are organized around a lexical head and that modelling bilexical dependencies is essential to solve ambiguities. We introduce an unlexicalized transition system for discontinuous constituency parsing and a scoring model based on constituent boundaries. The resulting parser is simpler than lexicalized parser and achieves better results in both discontinuous and projective constituency parsing.
54

Compression automatique ou semi-automatique de textes par élagage des constituants effaçables : une approche interactive et indépendante des corpus

Yousfi-Monod, Mehdi 16 November 2007 (has links) (PDF)
Le travail s'inscrit dans le domaine du traitement automatique du langage naturel et traite plus spécifiquement d'une application de ce dernier au résumé automatique de textes.<br />L'originalité de la thèse consiste à s'attaquer à une variété fort peu explorée, la compression de textes, par une technique non supervisée.<br />Ce travail propose un système incrémental et interactif d'élagage de l'arbre syntagmatique des phrases, tout en préservant la cohérence syntaxique et la conservation du contenu informationnel important.<br />Sur le plan théorique, le travail s'appuie sur la théorie du gouvernement de Noam Chomsky et plus particulièrement sur la représentation formelle de la théorie X-barre pour aboutir à un fondement théorique important pour un modèle computationnel compatible avec la compression syntaxique de phrases.<br />Le travail a donné lieu a un logiciel opérationnel, nommé COLIN, qui propose deux modalités : une compression automatique, et une aide au résumé sous forme semi-automatique, dirigée par l'interaction avec l'utilisateur.<br />Le logiciel a été évalué grâce à un protocole complexe par 25 utilisateurs bénévoles.<br />Les résultats de l'expérience montrent que 1) la notion de résumé de référence qui sert aux évaluations classiques est discutable 2) les compressions semi-automatiques ont été fortement appréciées 3) les compressions totalement automatiques ont également obtenu de bons scores de satisfaction.<br />À un taux de compression supérieur à 40% tous genres confondus, COLIN fournit un support appréciable en tant qu'aide à la compression de textes, ne dépend d'aucun corpus d'apprentissage, et présente une interface convivial.
55

Analyse syntaxique probabiliste en dépendances : approches efficaces à large contexte avec ressources lexicales distributionnelles

Henestroza Anguiano, Enrique 27 June 2013 (has links) (PDF)
Cette thèse présente des méthodes pour améliorer l'analyse syntaxique probabiliste en dépendances. Nous employons l'analyse à base de transitions avec une modélisation effectuée par des machines à vecteurs supports (Cortes and Vapnik, 1995), et nos expériences sont réalisées sur le français. L'analyse a base de transitions est rapide, de par la faible complexité des algorithmes sous-jacents, eux mêmes fondés sur une optimisation locale des décisions d'attachement. Ainsi notre premier fil directeur est d'élargir le contexte syntaxique utilisé. Partant du système de transitions arc-eager (Nivre, 2008), nous proposons une variante qui considère simultanément plusieurs gouverneurs candidats pour les attachements à droite. Nous testons aussi la correction des analyses, inspirée par Hall and Novák (2005), qui révise chaque attachement en choisissant parmi plusieurs gouverneurs alternatifs dans le voisinage syntaxique. Nos approches améliorent légèrement la précision globale ainsi que celles de l'attachement des groupes prépositionnels et de la coordination. Notre deuxième fil explore des approches semi-supervisées. Nous testons l'auto-entrainement avec un analyseur en deux étapes, basé sur McClosky et al. (2006), pour le domaine journalistique ainsi que pour l'adaptation au domaine médical. Nous passons ensuite à la modélisation lexicale à base de corpus, avec des classes lexicales généralisées pour réduire la dispersion des données, et des préférences lexicales de l'attachement des groupes prépositionnels pour aider à la désambiguïsation. Nos approches améliorent, dans certains cas, la précision et la couverture de l'analyseur, sans augmenter sa complexité théorique.
56

Extraction en langue chinoise d'actions spatiotemporalisées réalisées par des personnes ou des organismes / Extraction of spatiotemporally located actions performed by individuals or organizations from Chinese texts

Wang, Zhen 09 June 2016 (has links)
La thèse a deux objectifs : le premier est de développer un analyseur qui permet d'analyser automatiquement des sources textuelles en chinois simplifié afin de segmenter les textes en mots et de les étiqueter par catégories grammaticales, ainsi que de construire les relations syntaxiques entre les mots. Le deuxième est d'extraire des informations autour des entités et des actions qui nous intéressent à partir des textes analysés. Afin d'atteindre ces deux objectifs, nous avons traité principalement les problématiques suivantes : les ambiguïtés de segmentation, la catégorisation ; le traitement des mots inconnus dans les textes chinois ; l'ambiguïté de l'analyse syntaxique ; la reconnaissance et le typage des entités nommées. Le texte d'entrée est traité phrase par phrase. L'analyseur commence par un traitement typographique au sein des phrases afin d'identifier les écritures latines et les chiffres. Ensuite, nous segmentons la phrase en mots à l'aide de dictionnaires. Grâce aux règles linguistiques, nous créons des hypothèses de noms propres, changeons les poids des catégories ou des mots selon leur contextes gauches ou/et droits. Un modèle de langue n-gramme élaboré à partir d'un corpus d'apprentissage permet de sélectionner le meilleur résultat de segmentation et de catégorisation. Une analyse en dépendance est utilisée pour marquer les relations entre les mots. Nous effectuons une première identification d'entités nommées à la fin de l'analyse syntaxique. Ceci permet d'identifier les entités nommées en unité ou en groupe nominal et également de leur attribuer un type. Ces entités nommées sont ensuite utilisées dans l'extraction. Les règles d'extraction permettent de valider ou de changer les types des entités nommées. L'extraction des connaissances est composée des deux étapes : extraire et annoter automatiquement des contenus à partir des textes analysés ; vérifier les contenus extraits et résoudre la cohérence à travers une ontologie. / We have developed an automatic analyser and an extraction module for Chinese langage processing. The analyser performs automatic Chinese word segmentation based on linguistic rules and dictionaries, part-of-speech tagging based on n-gram statistics and dependency grammar parsing. The module allows to extract information around named entities and activities. In order to achieve these goals, we have tackled the following main issues: segmentation and part-of-speech ambiguity; unknown word identification in Chinese text; attachment ambiguity in parsing. Chinese texts are analysed sentence by sentence. Given a sentence, the analyzer begins with typographic processing to identify sequences of Latin characters and numbers. Then, dictionaries are used for preliminary segmentation into words. Linguistic-based rules are used to create proper noun hypotheses and change the weight of some word categories. These rules take into account word context. An n-gram language model is created from a training corpus and selects the best word segmentation and parts-of-speech. Dependency grammar parsing is used to annotate relations between words. A first step of named entity recognition is performed after parsing. Its goal is to identify single-word named entities and noun-phrase-based named entities and to determine their semantic type. These named entities are then used in knowledge extraction. Knowledge extraction rules are used to validate named entities or to change their types. Knowledge extraction consists of two steps: automatic content extraction and tagging from analysed text; extracted contents control and ontology-based co-reference resolution.
57

Analyse processuelle de Genèse 2:4b-25 : incidences herméneutiques et théologiques

Olivier, Lydwine 11 1900 (has links)
Dans un monde devenu séculier et où la tradition chrétienne est en recul, on est en droit de se poser la question de la pertinence des textes bibliques. En lien avec cette situation, on peut aussi se demander quelle représentation de Dieu émerge de la façon dont on accueille ces textes. Ce type de questionnement sous-tend l’intérêt que peut représenter une approche processuelle des textes bibliques, approche encore peu connue dans le monde francophone. Celle-ci est-elle en mesure d’apporter une certaine nouveauté dans la vision de Dieu généralement proposée en milieu chrétien ? Pour répondre à cela, il a semblé pertinent de tenter l’exercice à partir d’un texte englobant et fondateur. Genèse 2, connu pour raconter la création d’Adam et Ève, est porteur d’images presque stéréotypées à force d’avoir été lu et remâché. À ce titre, il a paru particulièrement approprié. Mais, avant même d’explorer le texte sous un angle processuel, il s’est avéré indispensable de commencer cette démarche par une traduction personnelle du texte hébreu, à partir et avec l’aide d’une analyse syntaxique et textuelle, dont on verra qu’elles ont ouvert le texte à de nouvelles hypothèses de traduction, de nouvelles nuances, comme autant de pistes à confronter à une théologie processuelle. Enfin, cette analyse ne peut se faire sans être en dialogue avec différents commentaires, exégétiques ou non, afin de souligner les convergences comme les divergences rencontrées au fil de la recherche et de la réflexion. / In the world that has become secular and where the Christian tradition is declining, we are entitled to question the pertinence of the biblical texts. In link with this situation, one can also wonder which representation of God arises depending how one receives these texts. This type of questioning underlies the interest that a Process approach of biblical texts can represent, even though the approach is still not much known in the French-speaking world. Does this approach possesses the ability of bringing some novelty to the vision of God generally offered in the Christian world ? To answer this, it seemed preferable to try the experience from a founding and forerunner text. Genesis 2, known to tell the creation of Adam and Eve, is bearing most stereotypic images by having been read and read, and chewed again. Therefore, seemed to be particularly accurate. But even before exploring the text from a Process angle, it has been proved essential to begin this with a personal translation of the Hebrew text, from and with the help of a syntactic and textual analysis, which as it will be shown, has conducted to open the text to new assumptions of translations and nuances, as so many tracks to be confronted to a Process theology. Finally, this analysis cannot be made without engaging in a dialogue with different commentaries, exegetical or not, in order to underline the convergences as well as the divergences met in the course of the research and of the reflexion.
58

Extraction en langue chinoise d'actions spatiotemporalisées réalisées par des personnes ou des organismes / Extraction of spatiotemporally located actions performed by individuals or organizations from Chinese texts

Wang, Zhen 09 June 2016 (has links)
La thèse a deux objectifs : le premier est de développer un analyseur qui permet d'analyser automatiquement des sources textuelles en chinois simplifié afin de segmenter les textes en mots et de les étiqueter par catégories grammaticales, ainsi que de construire les relations syntaxiques entre les mots. Le deuxième est d'extraire des informations autour des entités et des actions qui nous intéressent à partir des textes analysés. Afin d'atteindre ces deux objectifs, nous avons traité principalement les problématiques suivantes : les ambiguïtés de segmentation, la catégorisation ; le traitement des mots inconnus dans les textes chinois ; l'ambiguïté de l'analyse syntaxique ; la reconnaissance et le typage des entités nommées. Le texte d'entrée est traité phrase par phrase. L'analyseur commence par un traitement typographique au sein des phrases afin d'identifier les écritures latines et les chiffres. Ensuite, nous segmentons la phrase en mots à l'aide de dictionnaires. Grâce aux règles linguistiques, nous créons des hypothèses de noms propres, changeons les poids des catégories ou des mots selon leur contextes gauches ou/et droits. Un modèle de langue n-gramme élaboré à partir d'un corpus d'apprentissage permet de sélectionner le meilleur résultat de segmentation et de catégorisation. Une analyse en dépendance est utilisée pour marquer les relations entre les mots. Nous effectuons une première identification d'entités nommées à la fin de l'analyse syntaxique. Ceci permet d'identifier les entités nommées en unité ou en groupe nominal et également de leur attribuer un type. Ces entités nommées sont ensuite utilisées dans l'extraction. Les règles d'extraction permettent de valider ou de changer les types des entités nommées. L'extraction des connaissances est composée des deux étapes : extraire et annoter automatiquement des contenus à partir des textes analysés ; vérifier les contenus extraits et résoudre la cohérence à travers une ontologie. / We have developed an automatic analyser and an extraction module for Chinese langage processing. The analyser performs automatic Chinese word segmentation based on linguistic rules and dictionaries, part-of-speech tagging based on n-gram statistics and dependency grammar parsing. The module allows to extract information around named entities and activities. In order to achieve these goals, we have tackled the following main issues: segmentation and part-of-speech ambiguity; unknown word identification in Chinese text; attachment ambiguity in parsing. Chinese texts are analysed sentence by sentence. Given a sentence, the analyzer begins with typographic processing to identify sequences of Latin characters and numbers. Then, dictionaries are used for preliminary segmentation into words. Linguistic-based rules are used to create proper noun hypotheses and change the weight of some word categories. These rules take into account word context. An n-gram language model is created from a training corpus and selects the best word segmentation and parts-of-speech. Dependency grammar parsing is used to annotate relations between words. A first step of named entity recognition is performed after parsing. Its goal is to identify single-word named entities and noun-phrase-based named entities and to determine their semantic type. These named entities are then used in knowledge extraction. Knowledge extraction rules are used to validate named entities or to change their types. Knowledge extraction consists of two steps: automatic content extraction and tagging from analysed text; extracted contents control and ontology-based co-reference resolution.
59

Extraction de relations en domaine de spécialité / Relation extraction in specialized domains

Minard, Anne-Lyse 07 December 2012 (has links)
La quantité d'information disponible dans le domaine biomédical ne cesse d'augmenter. Pour que cette information soit facilement utilisable par les experts d'un domaine, il est nécessaire de l'extraire et de la structurer. Pour avoir des données structurées, il convient de détecter les relations existantes entre les entités dans les textes. Nos recherches se sont focalisées sur la question de l'extraction de relations complexes représentant des résultats expérimentaux, et sur la détection et la catégorisation de relations binaires entre des entités biomédicales. Nous nous sommes intéressée aux résultats expérimentaux présentés dans les articles scientifiques. Nous appelons résultat expérimental, un résultat quantitatif obtenu suite à une expérience et mis en relation avec les informations permettant de décrire cette expérience. Ces résultats sont importants pour les experts en biologie, par exemple pour faire de la modélisation. Dans le domaine de la physiologie rénale, une base de données a été créée pour centraliser ces résultats d'expérimentation, mais l'alimentation de la base est manuelle et de ce fait longue. Nous proposons une solution pour extraire automatiquement des articles scientifiques les connaissances pertinentes pour la base de données, c'est-à-dire des résultats expérimentaux que nous représentons par une relation n-aire. La méthode procède en deux étapes : extraction automatique des documents et proposition de celles-ci pour validation ou modification par l'expert via une interface. Nous avons également proposé une méthode à base d'apprentissage automatique pour l'extraction et la classification de relations binaires en domaine de spécialité. Nous nous sommes intéressée aux caractéristiques et variétés d'expressions des relations, et à la prise en compte de ces caractéristiques dans un système à base d'apprentissage. Nous avons étudié la prise en compte de la structure syntaxique de la phrase et la simplification de phrases dirigée pour la tâche d'extraction de relations. Nous avons en particulier développé une méthode de simplification à base d'apprentissage automatique, qui utilise en cascade plusieurs classifieurs. / The amount of available scientific literature is constantly growing. If the experts of a domain want to easily access this information, it must be extracted and structured. To obtain structured data, both entities and relations of the texts must be detected. Our research is about the problem of complex relation extraction which represent experimental results, and detection and classification of binary relations between biomedical entities. We are interested in experimental results presented in scientific papers. An experimental result is a quantitative result obtained by an experimentation and linked with information that describes this experimentation. These results are important for biology experts, for example for doing modelization. In the domain of renal physiology, a database was created to centralize these experimental results, but the base is manually populated, therefore the population takes a long time. We propose a solution to automatically extract relevant knowledge for the database from the scientific papers, that is experimental results which are represented by a n-ary relation. The method proceeds in two steps: automatic extraction from documents and proposal of information extracted for approval or modification by the experts via an interface. We also proposed a method based on machine learning for extraction and classification of binary relations in specialized domains. We focused on the variations of the expression of relations, and how to represent them in a machine learning system. We studied the way to take into account syntactic structure of the sentence and the sentence simplification guided by the task of relation extraction. In particular, we developed a simplification method based on machine learning, which uses a series of classifiers.
60

La coordination dans les grammaires d'interaction / Coordination in interaction grammars

Le Roux, Joseph 17 October 2007 (has links)
Cette thèse présente une modélisation des principaux aspects syntaxiques de la coordination dans les grammaires d'interaction de Guy Perrier. Les grammaires d'interaction permettent d'expliciter la valence des groupes conjoints. C'est précisément sur cette notion qu'est fondée notre modélisation. Nous présentons également tous les travaux autour de cette modélisation qui nous ont permis d'aboutir à une implantation réaliste: le développement du logiciel XMG et son utilisation pour l'écriture de grammaires lexicalisées, le filtrage lexical par intersection d'automates et l'analyse syntaxique. / This thesis presents a modelisation of the main syntactical aspects of coordination using Guy Perrier's Interaction Grammars as the target formalism. Interaction Grammars make it possible to explicitly define conjuncts' valencies. This is precisely what our modelisation is based upon. We also present work around this modelisation that enabled us to provide a realistic implementation: lexicalized grammar development (using our tool XMG), lexical disambiguation based on automata intersection and parsing.

Page generated in 0.04 seconds