• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 41
  • 11
  • 4
  • 1
  • 1
  • Tagged with
  • 57
  • 57
  • 29
  • 27
  • 27
  • 17
  • 14
  • 13
  • 13
  • 13
  • 13
  • 13
  • 12
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Analyse syntaxique probabiliste en dépendances : approches efficaces à large contexte avec ressources lexicales distributionnelles

Henestroza Anguiano, Enrique 27 June 2013 (has links) (PDF)
Cette thèse présente des méthodes pour améliorer l'analyse syntaxique probabiliste en dépendances. Nous employons l'analyse à base de transitions avec une modélisation effectuée par des machines à vecteurs supports (Cortes and Vapnik, 1995), et nos expériences sont réalisées sur le français. L'analyse a base de transitions est rapide, de par la faible complexité des algorithmes sous-jacents, eux mêmes fondés sur une optimisation locale des décisions d'attachement. Ainsi notre premier fil directeur est d'élargir le contexte syntaxique utilisé. Partant du système de transitions arc-eager (Nivre, 2008), nous proposons une variante qui considère simultanément plusieurs gouverneurs candidats pour les attachements à droite. Nous testons aussi la correction des analyses, inspirée par Hall and Novák (2005), qui révise chaque attachement en choisissant parmi plusieurs gouverneurs alternatifs dans le voisinage syntaxique. Nos approches améliorent légèrement la précision globale ainsi que celles de l'attachement des groupes prépositionnels et de la coordination. Notre deuxième fil explore des approches semi-supervisées. Nous testons l'auto-entrainement avec un analyseur en deux étapes, basé sur McClosky et al. (2006), pour le domaine journalistique ainsi que pour l'adaptation au domaine médical. Nous passons ensuite à la modélisation lexicale à base de corpus, avec des classes lexicales généralisées pour réduire la dispersion des données, et des préférences lexicales de l'attachement des groupes prépositionnels pour aider à la désambiguïsation. Nos approches améliorent, dans certains cas, la précision et la couverture de l'analyseur, sans augmenter sa complexité théorique.
22

Extraction en langue chinoise d'actions spatiotemporalisées réalisées par des personnes ou des organismes / Extraction of spatiotemporally located actions performed by individuals or organizations from Chinese texts

Wang, Zhen 09 June 2016 (has links)
La thèse a deux objectifs : le premier est de développer un analyseur qui permet d'analyser automatiquement des sources textuelles en chinois simplifié afin de segmenter les textes en mots et de les étiqueter par catégories grammaticales, ainsi que de construire les relations syntaxiques entre les mots. Le deuxième est d'extraire des informations autour des entités et des actions qui nous intéressent à partir des textes analysés. Afin d'atteindre ces deux objectifs, nous avons traité principalement les problématiques suivantes : les ambiguïtés de segmentation, la catégorisation ; le traitement des mots inconnus dans les textes chinois ; l'ambiguïté de l'analyse syntaxique ; la reconnaissance et le typage des entités nommées. Le texte d'entrée est traité phrase par phrase. L'analyseur commence par un traitement typographique au sein des phrases afin d'identifier les écritures latines et les chiffres. Ensuite, nous segmentons la phrase en mots à l'aide de dictionnaires. Grâce aux règles linguistiques, nous créons des hypothèses de noms propres, changeons les poids des catégories ou des mots selon leur contextes gauches ou/et droits. Un modèle de langue n-gramme élaboré à partir d'un corpus d'apprentissage permet de sélectionner le meilleur résultat de segmentation et de catégorisation. Une analyse en dépendance est utilisée pour marquer les relations entre les mots. Nous effectuons une première identification d'entités nommées à la fin de l'analyse syntaxique. Ceci permet d'identifier les entités nommées en unité ou en groupe nominal et également de leur attribuer un type. Ces entités nommées sont ensuite utilisées dans l'extraction. Les règles d'extraction permettent de valider ou de changer les types des entités nommées. L'extraction des connaissances est composée des deux étapes : extraire et annoter automatiquement des contenus à partir des textes analysés ; vérifier les contenus extraits et résoudre la cohérence à travers une ontologie. / We have developed an automatic analyser and an extraction module for Chinese langage processing. The analyser performs automatic Chinese word segmentation based on linguistic rules and dictionaries, part-of-speech tagging based on n-gram statistics and dependency grammar parsing. The module allows to extract information around named entities and activities. In order to achieve these goals, we have tackled the following main issues: segmentation and part-of-speech ambiguity; unknown word identification in Chinese text; attachment ambiguity in parsing. Chinese texts are analysed sentence by sentence. Given a sentence, the analyzer begins with typographic processing to identify sequences of Latin characters and numbers. Then, dictionaries are used for preliminary segmentation into words. Linguistic-based rules are used to create proper noun hypotheses and change the weight of some word categories. These rules take into account word context. An n-gram language model is created from a training corpus and selects the best word segmentation and parts-of-speech. Dependency grammar parsing is used to annotate relations between words. A first step of named entity recognition is performed after parsing. Its goal is to identify single-word named entities and noun-phrase-based named entities and to determine their semantic type. These named entities are then used in knowledge extraction. Knowledge extraction rules are used to validate named entities or to change their types. Knowledge extraction consists of two steps: automatic content extraction and tagging from analysed text; extracted contents control and ontology-based co-reference resolution.
23

Analyse processuelle de Genèse 2:4b-25 : incidences herméneutiques et théologiques

Olivier, Lydwine 11 1900 (has links)
Dans un monde devenu séculier et où la tradition chrétienne est en recul, on est en droit de se poser la question de la pertinence des textes bibliques. En lien avec cette situation, on peut aussi se demander quelle représentation de Dieu émerge de la façon dont on accueille ces textes. Ce type de questionnement sous-tend l’intérêt que peut représenter une approche processuelle des textes bibliques, approche encore peu connue dans le monde francophone. Celle-ci est-elle en mesure d’apporter une certaine nouveauté dans la vision de Dieu généralement proposée en milieu chrétien ? Pour répondre à cela, il a semblé pertinent de tenter l’exercice à partir d’un texte englobant et fondateur. Genèse 2, connu pour raconter la création d’Adam et Ève, est porteur d’images presque stéréotypées à force d’avoir été lu et remâché. À ce titre, il a paru particulièrement approprié. Mais, avant même d’explorer le texte sous un angle processuel, il s’est avéré indispensable de commencer cette démarche par une traduction personnelle du texte hébreu, à partir et avec l’aide d’une analyse syntaxique et textuelle, dont on verra qu’elles ont ouvert le texte à de nouvelles hypothèses de traduction, de nouvelles nuances, comme autant de pistes à confronter à une théologie processuelle. Enfin, cette analyse ne peut se faire sans être en dialogue avec différents commentaires, exégétiques ou non, afin de souligner les convergences comme les divergences rencontrées au fil de la recherche et de la réflexion. / In the world that has become secular and where the Christian tradition is declining, we are entitled to question the pertinence of the biblical texts. In link with this situation, one can also wonder which representation of God arises depending how one receives these texts. This type of questioning underlies the interest that a Process approach of biblical texts can represent, even though the approach is still not much known in the French-speaking world. Does this approach possesses the ability of bringing some novelty to the vision of God generally offered in the Christian world ? To answer this, it seemed preferable to try the experience from a founding and forerunner text. Genesis 2, known to tell the creation of Adam and Eve, is bearing most stereotypic images by having been read and read, and chewed again. Therefore, seemed to be particularly accurate. But even before exploring the text from a Process angle, it has been proved essential to begin this with a personal translation of the Hebrew text, from and with the help of a syntactic and textual analysis, which as it will be shown, has conducted to open the text to new assumptions of translations and nuances, as so many tracks to be confronted to a Process theology. Finally, this analysis cannot be made without engaging in a dialogue with different commentaries, exegetical or not, in order to underline the convergences as well as the divergences met in the course of the research and of the reflexion.
24

Extraction en langue chinoise d'actions spatiotemporalisées réalisées par des personnes ou des organismes / Extraction of spatiotemporally located actions performed by individuals or organizations from Chinese texts

Wang, Zhen 09 June 2016 (has links)
La thèse a deux objectifs : le premier est de développer un analyseur qui permet d'analyser automatiquement des sources textuelles en chinois simplifié afin de segmenter les textes en mots et de les étiqueter par catégories grammaticales, ainsi que de construire les relations syntaxiques entre les mots. Le deuxième est d'extraire des informations autour des entités et des actions qui nous intéressent à partir des textes analysés. Afin d'atteindre ces deux objectifs, nous avons traité principalement les problématiques suivantes : les ambiguïtés de segmentation, la catégorisation ; le traitement des mots inconnus dans les textes chinois ; l'ambiguïté de l'analyse syntaxique ; la reconnaissance et le typage des entités nommées. Le texte d'entrée est traité phrase par phrase. L'analyseur commence par un traitement typographique au sein des phrases afin d'identifier les écritures latines et les chiffres. Ensuite, nous segmentons la phrase en mots à l'aide de dictionnaires. Grâce aux règles linguistiques, nous créons des hypothèses de noms propres, changeons les poids des catégories ou des mots selon leur contextes gauches ou/et droits. Un modèle de langue n-gramme élaboré à partir d'un corpus d'apprentissage permet de sélectionner le meilleur résultat de segmentation et de catégorisation. Une analyse en dépendance est utilisée pour marquer les relations entre les mots. Nous effectuons une première identification d'entités nommées à la fin de l'analyse syntaxique. Ceci permet d'identifier les entités nommées en unité ou en groupe nominal et également de leur attribuer un type. Ces entités nommées sont ensuite utilisées dans l'extraction. Les règles d'extraction permettent de valider ou de changer les types des entités nommées. L'extraction des connaissances est composée des deux étapes : extraire et annoter automatiquement des contenus à partir des textes analysés ; vérifier les contenus extraits et résoudre la cohérence à travers une ontologie. / We have developed an automatic analyser and an extraction module for Chinese langage processing. The analyser performs automatic Chinese word segmentation based on linguistic rules and dictionaries, part-of-speech tagging based on n-gram statistics and dependency grammar parsing. The module allows to extract information around named entities and activities. In order to achieve these goals, we have tackled the following main issues: segmentation and part-of-speech ambiguity; unknown word identification in Chinese text; attachment ambiguity in parsing. Chinese texts are analysed sentence by sentence. Given a sentence, the analyzer begins with typographic processing to identify sequences of Latin characters and numbers. Then, dictionaries are used for preliminary segmentation into words. Linguistic-based rules are used to create proper noun hypotheses and change the weight of some word categories. These rules take into account word context. An n-gram language model is created from a training corpus and selects the best word segmentation and parts-of-speech. Dependency grammar parsing is used to annotate relations between words. A first step of named entity recognition is performed after parsing. Its goal is to identify single-word named entities and noun-phrase-based named entities and to determine their semantic type. These named entities are then used in knowledge extraction. Knowledge extraction rules are used to validate named entities or to change their types. Knowledge extraction consists of two steps: automatic content extraction and tagging from analysed text; extracted contents control and ontology-based co-reference resolution.
25

La coordination dans les grammaires d'interaction / Coordination in interaction grammars

Le Roux, Joseph 17 October 2007 (has links)
Cette thèse présente une modélisation des principaux aspects syntaxiques de la coordination dans les grammaires d'interaction de Guy Perrier. Les grammaires d'interaction permettent d'expliciter la valence des groupes conjoints. C'est précisément sur cette notion qu'est fondée notre modélisation. Nous présentons également tous les travaux autour de cette modélisation qui nous ont permis d'aboutir à une implantation réaliste: le développement du logiciel XMG et son utilisation pour l'écriture de grammaires lexicalisées, le filtrage lexical par intersection d'automates et l'analyse syntaxique. / This thesis presents a modelisation of the main syntactical aspects of coordination using Guy Perrier's Interaction Grammars as the target formalism. Interaction Grammars make it possible to explicitly define conjuncts' valencies. This is precisely what our modelisation is based upon. We also present work around this modelisation that enabled us to provide a realistic implementation: lexicalized grammar development (using our tool XMG), lexical disambiguation based on automata intersection and parsing.
26

Extraction en langue chinoise d'actions spatiotemporalisées réalisées par des personnes ou des organismes / Extraction of spatiotemporally located actions performed by individuals or organizations from Chinese texts

Wang, Zhen 09 June 2016 (has links)
La thèse a deux objectifs : le premier est de développer un analyseur qui permet d'analyser automatiquement des sources textuelles en chinois simplifié afin de segmenter les textes en mots et de les étiqueter par catégories grammaticales, ainsi que de construire les relations syntaxiques entre les mots. Le deuxième est d'extraire des informations autour des entités et des actions qui nous intéressent à partir des textes analysés. Afin d'atteindre ces deux objectifs, nous avons traité principalement les problématiques suivantes : les ambiguïtés de segmentation, la catégorisation ; le traitement des mots inconnus dans les textes chinois ; l'ambiguïté de l'analyse syntaxique ; la reconnaissance et le typage des entités nommées. Le texte d'entrée est traité phrase par phrase. L'analyseur commence par un traitement typographique au sein des phrases afin d'identifier les écritures latines et les chiffres. Ensuite, nous segmentons la phrase en mots à l'aide de dictionnaires. Grâce aux règles linguistiques, nous créons des hypothèses de noms propres, changeons les poids des catégories ou des mots selon leur contextes gauches ou/et droits. Un modèle de langue n-gramme élaboré à partir d'un corpus d'apprentissage permet de sélectionner le meilleur résultat de segmentation et de catégorisation. Une analyse en dépendance est utilisée pour marquer les relations entre les mots. Nous effectuons une première identification d'entités nommées à la fin de l'analyse syntaxique. Ceci permet d'identifier les entités nommées en unité ou en groupe nominal et également de leur attribuer un type. Ces entités nommées sont ensuite utilisées dans l'extraction. Les règles d'extraction permettent de valider ou de changer les types des entités nommées. L'extraction des connaissances est composée des deux étapes : extraire et annoter automatiquement des contenus à partir des textes analysés ; vérifier les contenus extraits et résoudre la cohérence à travers une ontologie. / We have developed an automatic analyser and an extraction module for Chinese langage processing. The analyser performs automatic Chinese word segmentation based on linguistic rules and dictionaries, part-of-speech tagging based on n-gram statistics and dependency grammar parsing. The module allows to extract information around named entities and activities. In order to achieve these goals, we have tackled the following main issues: segmentation and part-of-speech ambiguity; unknown word identification in Chinese text; attachment ambiguity in parsing. Chinese texts are analysed sentence by sentence. Given a sentence, the analyzer begins with typographic processing to identify sequences of Latin characters and numbers. Then, dictionaries are used for preliminary segmentation into words. Linguistic-based rules are used to create proper noun hypotheses and change the weight of some word categories. These rules take into account word context. An n-gram language model is created from a training corpus and selects the best word segmentation and parts-of-speech. Dependency grammar parsing is used to annotate relations between words. A first step of named entity recognition is performed after parsing. Its goal is to identify single-word named entities and noun-phrase-based named entities and to determine their semantic type. These named entities are then used in knowledge extraction. Knowledge extraction rules are used to validate named entities or to change their types. Knowledge extraction consists of two steps: automatic content extraction and tagging from analysed text; extracted contents control and ontology-based co-reference resolution.
27

Contribution à la construction d'un système robuste d'analyse du français

Genthial, Damien 10 January 1991 (has links) (PDF)
La première partie aborde la conception et la mise en œuvre d'un outil d'analyse syntaxique capable de manipuler des informations syntaxiques et sémantiques. La problématique de l'analyse d'une langue naturelle est d'abord présentée: nous essayons de montrer quels sont les invariants de quelques formalismes récents et comment ces invariants ont motive nos choix. Nous décrivons ensuite le constructeur de structures de dépendances que nous proposons et les apports d'une hiérarchie de catégories a la souplesse et a la tolérance de l'analyse. Les arbres de dépendances produits sont décores grâce a un formalisme de représentation de la connaissance base sur des structures de traits intégrant un mécanisme d'héritage. Nous terminons en présentant le prototype d'analyseur que nous avons réalisé. La deuxième partie définit une architecture pour un système de détection et de correction qui exploite de manière cohérente tous les outils dont nous disposons. Les outils de niveau lexical comprennent un analyseur et un générateur morphologiques et des modules de correction lexicale utilisant trois techniques: phonétique, morphologie et clé squelette. Après avoir décrit les objectifs fixes pour le niveau syntaxique, nous donnons un aperçu du vérificateur syntaxique dont nous disposons et nous soulignons les apports des concepts et outils de la première partie a la robustesse des traitements. Enfin, nous proposons l'architecture d'un système complet de détection et correction d'erreurs dans un texte écrit en insistant sur sa portabilité et son adaptabilité.
28

Facteurs influençant la levée des ambiguïtés syntaxiques

Colonna, Saveria 28 September 2001 (has links) (PDF)
Cette thèse a pour objectif de répondre à deux questions fondamentales sur la compréhension du langage :<br />Quelle stratégie adopte le lecteur lorsqu'il rencontre une ambiguïté ?<br />Quelles sont les informations utilisées pour résoudre une ambiguïté syntaxique ?<br />Les modèles actuels de la compréhension de phrases ne permettent pas de rendre compte de l'ensemble des données inter-langues observées dans le cas de l'attachement d'une Proposition Relative (PR) ambiguë. Une série d'expériences a donc été réalisée afin de déterminer les facteurs responsables de l'attachement d'une PR. Nous avons utilisé la technique d'enregistrement des mouvements oculaires afin d'appréhender le décours temporel des opérations qui ont lieu pendant la lecture. Nous avons observé que la longueur des constituants influence la préférence d'attachement d'une PR (Expériences 1-4). Pour rendre compte de ces résultats, nous faisons l'hypothèse que certains attachements peuvent être laissés en suspens (sous-spécifiés) en attendant que l'information désambiguïsatrice soit disponible. À partir de cette hypothèse, nous avons implémenté un modèle qui nous permet de simuler nos résultats et de faire de nouvelles hypothèses quant aux facteurs susceptibles d'influencer la préférence d'attachement d'une PR. Ces prédictions ont été vérifiées dans l'Expérience 5. L'idée qu'en cas d'ambiguïté syntaxique, la décision syntaxique peut être reportée est développée dans la théorie Construal (Frazier et Clifton, 1996). Cependant, contrairement à notre modèle qui prédit que tous les constituants peuvent recevoir une description sous-spécifiée, la Construal propose que seules les relations non primaires reçoivent une analyse sous-spécifiée, les relations primaires recevant immédiatement une analyse syntaxique unique et spécifiée. Les Expériences 6-11 révèlent que la distinction entre relations primaires et non primaires proposée par la Construal n'est pas pertinente et nous permettent de conclure en faveur de notre modèle.
29

Le lexique-grammaire des verbes du grec moderne: les constructions transitives locatives standard

Yannacopoulou, Anastasia 13 July 2005 (has links) (PDF)
L'objectif de notre recherche est la description formelle et systématique des verbes à construction transitive locative standard du grec moderne : N0 V N1cor Loc N2lieu (Loc N3lieu), où le nom en position complément direct (N1) désigne, en général, l'objet qui se déplace par rapport au lieu en position prépositionnelle (N2, N3) à cause de l'agent (N0). Notre étude s'inscrit dans le cadre théorique de la grammaire transformationnelle défini par Zellig S. Harris. Nous suivons le cadre méthodologique du Lexique-Grammaire défini par Maurice Gross et élaboré au Laboratoire d'Automatique Documentaire et Linguistique. Notre but est la description exhaustive du grec moderne en vue de l'analyse automatique de la langue. Ainsi, 931 verbes simples sont classés dans 5 tables du lexique-grammaire : 38GLD : constructions à complément prépositionnel destination , 38GLS : constructions à complément prépositionnel source , 38GL : constructions à complément source et complément destination , 38GLH : constructions à complément(s) prépositionnel(s) locatif(s) et à complément direct obligatoirement humain ; 38GLR : constructions transitives locatives résiduelles. Nous procédons à la description morphologique et syntactico-sémantique des prépositions introduisant des compléments locatifs et nous exposons les propriétés transformationnelles et distributionnelles des verbes transitifs locatifs. Nous présentons la conversion automatique des tables en automates à états finis récursifs, dans le cadre du TAL (Traitement automatique des langues), ainsi que nos remarques sur la traduction, vers le français, des constructions locatives grecques, basée sur les propriétés figurant dans les tables.
30

Grammaire des adverbes de durée et de date en coréen

Jung, Eun Jin 13 December 2005 (has links) (PDF)
Notre travail a pour objectif une analyse syntaxique des adverbes de temps coréens dont l'interprétation correspond à une durée ou à une date (e.g. 3sigan dongan (pendant 3 heures), 5uel 6il (le 6 mai)). Pour la linguistique formelle comme pour le traitement informatique des langues, une description aussi exhaustive et explicite que possible est indispensable. La méthodologie du lexique-grammaire (M. Gross 1975, 1986b) nous a fourni un modèle de description formelle et systématique de la langue naturelle. Nous avons choisi de décrire les combinaisons lexicales concernées par des graphes d'automates finis, qui constituent autant de "grammaires locales" représentant les différents types de séquences adverbiales possibles. Nos graphes peuvent être intégrés directement à un analyseur syntaxique automatique pour localiser les adverbes de durée et de date en coréen dans des textes quelconques. Cette étude est structurée comme suit : Dans le premier chapitre, nous présentons plusieurs points cruciaux de notre cadre théorique, le lexique-grammaire, et des grammaires locales. Dans le deuxième chapitre, nous nous intéressons plus particulièrement aux formes des groupes nominaux construits sur des noms de temps (Ntps), c'est-à-dire les séquences Dét Ntps, ceci dans une large mesure indépendamment de la postposition et de l'utilisation de ces formes comme adverbes de date ou comme adverbes de durée. Nous consacrons le chapitre 3 à l'analyse des formes interprétables comme des durées et le chapitre 4 à celle des formes interprétables comme des dates. Nous analysons comment les groupes nominaux de temps étudiés dans le deuxième chapitre peuvent entrer dans des phrases qui donnent lieu à des interprétations de durée ou de date.

Page generated in 0.4745 seconds