• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 101
  • 19
  • 5
  • 1
  • 1
  • 1
  • Tagged with
  • 130
  • 64
  • 56
  • 53
  • 41
  • 37
  • 30
  • 28
  • 28
  • 22
  • 21
  • 19
  • 19
  • 18
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Transformation automatique d'arbres syntaxiques avec SableCC

Agbakpem, Komivi Kevin January 2006 (has links) (PDF)
Dans la partie frontale d'un compilateur, il est souvent usuel de transformer l'arbre syntaxique concret correspondant à la grammaire utilisée lors de l'analyse syntaxique en un arbre simplifié appelé arbre syntaxique abstrait qui retient uniquement l'essentiel des éléments de l'arbre syntaxique concret et qui par ailleurs est plus approprié pour les étapes ultérieures de la compilation. La réalisation d'une telle transformation avec les générateurs de compilateurs traditionnels peut nécessiter d'écrire une quantité considérable de code répétitif et très enclin aux erreurs dans la grammaire. Dans ce mémoire, nous introduisons un nouveau mécanisme pour spécifier des transformations d'un arbre syntaxique concret vers un arbre syntaxique abstrait durant l'analyse syntaxique. Doté d'une syntaxe intuitive, ce mécanisme permet la spécification de transformations ascendantes de manière efficace et déterministe. De plus, des vérifications effectuées sur ces transformations garantissent leur exactitude. Nous avons implanté ce mécanisme à l'intérieur de l'outil SableCC, un générateur de compilateurs. Le résultat est un outil capable de générer des analyseurs lexicaux et syntaxiques dans lesquelles sont enchâssées des actions de construction d'arbres syntaxiques et des classes utilitaires (incluant des visiteurs) à partir de simples spécifications grammaticales. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Arbre syntaxique concret, Arbre syntaxique abstrait, Générateur de compilateurs, Analyse syntaxique.
2

Réalisation d'un système de reconnaisance structurelle et d'interprétation de dessins.

Masini, Gérald. January 1900 (has links)
Th. 3e cycle--Math. appl., inform.--Nancy 1, 1978. N°: 27.
3

Contribution à la reconnaissance des structures syntaxiques en traduction mécanique

Auroux, Alain 23 June 1962 (has links) (PDF)
.
4

Précédence, analyse syntaxique et langages de programmation

Colmerauer, Alain 26 September 1967 (has links) (PDF)
.
5

Robust French syntax analysis : reconciling statistical methods and linguistic knowledge in the Talismane toolkit / Analyse syntaxique robuste du français : concilier méthodes statistiques et connaissances linguistiques dans l'outil Talismane

Urieli, Assaf 17 December 2013 (has links)
Dans cette thèse, nous explorons l'analyse syntaxique robuste statistique du français. Notre principal souci est de trouver des méthodes qui permettent au linguiste d'injecter des connaissances et/ou des ressources linguistiques dans un moteur statistique afin d'améliorer les résultats de certains phénomènes spécifiques. D'abord nous décrivons le schéma d'annotation en dépendances du français, et les algorithmes capables de produire cette annotation, en particulier le parsing par transitions. Après avoir exploré les algorithmes d'apprentissage automatique supervisé pour les problèmes de classification en TAL, nous présentons l'analyseur syntaxique Talismane développé dans le cadre de cette thèse et comprenant quatre modules statistiques – le découpage en phrases, la segmentation en mots, l'étiquetage morpho-syntaxique et le parsing – ainsi que les diverses ressources linguistiques utilisées par le modèle de base. Nos premières expériences tentent d'identifier la meilleure configuration de base parmi de nombreuses configurations possibles. Ensuite nous explorons les améliorations apportées par la recherche par faisceau et la propagation du faisceau. Enfin nous présentons une série d'expériences dont le but est de corriger des erreurs linguistiques spécifiques au moyen de traits ciblés. Une de nos innovations est l'introduction des règles qui imposent ou interdisent certaines décisions locales, permettant ainsi de contourner le modèle statistique. Nous explorons l'utilisation de règles pour les erreurs que les traits n'ont pu corriger. Finalement, nous présentons une expérience semi-supervisée avec une ressource de sémantique distributionnelle. / In this thesis we explore robust statistical syntax analysis for French. Our main concern is to explore methods whereby the linguist can inject linguistic knowledge and/or resources into the robust statistical engine in order to improve results for specific phenomena. We first explore the dependency annotation schema for French, concentrating on certain phenomena. Next, we look into the various algorithms capable of producing this annotation, and in particular on the transition-based parsing algorithm used in the rest of this thesis. After exploring supervised machine learning algorithms for NLP classification problems, we present the Talismane toolkit for syntax analysis, built within the framework of this thesis, including four statistical modules - sentence boundary detection, tokenisation, pos-tagging and parsing - as well as the various linguistic resources used for the baseline model, including corpora, lexicons and feature sets. Our first experiments attempt various machine learning configurations in order to identify the best baseline. We then look into improvements made possible by beam search and beam propagation. Finally, we present a series of experiments aimed at correcting errors related to specific linguistic phenomena, using targeted features. One our innovation is the introduction of rules that can impose or prohibit certain decisions locally, thus bypassing the statistical model. We explore the usage of rules for errors that the features are unable to correct. Finally, we look into the enhancement of targeted features by large scale linguistic resources, and in particular a semi-supervised approach using a distributional semantic resource.
6

Construction automatique d'analyseurs syntaxiques ascendants déterministes à partir de CF grammaires éventuellement non de contexte borné

Terrine, Gérard 11 March 1972 (has links) (PDF)
No description available.
7

Analyse des constructions à double nominatif/accusatif par l'opération de restructuration en coréen Classification syntaxique des constructions à adjectifs sôngsang

Chung, Gohsran 19 December 2003 (has links) (PDF)
Cette thèse a pour but d'extraire tous les adjectifs coréens qui entrent dans la relation suivante : La trompe de l'éléphant est longue = L'éléphant est long de trompe et de les classer de manière formelle. Cette relation est appelée l'opération de restructuration. Le lexique déclenchant cette opération n'est rien d'autre qu'une des classes d'adjectifs que les linguistes coréens connaissent depuis longtemps. Ce sont les adjectifs sôngsang : mot composé de sông (nature) et sang (état). Leur nombre est considérablement élevé : parmi 5300 adjectifs, plus de 3000 entrent dans cette classe. La plupart des études concernant les adjectifs sôngsang sont concentrées sur une description sémantique ou une analyse d'une de ses sous-classes. Aucune étude ne porte sur une classification globale de manière formelle. C'est un des résultat de cette thèse : en nous fondant sur des propriétés syntaxiques, nous avons obtenu neufs principales classes syntaxiquement et sémantiquement homogènes.
8

Algorithmes d'analyse syntaxique par grammaires lexicalisées : optimisation et traitement de l'ambiguïté

Blanc, Olivier 08 December 2006 (has links) (PDF)
Nos recherches portent sur l'analyse automatique de textes par application de grammaires lexicalisées en utilisant des ressources linguistiques à large couverture. Dans ce contexte, nous avons approfondi nos travaux dans trois domaines : l'algorithmique, la réalisation d'applications utilisables dans un contexte industriel et l'analyse syntaxique profonde. En ce qui concerne le premier point, nous avons implémenté des algorithmes originaux pour l'optimisation des grammaires locales en préalable à leur utilisation pour l'analyse et nous proposons un algorithme efficace pour l'application de ce type de grammaire sur un texte. Notre algorithme améliore le traitement des ambiguïtés lexicales et syntaxiques. Nous montrons par des évauations chiffrées que nos algorithmes permettent de traiter de gros volumes de données textuelles en combinaison avec des ressources linguistiques fines et à large couverture. Au niveau applicatif, nous avons participé au développement de la plate-forme RNTL Outilex dédiée aux traitements automatiques de textes écrits. L'architecture modulaire de la plate-forme et sa licence peu restrictive (LGPL) permet la réalisation, à faible coût, d'applications hybrides mélangeant les méthodes à base de ressources linguistiques avec les méthodes statistiques. Enfin, le troisième axe de nos recherches porte sur l'exploitation des tables du lexique-grammaire, pour l'analyse syntaxique profonde et l'extraction des prédicats et de leurs arguments dans les textes français. A cet effet, nous avons fait évoluer le formalisme de nos grammaires vers un formalisme à structure de traits. Les équations sur les traits qui décorent notre grammaire nous permettent de résoudre de manière déclarative différents phénomènes syntaxiques et de représenter de manière formelle les résultats d'analyse. Nous présentons notre grammaire du français dans l'état actuel, qui est générée de manière semi-automatique à partir des tables du lexique grammaire, et nous donnons des évaluations de sa couverture lexicale et syntaxique.
9

Analyse d'un corpus de verbes de son : étude de leurs fonctionnements syntaxique, lexical et sémantique

Domingue, Geneviève 04 1900 (has links) (PDF)
Cette étude propose une description de huit verbes de son en français : bourdonner, bruire, carillonner, crépiter, crisser, gargouiller, retentir et tinter. L'étude de ces verbes repose sur une analyse de corpus et comporte trois étapes : une analyse syntaxique, un typage lexical et une analyse en sémantique cognitive. L'analyse syntaxique consiste à identifier les éléments qui apparaissent aux côtés des verbes ciblés et de dégager les patrons syntaxiques dans lesquels les verbes de son peuvent entrer. Les patrons syntaxiques sont précisés par le typage lexical : les éléments qui accompagnent les verbes sont associés à des types sémantiques. Les verbes de son sont ensuite représentés à l'aide du schéma conceptuel de la perception auditive proposé par Piron (2006). Les trois premiers paramètres de ce schéma, soit l'émission sonore, la propagation sonore et la réception acoustique, permettent de rendre compte des verbes de son à l'étude. Il est montré que les différentes acceptions des verbes de son correspondent à différents cas d'exploitation du schéma conceptuel. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : verbes de son, français, sémantique cognitive, patrons syntaxiques, typage lexical
10

Langages artificiels et analyse syntaxique

Colombaud, Jean 01 January 1964 (has links) (PDF)
.

Page generated in 0.028 seconds