• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 19
  • 9
  • 1
  • 1
  • 1
  • Tagged with
  • 32
  • 32
  • 12
  • 8
  • 8
  • 7
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Charles S. Peirce' Theorie natürlicher Sprache und ihre Relevanz für die Linguistik : Logik, Semantik, Pragmatik /

Rellstab, Daniel H. January 2007 (has links)
Dissertation--Bern, 2006.
12

La place des connaissances lexicales face aux connaissances du monde dans le processus d'interprétation des énoncés

Bangha, Kornél Robert January 2003 (has links)
Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur.
13

Développement du système MathNat pour la formalisation automatique des textes mathématiques

Muhammad, Humayoun 18 January 2012 (has links) (PDF)
Le langage mathématique courant et les langages mathématiques formelssont très éloignés. Par <> nousentendons la prose que le mathématicien utilise tous les jours dansses articles et ses livres. C'est une langue naturelle avec desexpressions symboliques et des notations spécifiques. Cette langue està la fois flexible et structurée mais reste sémantiquementintelligible par tous les mathématiciens.Cependant, il est très difficile de formaliser automatiquement cettelangue. Les raisons principales sont: la complexité et l'ambiguïté deslangues naturelles en général, le mélange inhabituel entre languenaturelle et notations symboliques tout aussi ambiguë et les sautsdans le raisonnement qui sont pour l'instant bien au-delà descapacités des prouveurs de théorèmes automatiques ou interactifs.Pour contourner ce problème, les assistants de preuves actuelsutilisent des langages formels précis dans un système logique biendéterminé, imposant ainsi de fortes restrictions par rapport auxlangues naturelles. En général ces langages ressemblent à des langagesde programmation avec un nombre limité de constructions possibles etune absence d'ambiguïté.Ainsi, le monde des mathématiques est séparé en deux, la vastemajorité qui utilise la langue naturelle et un petit nombre utilisantaussi des méthodes formelles. Cette seconde communauté est elle-mêmesubdivisée en autant de groupes qu'il y a d'assistants de preuves. Onperd alors l'intelligibilité des preuves pour tous les mathématiciens.Pour résoudre ce problème, on peut se demander:est-il possible d'écrire un programme qui comprend la langue naturellemathématique et qui la traduit vers un langage formel afin depermettre sa validation?Ce problème se subdivise naturellement en deux sous-problèmes tous lesdeux très difficiles:1. l'analyse grammaticale des textes mathématiques et leur traductiondans un langage formel,2. la validation des preuves écrites dans ce langage formel.Le but du projet MathNat (Mathematics in controlled Natural languages)est de faire un premier pas pour répondre à cette question trèsdifficile, en se concentrant essentiellement sur la première question.Pour cela, nous développons CLM (Controlled Language for Mathematics)qui est un sous-ensemble de l'anglais avec une grammaire et un lexiquerestreint, mais qui inclut tout de même quelques ingrédientsimportants des langues naturelles comme les pronoms anaphoriques, lesréférences, la possibilité d'écrire la même chose de plusieursmanières, des adjectifs distributifs ou non, ...Le second composant de MathNath est MathAbs (Mathematical Abstractlanguage). C'est un langage formel, indépendant du choix d'un systèmelogique permettant de représenter la sémantique des textes enpréservant leur structure et le fil du raisonnement. MathAbs est conçucomme un langage intermédiaire entre CLM et un système logique formelpermettant la vérification des preuves.Nous proposons un système qui permet de traduire CLM vers MathAbsdonnant ainsi une sémantique précise à CLM. Nous considèrons que cetravail est déjà un progrès notable, même si pour l'instant on estloin de pouvoir vérifier formellement toutes les preuves en MathAbsainsi générées.Pour le second problème, nous avons réalisé une petite expérience entraduisant MathAbs vers une liste de formules en logique du premierordre dont la validité garantit la correction de la preuve. Nous avonsensuite essayé de vérifier ces formules avec des prouveurs dethéorèmes automatiques validant ainsi quelques exemples.
14

La synthèse automatique de paraphrases comme outil de vérification des dictionnaires et grammaires de type sens-texte

Lareau, François January 2002 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
15

Questions and quantifiers : an inquiry in natural language metaphysics

Shimelman, Wendy Aviva 13 April 2018 (has links)
Cette thèse traite des questions quantifiées (QQs) et, plus spécifiquement, de trois phénomènes : « Pair-List Readings » (PLRs), « Weak Islands » (WIs) et « Intervention Effects » (IEs). Nous observons que, dans plusieurs cas, il existe contraintes sur l’interprétation des QQs qui s’avèrent purement linguistiques. Par exemple, ni la logique ni la pragmatique n’empêche de répondre à la question Who did few girls see? par l’usage d’ une « pair list »; néanmoins, on ne le ferait pas spontanément. La question fondamentale qui sous-tend cette thèse est la suivante : quelles présuppositions ontologiques soutiennent le mieux une sémantique explicite des langues naturelles? Cette recherche contribue à l’ensemble de preuves que la langue naturelle quantifie sur au moins deux domaines, celui des individus et celui des évènements. Nous avons conçu une méthode novatrice pour tester les intuitions des locuteurs quant aux « conditions de réponse » des questions. Elle nous a permis de constater que des phrases interrogatives quantifiées peuvent être ambigües et avoir a la fois une lecture dite « d’objet » et une autre dite « d’événement ». Nous démontrons que les conditions de vérité de la réponse PL à une QQ sont celles de sa lecture événement. Nous postulons est que les possibilités d’interprétation d’une QQ dépendent de l’interaction des valeurs de deux paramètres : le domaine de quantification, (celui des événements ou celui des individus, E or D) et le type sémantique de la phrase sujet, (référentiel ou quantificatif, &lt; d&gt; ou &lt; &lt; dt&gt; t&gt; ). Une lecture PL résulte de la combinaison [E, &lt; d&gt; ]. Les WIs se produisent de la combinaison *[ E, &lt; &lt; dt&gt; t&gt; ]. Nous avançons l’hypothèse que les langues naturelles ne génèrent pas cette combinaison, et qu’elle est exclue à cause d’un « type mismatch ». Les combinaisons [D, &lt; d&gt; ] et [D, &lt; &lt; dt&gt; t&gt; ] donnent lieu toutes les deux a une lecture « objet ». Les IEs sont dus à la combinaison de celle-ci avec un autre élément (« WH-AGENT ») qui s’interpose. Nous proposons deux alternatives pour la sémantique des QQs. La première est algébrique et emploie des « alternative sets »; la deuxième est dynamique. Ici, nous suggérons que l’opérateur interrogatif, Q, fonctionne à la manière d’un quantificateur adverbial comme généralement ou toujours. Cette approche permet un traitement plus uniforme des phrases déclaratives et interrogatives et elle contribue à l’unification de la sémantique des expressions nominales et verbales. / This dissertation looks at quantified questions (“QQs”) and, specifically, at Pair-List readings, Weak Islands and Intervention Effects (“PLRs, ” “WIs” and “IEs”). In many cases, we observe that there are constraints on the interpretation of QQs that are irreducibly linguistic. Although no logical or pragmatic constraint precludes understanding, say, Who did few girls see? as a request for a pair-list, that interpretation is unavailable. The “big question” that structures this project is: What ontological presuppositions best support an explicit semantics for natural language? We contribute to the growing body of evidence that natural language quantifies over at least two basic domains, viz., individuals and events. We develop a somewhat novel method of testing speakers’ intuitions with regard to the “answerhood conditions” of questions. We found, first, that some quantified interrogatives can be ambiguous between an object- and an event-related reading. The truth conditions of the PL response to a quantified question are those of its event-related reading. The truth conditions of responses to non-quantified in-situ questions are also those of the event-related reading; the truth conditions of responses to raised quantified questions are those of the object-related reading. We hypothesize that the interpretive possibilities in QQs are a function of the values of two parameters: the domain being quantified over (events or individuals, E or D) and the type of the subject phrase (referential or quantificational, &lt; d&gt; or &lt; &lt; dt&gt; t&gt; ). A PL reading results from the combination [E, &lt; d&gt; ]. WIs are the product of the “combination” *[E, &lt; &lt; dt&gt; t&gt; ]. We hypothesize that there are no extant examples of this combination in natural language – a type mismatch precludes it. Both the combinations [D, &lt; d&gt; ] and [D, &lt; &lt; dt&gt; t&gt; ] yield object-related readings. IEs result from the combination of the combination [D, &lt; &lt; dt&gt; t&gt; ] and an intervener, “WH-AGENT.” We develop two proposals for the semantics of QQs. The first is algebraic and makes use of “alternative sets.” The second is dynamic. Here, the question operator, Q, is treated like an adverbial quantifier of the ilk of usually or always. This approach permits a more uniform treatment of the semantics of nominal and verbal expressions and of declaratives and interrogatives.
16

Adaptation de modèles de traduction dans le cadre du projet TransType

Nepveu, Laurent January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
17

Rythme et rime de l'alexandrin classique. <br />Étude empirique des 80 000 vers du théâtre de Corneille et Racine

Beaudouin, Valérie 24 January 2000 (has links) (PDF)
Ce mémoire présente une approche empirique du rythme et de la rime du vers alexandrin classique. Un outil d'analyse systématique du vers, le métromètre, a été mis au point. Il transcrit le vers dans l'alphabet phonétique, le découpe selon les positions ou syllabes métriques, en respectant les règles de la versification (diérèse/synérèse, décompte du e muet et liaison) ; finalement, il attribue à chacune des positions un certain nombre de marquages ou étiquettes d'ordre exclusivement linguistique : noyau vocalique et syllabe de la position, catégorie morpho-syntaxique, situation dans le mot et présence d'une marque accentuelle sur la position. L'outil repose sur un analyseur syntaxique développé par P. Constant et un phonétiseur développé par F. Yvon. Les outils ont été adaptés aux particularités du vers. <br />Le métromètre a été utilisé pour analyser les 80 000 vers de Corneille et Racine. Il en résulte que la structure rythmique du vers est bel et bien le résultat d'un agencement spécifique des éléments de la langue (il n'y a pas « d'accent de vers »). Nous montrons que tous les marquages, qui relèvent de composantes a priori indépendantes de la langue, contribuent chacun à leur manière à définir la forme rythmique de chaque hémistiche et du vers. Les corrélations entre ces niveaux a priori indépendants semblent être constitutives du rythme. <br />Parallèlement, l'examen systématique de la rime chez Corneille et Racine a permis de montrer l'existence de régularités, non attestées dans les traités de métrique (la voyelle [e] a, par exemple, toujours besoin d'une consonne d'appui) et de proposer une définition contextuelle des concepts de rime riche, suffisante ou pauvre, lesquels varient selon le type de terminaison examiné. <br />Enfin, nous avons tenté de montrer en quoi la structure rythmique et rimique des vers pouvait contribuer à enrichir l'analyse stylistique : nous avons ainsi mis à jour des corrélations entre des univers de discours et des rythmes spécifiques.
18

Vers une ingénierie de la production de linguiciels : spécification et réalisation d'un prototype de poste de travail linguistique pour la spécification de correspondances structurales

Yan, Yongfeng 29 June 1987 (has links) (PDF)
Présentation de quelques rappels sur les grammaires statiques. Il est aussi montre la nécessité du recours a des techniques issues du génie logiciel pour arriver à une réelle ingénierie du logiciel. Présentation d'un inventaire des besoins en génie logiciel pour la construction de systèmes de traduction assistée par ordinateur (tao). Présentation d'un prototype de poste de travail linguistique adapte a la construction de grammaires statiques et déjà teste par quelques utilisateurs pilotes
19

Eléments de grammaire du français pour une théorie descriptive et formelle de la langue

Guénot, Marie-Laure 07 December 2006 (has links) (PDF)
Dans cette thèse nous proposons un modèle de grammaire basé sur une théorie originale de la langue, et représenté formellement. Elle s'articule en trois parties. Dans la première partie nous dressons un bilan des positions théoriques sous-jacentes à un certain nombre de grammaires formelles coexistantes, afin de faire ressortir quatre éléments dont la conjonction fait de notre proposition une approche nouvelle: le non-générativisme, la non-modularité, la non-lexicalisation et la multi-dimensionnalité. Nous présentons ensuite le formalisme des Grammaires de Propriétés (GP), que nous avons utilisé pour représenter notre grammaire. A la suite de cela nous introduisons notre modèle de grammaire, basé sur les choix théoriques précédents et formalisé en GP, et nous proposons quelques formalisations d'autres modèles afin d'illustrer les possibilités de GP et l'originalité de notre modèle. Dans la seconde partie nous proposons un ensemble de descriptions syntaxiques du français basées sur notre modèle et constituant un noyau de grammaire; nous y présentons notamment les constructions nominales, verbales, adjectivales, propositionnelles, ainsi que les entassements paradigmatiques (coordinations et disfluences). Enfin, dans la troisième partie nous illustrons le fonctionnement notre proposition avec l'analyse de quelques phénomènes syntaxiques, dont notamment le traitement des pronoms clitiques dans les constructions verbales, et celui des coordinations et des disfluences. Ce travail apporte à toute une partie de la linguistique descriptive une validation par son expression formelle, et à la linguistique formelle l'intégration de descriptions syntaxiques jusqu'ici non encore prises en considération. En outre, elle apporte une validation de GP en tant que formalisme linguistique en montrant ce qu'il permet par sa souplesse de représentation.
20

Computational syntax of Hungarian : from phrase chunking to verb subcategorization / Syntaxe computationnelle du hongrois : de l'analyse en chunks à la sous-catégorisation verbale

Gábor, Kata 12 June 2012 (has links)
La linguistique informatique est un domaine de recherche qui se concentre sur les méthodes et les perspectives de la modélisation formelle (statistique ou symbolique) de la langue naturelle. La linguistique informatique, tout comme la linguistique théorique, est une discipline fortement modulaire : les niveaux d'analyse linguistique comprennent la segmentation, l'analyse morphologique, la désambiguïsation, l'analyse syntaxique et sémantique. Tandis qu'un nombre d'outils existent déjà pour les traitements de bas niveau (analyse morphologique, étiquetage grammatical), le hongrois peut être considéré comme une langue peu doté pour l'analyse syntaxique et sémantique. Le travail décrit dans la présente thèse vise à combler ce manque en créant des ressources pour le traitement syntaxique du hongrois : notamment, un analyseur en chunks et une base de données lexicale de schémas de sous-catégorisation verbale. La première partie de la recherche présentée ici se concentre sur la création d'un analyseur syntaxique de surface (ou analyseur en chunks) pour le hongrois. La sortie de l'analyseur de surface est conçue pour servir d'entrée pour un traitement ultérieur visant à annoter les relations de dépendance entre le prédicat et ses compléments essentiels et circonstanciels. L'analyseur profond est mis en œuvre dans NooJ (Silberztein, 2004) en tant qu'une cascade de grammaires. Le deuxième objectif de recherche était de proposer une représentation lexicale pour la structure argumentale en hongrois. Cette représentation doit pouvoir gérer la vaste gamme de phénomènes qui échappent à la dichotomie traditionnelle entre un complément essentiel et un circonstanciel (p. ex. des structures partiellement productives, des écarts entre la prédictibilité syntaxique et sémantique). Nous avons eu recours à des résultats de la recherche récente sur la réalisation d'arguments et choisi un cadre qui répond à nos critères et qui est adaptable à une langue non-configurationnelle. Nous avons utilisé la classification sémantique de Levin (1993) comme modèle. Nous avons adapté les notions relatives à cette classification, à savoir celle de la composante sémantique et celle de l'alternance syntaxique, ainsi que la méthodologie d'explorer et de décrire le comportement des prédicats à l'aide de cette représentation, à la tâche de construire une représentation lexicale des verbes dans une langue non-configurationnelle. La première étape consistait à définir les règles de codage et de construire un vaste base de données lexicale pour les verbes et leurs compléments. Par la suite, nous avons entrepris deux expériences pour l'enrichissement de ce lexique avec des informations sémantiques lexicales afin de formaliser des généralisations syntaxiques et sémantiques pertinentes sur les classes de prédicats sous-jacentes. La première approche que nous avons testée consistait en une élaboration manuelle de classification de verbes en fonction de leur structure de compléments et de l'attribution de rôles sémantiques à ces compléments. Nous avons cherché la réponse aux questions suivantes: quelles sont les composants sémantiques pertinents pour définir une classification sémantique des prédicats hongrois? Quelles sont les implications syntaxiques spécifiques à ces classes? Et, plus généralement, quelle est la nature des alternances spécifiques aux classes verbales en hongrois ? Dans la phase finale de la recherche, nous avons étudié le potentiel de l'acquisition automatique pour extraire des classes de verbes à partir de corpus. Nous avons effectué une classification non supervisée, basée sur des données distributionnelles, pour obtenir une classification sémantique pertinente des verbes hongrois. Nous avons également testé la méthode de classification non supervisée sur des données françaises. / We present the creation of two resources for Hungarian NLP applications: a rule-based shallow parser and a database of verbal subcategorization frames. Hungarian, as a non-configurational language with a rich morphology, presents specific challenges for NLP at the level of morphological and syntactic processing. While efficient and precise morphological analyzers are already available, Hungarian is under-resourced with respect to syntactic analysis. Our work aimed at overcoming this problem by providing resources for syntactic processing. Hungarian language is characterized by a rich morphology and a non-configurational encoding of grammatical functions. These features imply that the syntactic processing of Hungarian has to rely on morphological features rather than on constituent order. The broader interest of our undertaking is to propose representations and methods that are adapted to these specific characteristics, and at the same time are in line with state of the art research methodologies. More concretely, we attempt to adapt current results in argument realization and lexical semantics to the task of labeling sentence constituents according to their syntactic function and semantic role in Hungarian. Syntax and semantics are not completely independent modules in linguistic analysis and language processing: it has been known for decades that semantic properties of words affect their syntactic distribution. Within the syntax-semantics interface, the field of argument realization deals with the (partial or complete) prediction of verbal subcategorization from semantic properties. Research on verbal lexical semantics and semantically motivated mapping has been concentrating on predicting the syntactic realization of arguments, taking for granted (either explicitly or implicitly) that the distinction between arguments and adjuncts is known, and that adjuncts' syntactic realization is governed by productive syntactic rules, not lexical properties. However, besides the correlation between verbal aspect or actionsart and time adverbs (e.g. Vendler, 1967 or Kiefer, 1992 for Hungarian), the distribution of adjuncts among verbs or verb classes did not receive significant attention, especially within the lexical semantics framework. We claim that contrary to the widely shared presumption, adjuncts are often not fully productive. We therefore propose a gradual notion of productivity, defined in relation to Levin-type lexical semantic verb classes (Levin, 1993; Levin and Rappaport-Hovav, 2005). The definition we propose for the argument-adjunct dichotomy is based on evidence from Hungarian and exploits the idea that lexical semantics not only influences complement structure but is the key to the argument-adjunct distinction and the realization of adjuncts

Page generated in 0.123 seconds