• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • 1
  • Tagged with
  • 5
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

L'intuition en sciences du langage : de l'énonciation à la grammaticalité des énoncés / Intuition in sciences of language : from the enunciation to the grammaticality of utterances

Derkx, Valérie 08 December 2015 (has links)
Ce travail soutient la thèse selon laquelle l'intuition entre en jeu dans l'acquisition de savoirs et, plus particulièrement, dans l'appropriation d'une langue naturelle comme le français, langue étrangère. Il traite en premier lieu de l'aspect épistémologique de l'intuition en s'attachant à montrer l'importance de cette notion dans différents domaines scientifiques tels que la psychologie, les mathématiques et la philosophie, et ce, dans le but de relever les caractéristiques intrinsèques de l'intuition – immédiateté, inexplicabilité, assurance, jugement perceptif, modèles répertoriés, etc. En second lieu, sont sollicitées les sciences du langage et, plus précisément, la linguistique et la didactique, l’objectif étant d'observer le rôle essentiel que l'intuition y joue. Les caractéristiques dégagées en première partie permettent de les confronter aux concepts linguistiques et didactiques, et d'aboutir à la conclusion que l'intuition participe à la faculté de langage et facilite l'appropriation de toute langue naturelle en se manifestant, notamment, à tous les niveaux linguistiques. Multiforme et variable en degré, elle apparaît alors comme la capacité de juger de la grammaticalité et/ou de l'acceptabilité d'un élément langagier sans recours conscient à des connaissances en langue. Ainsi, l'intuition est un mécanisme cognitif qui permet de reconnaître et de (re)construire les schèmes langagiers de façon inconsciente en s’appuyant sur l'observation et sur l'expérience, ce, afin d'enrichir un répertoire de modèles langagiers. C'est grâce à ce mécanisme qu'elle participe pleinement à l'acquisition d'un savoir et notamment à l'appropriation d'une langue naturelle. / This work claims that intuition takes part in the acquisition of knowledge and, in particular, in the appropriation of a natural language such as French as a foreign language. First, it deals with the epistemological aspect of intuition, by attempting to show the importance of this notion in various scientific fields such as psychology, mathematics and philosophy. The aim is to determine the intrinsic characteristics of intuition, such as immediacy, inexplicability, insurance, perceptual judgment, listed patterns, etc. Secondly, language sciences are holistically examined and, more specifically, linguistics and didactics, aiming to observe the essential role intuition plays within it. The distinctive features established in the first part enable to test their relevance to the linguistic and didactic concepts. This leads to the conclusion that intuition takes part in the faculty of language and facilitates the appropriation of any natural language while appearing on all linguistic levels. Being multiform and variable in scale and scope, intuition appears as the capacity to judge the grammaticality and/or the acceptability of a linguistic particle without any conscious use of language knowledge. Therefore, intuition is an unconscious cognitive mechanism that serves to recognise and to (re)build the language patterns, relying on observation and experience, in order to enrich a repertoire of language patterns. It is through this cognitive mechanism that intuition fully participates in the acquisition of knowledge, including the appropriation of a natural language.
2

Cartographie des erreurs en anglais L2 : vers une typologie intégrant système et texte / Mapping English L2 errors : an integrated system and textual approach

Hamilton, Clive 04 December 2015 (has links)
L’objectif principal de ce travail est d’explorer la frontière entre les erreurs grammaticales d'une part et les erreurs textuelles d'autre part, dans les productions écrites des étudiants francophones rédigeant en anglais langue étrangère (L2) à l’université. Pour ce faire, un corpus de textes d’apprenants en anglais L2 a été recueilli et annoté par le biais de plusieurs schémas d’annotation. Le premier schéma d’annotation est issu de l’UAM CorpusTool, un logiciel qui fournit une taxonomie d’erreurs intégrée. Les premières annotations ont été croisées avec d’autres annotations issues des métafonctions sémantiques que nous avons établies, en nous appuyant sur la linguistique systémique fonctionnelle.En plus de fournir des statistiques en termes de fréquence d’occurrence des erreurs spécifiques chez les apprenants francophones, le croisement des schémas a permis d’identifier certaines valeurs proprement phraséologique, sémantique et textuelle qui semblent poser des problèmes particulièrement épineux. A ce titre, une classification de ce que nous avons appelé des erreurs d’acceptabilité textuelle a été établie, dans le but notamment d’avoir une vue globale sur les erreurs identifiables à ce niveau d’analyse. En bref, le présent travail retrace donc le cheminement de l’ensemble de notre thèse de ses débuts conceptuels jusqu’à la proposition d’un modèle explicatif permettant d’établir la description de toute occurrence erronée identifiée en langue étrangère – qu’elle soit notamment grammaticale (c’est-à-dire, imputable au système linguistique) ou textuelle(c’est-à-dire, imputable au texte). / The main objective of this study is to try and pinpoint the frontier between grammatical (or sentence-level) errors on the one hand and textual errors on the other in university student essays. Accordingly, a corpus of English L2 learner texts, written by French learners, was collected and annotated using several annotation schemes. The first annotation scheme used is based on a model from the UAM CorpusTool software package, which provided us with an integrated error taxonomy. The annotations obtained were then cross-analyzed using the semantic metafunctions identified in systemic functional linguistics.In addition to providing statistics in terms of specific error frequency, our cross analysis has identified some areas that appear to pose particularly difficult problems, i.e. phraseology, and certain semantic and textual constructions. A classification of what we have called textual acceptability errors has thus been established. In short, the thesis begins with an examination of conceptual issues and ends with the proposal for an explanatory model that can describe erroneous occurrences identified in a foreign language – whether they are grammatical (i.e., linked to the language system itself) or textual (i.e. linked to the text) in nature.
3

Méthodes en caractères pour le traitement automatique des langues

Denoual, Etienne 21 September 2006 (has links) (PDF)
Le traitement automatique des langues fondé sur les données a récemment assimilé de nombreuses techniques et perspectives héritées du domaine de la reconnaissance de parole. Parmi celles-ci, les méthodes qui utilisent le mot comme unité de traitement sont difficilement transposables aux systèmes d'écriture sans séparateur orthographique, et ne sont donc pas multilingues.<br />Le présent travail promeut l'utilisation de méthodes travaillant au niveau du signal de l'écrit: le caractère, unité immédiatement accessible dans toute langue informatisée, permet de se passer de segmentation en mots, étape actuellement incontournable pour des langues comme le chinois ou le japonais.<br /><br />Dans un premier temps, nous transposons et appliquons en caractères une méthode bien établie d'évaluation objective de la traduction automatique, BLEU.<br />Les résultats encourageants nous permettent dans un deuxième temps d'aborder d'autres tâches de traitement des données linguistiques. Tout d'abord, le filtrage de la grammaticalité; ensuite, la caractérisation de la similarité et de l'homogénéité des ressources linguistiques. Dans toutes ces tâches, le traitement en caractères obtient des résultats acceptables, et comparables à ceux obtenus en mots.<br />Dans un troisième temps, nous abordons des tâches de production de données linguistiques: le calcul analogique sur les chaines de caractères permet la production de paraphrases aussi bien que la traduction automatique.<br />Ce travail montre qu'on peut construire un système complet de traduction automatique ne nécessitant pas de segmentation, a fortiori pour traiter des langues sans séparateur orthographique.
4

Modelling Syntactic Gradience with Loose Constraint-based Parsing

Prost, Jean-Philippe 10 December 2008 (has links) (PDF)
La grammaticalité d'une phrase est habituellement conçue comme une notion binaire : une phrase est soit grammaticale, soit agrammaticale. Cependant, bon nombre de travaux se penchent de plus en plus sur l'étude de degrés d'acceptabilité intermédiaires, auxquels le terme de gradience fait parfois référence. À ce jour, la majorité de ces travaux s'est concentrée sur l'étude de l'évaluation humaine de la gradience syntaxique. Cette étude explore la possibilité de construire un modèle robuste qui s'accorde avec ces jugements humains.<br>Nous suggérons d'élargir au langage mal formé les concepts de Gradience Intersective et de Gradience Subsective, proposés par Aarts pour la modélisation de jugements graduels. Selon ce nouveau modèle, le problème que soulève la gradience concerne la classification d'un énoncé dans une catégorie particulière, selon des critères basés sur les caractéristiques syntaxiques de l'énoncé. Nous nous attachons à étendre la notion de Gradience Intersective (GI) afin qu'elle concerne le choix de la meilleure solution parmi un ensemble de candidats, et celle de Gradience Subsective (GS) pour qu'elle concerne le calcul du degré de typicité de cette structure au sein de sa catégorie. La GI est alors modélisée à l'aide d'un critère d'optimalité, tandis que la GS est modélisée par le calcul d'un degré d'acceptabilité grammaticale. Quant aux caractéristiques syntaxiques requises pour permettre de classer un énoncé, notre étude de différents cadres de représentation pour la syntaxe du langage naturel montre qu'elles peuvent aisément être représentées dans un cadre de syntaxe modèle-théorique (Model-Theoretic Syntax). Nous optons pour l'utilisation des Grammaires de Propriétés (GP), qui offrent, précisément, la possibilité de modéliser la caractérisation d'un énoncé. Nous présentons ici une solution entièrement automatisée pour la modélisation de la gradience syntaxique, qui procède de la caractérisation d'une phrase bien ou mal formée, de la génération d'un arbre syntaxique optimal, et du calcul d'un degré d'acceptabilité grammaticale pour l'énoncé.<br>À travers le développement de ce nouveau modèle, la contribution de ce travail comporte trois volets.<br>Premièrement, nous spécifions un système logique pour les GP qui permet la révision de sa formalisation sous l'angle de la théorie des modèles. Il s'attache notamment à formaliser les mécanismes de satisfaction et de relâche de contraintes mis en oeuvre dans les GP, ainsi que la façon dont ils permettent la projection d'une catégorie lors du processus d'analyse. Ce nouveau système introduit la notion de satisfaction relâchée, et une formulation en logique du premier ordre permettant de raisonner au sujet d'un énoncé.<br>Deuxièmement, nous présentons notre implantation du processus d'analyse syntaxique relâchée à base de contraintes (Loose Satisfaction Chart Parsing, ou LSCP), dont nous prouvons qu'elle génère toujours une analyse syntaxique complète et optimale. Cette approche est basée sur une technique de programmation dynamique (dynamic programming), ainsi que sur les mécanismes décrits ci-dessus. Bien que d'une complexité élevée, cette solution algorithmique présente des performances suffisantes pour nous permettre d'expérimenter notre modèle de gradience.<br>Et troisièmement, après avoir postulé que la prédiction de jugements humains d'acceptabilité peut se baser sur des facteurs dérivés de la LSCP, nous présentons un modèle numérique pour l'estimation du degré d'acceptabilité grammaticale d'un énoncé. Nous mesurons une bonne corrélation de ces scores avec des jugements humains d'acceptabilité grammaticale. Qui plus est, notre modèle s'avère obtenir de meilleures performances que celles obtenues par un modèle préexistant que nous utilisons comme référence, et qui, quant à lui, a été expérimenté à l'aide d'analyses syntaxiques générées manuellement.
5

Les stratégies de scripteurs avancés dans la révision de phrases complexes : description et implications didactiques

Roussel, Katrine 04 1900 (has links)
No description available.

Page generated in 0.0911 seconds