Spelling suggestions: "subject:"alinguistic complexity"" "subject:"aslinguistic complexity""
11 |
La spontanéité en français parlé : caractérisation de l'élan énonciatif à travers différents types de corpus / Spontaneity in spoken french : caracterization of enunciative impulse in different corporaStabarin, Isabelle 25 November 2019 (has links)
Qu’est-ce que la spontanéité en langue ? Comment investit-elle les différents types de discours oraux ? Avec quelles limites ? Nous cherchons à mettre au jour les aspects formels (marqueurs) de la spontanéité à partir de corpus de différents types. Nous partons de l’hypothèse selon laquelle un locuteur a tendance à produire des énoncés syntaxiquement plus complexes s’il parle spontanément que s’il surveille son énonciation, et que cette complexité linguistique se manifeste par une réduction syntaxique. La réduction des énoncés ou des formes qui le constituent, alliée à d’autres critères tels que leur caractère prédicatif, et le rôle de l’intonation pour leur complétude, s’observe effectivement dans des énoncés où l’élan de la spontanéité est patent. Cet élan est scalaire, il varie même au sein d’un tour de parole, comme le montrent les auto-ajustements. Sa variation chez un même locuteur se manifeste par des variations linguistiques intrapersonnelles.Ces variations corrélées (élan/langue) sont observables grâce au corpus spécifique que nous avons constitué : au cours d’interactions informelles, un procédé de sollicitation freine l’élan du locuteur, et celui-ci est amené à reformuler son énoncé avec plus d’attention à la forme. Les équivalences sémantiques produites dans ce contexte sont confrontées et mettent au jour l’effet de la scalarité de la spontanéité sur la grammaire des énoncés. Il se confirme que la réduction est bien un marqueur de spontanéité. Mais surtout, cette réduction investit tous les niveaux de la langue. Cette concomitance d’éléments réduits est non seulement compatible avec l’élan de la spontanéité mais elle le nourrit. / What is spontaneity in language? What role does it play in different types of oral discourse, and which constraints is it subject to? This study sets out to identify formal markers of spontaneity in different corpora. We hypothesize that a speaker tends to produce more complex syntactic statements when speaking spontaneously than when monitoring his /her spoken discourse, and that this linguistic complexity is manifested in syntactic reduction. The reduction of the statements or their component forms, combined with other criteria such as their predictive nature, and the role of intonation in their completeness, is indeed observed in statements where the impulse of spontaneity is very evident. This impulse varies, even within a single speaking turn, as can be seen in self-adjustments. Impulse variation in a single speaker is manifested by intrapersonal linguistic variations.These correlated variations (impulse and language) can be observed thanks to the specific corpus compiled for this study, which permits the comparison of semantic equivalences, revealing the effect of the degree of spontaneity on the grammar of statements. The study confirms that reduction is indeed a marker of spontaneity. But reduction affects all levels of language. This concomitance of reduced elements is both compatible with and also fosters the impulse of spontaneity.
|
12 |
Une approche computationnelle de la complexité linguistique par le traitement automatique du langage naturel et l'oculométrieLoignon, Guillaume 05 1900 (has links)
Le manque d'intégration des sciences cognitives et de la psychométrie est régulièrement déploré – et ignoré. En mesure et évaluation de la lecture, une manifestation de ce problème est l’évitement théorique concernant les sources de difficulté linguistiques et les processus cognitifs associés à la compréhension de texte. Pour faciliter le rapprochement souhaité entre sciences cognitives et psychométrie, nous proposons d’adopter une approche computationnelle. En considérant les procédures informatiques comme des représentations simplifiées et partielles de théories cognitivistes, une approche computationnelle facilite l’intégration d’éléments théoriques en psychométrie, ainsi que l’élaboration de théories en psychologie cognitive. La présente thèse étudie la contribution d’une approche computationnelle à la mesure de deux facettes de la complexité linguistique, abordées à travers des perspectives complémentaires. La complexité intrinsèque du texte est abordée du point de vue du traitement automatique du langage naturel, avec pour objectif d'identifier et de mesurer les attributs (caractéristiques mesurables) qui modélisent le mieux la difficulté du texte. L'article 1 présente ALSI (pour Analyseur Lexico-syntaxique intégré), un nouvel outil de traitement automatisé du langage naturel qui extrait une variété d'attributs linguistiques, principalement issus de la recherche en psycholinguistique et en linguistique computationnelle. Nous évaluons ensuite le potentiel des attributs pour estimer la difficulté du texte. L'article 2 emploie ALSI et des méthodes d’apprentissage statistique pour estimer la difficulté de textes scolaires québécois. Dans le second volet de la thèse, la complexité associée aux processus de lecture est abordée sous l'angle de l'oculométrie, qui permet de faire des inférences quant à la charge cognitive et aux stratégies d’allocation de l’attention visuelle en lecture. L'article 3 décrit une méthodologie d'analyse des enregistrements d’oculométrie mobile à l'aide de techniques de vision par ordinateur (une branche de l'intelligence artificielle); cette méthodologie est ensuite testée sur des données de simulation. L'article 4 déploie la même méthodologie dans le cadre d’une expérience pilote d’oculométrie comparant les processus de lecture de novices et d'experts répondant à un test de compréhension du texte argumentatif. Dans l’ensemble, nos travaux montrent qu’il est possible d’obtenir des résultats probants en combinant des apports théoriques à une approche computationnelle mobilisant des techniques d’apprentissage statistique. Les outils créés ou perfectionnés dans le cadre de cette thèse constituent une avancée significative dans le développement des technologies numériques en mesure et évaluation de la lecture, avec des retombées à anticiper en contexte scolaire comme en recherche. / The lack of integration of cognitive science and psychometrics is commonly deplored - and ignored. In the assessment of reading, one manifestation of this problem is a theoretical avoidance regarding sources of text difficulty and cognitive processes underlying text comprehension. To facilitate the desired integration of cognitive science and psychometrics, we adopt a computational approach. By considering computational procedures as simplified and partial representations of cognitivist models, a computational approach facilitates the integration of theoretical elements in psychometrics, as well as the development of theories in cognitive psychology. This thesis studies the contribution of a computational perspective to the measurement of two facets of linguistic complexity, using complementary perspectives. Intrinsic text complexity is approached from the perspective of natural language processing, with the goal of identifying and measuring text features that best model text difficulty. Paper 1 introduces ISLA (Integrated Lexico-Syntactic Analyzer), a new natural language processing tool that extracts a variety of linguistic features from French text, primarily taken from research in psycholinguistics and computational linguistics. We then evaluate the features’ potential to estimate text difficulty. Paper 2 uses ISLA and statistical learning methods to estimate difficulty of texts used in primary and secondary education in Quebec. In the second part of the thesis, complexity associated with reading processes is addressed using eye-tracking, which allows inferences to be made about cognitive load and visual attention allocation strategies in reading. Paper 3 describes a methodology for analyzing mobile eye-tracking recordings using computer vision techniques (a branch of artificial intelligence); this methodology is then tested on simulated data. Paper 4 deploys the same methodology in the context of an eye-tracking pilot experiment comparing reading processes in novices and experts during an argumentative text comprehension test. Overall, our work demonstrates that it is possible to obtain convincing results by combining theoretical contributions with a computational approach using statistical learning techniques. The tools created or perfected in the context of this thesis constitute a significant advance in the development of digital technologies for the measurement and evaluation of reading, with easy-to-identify applications in both academic and research contexts.
|
Page generated in 0.1023 seconds