• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • 2
  • 1
  • Tagged with
  • 6
  • 6
  • 4
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Le développement de la complexité lexicale en français langue seconde à la suite d'un programme d'immersion à l'étranger de cinq semaines

Bonneau, Marc-André 20 April 2018 (has links)
L’objectif principal de cette étude était d’observer le développement de la complexité lexicale (DCL) en français langue seconde (FLS) d’apprenants adultes (n=100) ayant participé à un programme d’immersion à l’étranger (PIÉ) de cinq semaines. L’étude a comparé trois groupes de participants distincts et a fait état d’augmentations significatives du nombre de mots total et du nombre de mots uniques pour tous les groupes, surtout pour le groupe débutant (n=33). Le développement de la diversification lexicale (DDL) mesuré à l’aide de huit variables n’a montré que peu de résultats significatifs, suggérant ainsi que le DDL devait impliquer une période d’immersion plus longue. L’utilisation des mots uniques complexes (MUC), caractéristique de la diversité lexicale, nécessite une habileté plus grande que plusieurs apprenants n’ont pas réussi à acquérir. Une implication didactique qui découle de cette étude tient à la nature progressive de l’apprentissage du vocabulaire. Certains mots, dont les MUC, semblent être appris à un stade plus avancé.
2

La spontanéité en français parlé : caractérisation de l'élan énonciatif à travers différents types de corpus / Spontaneity in spoken french : caracterization of enunciative impulse in different corpora

Stabarin, Isabelle 25 November 2019 (has links)
Qu’est-ce que la spontanéité en langue ? Comment investit-elle les différents types de discours oraux ? Avec quelles limites ? Nous cherchons à mettre au jour les aspects formels (marqueurs) de la spontanéité à partir de corpus de différents types. Nous partons de l’hypothèse selon laquelle un locuteur a tendance à produire des énoncés syntaxiquement plus complexes s’il parle spontanément que s’il surveille son énonciation, et que cette complexité linguistique se manifeste par une réduction syntaxique. La réduction des énoncés ou des formes qui le constituent, alliée à d’autres critères tels que leur caractère prédicatif, et le rôle de l’intonation pour leur complétude, s’observe effectivement dans des énoncés où l’élan de la spontanéité est patent. Cet élan est scalaire, il varie même au sein d’un tour de parole, comme le montrent les auto-ajustements. Sa variation chez un même locuteur se manifeste par des variations linguistiques intrapersonnelles.Ces variations corrélées (élan/langue) sont observables grâce au corpus spécifique que nous avons constitué : au cours d’interactions informelles, un procédé de sollicitation freine l’élan du locuteur, et celui-ci est amené à reformuler son énoncé avec plus d’attention à la forme. Les équivalences sémantiques produites dans ce contexte sont confrontées et mettent au jour l’effet de la scalarité de la spontanéité sur la grammaire des énoncés. Il se confirme que la réduction est bien un marqueur de spontanéité. Mais surtout, cette réduction investit tous les niveaux de la langue. Cette concomitance d’éléments réduits est non seulement compatible avec l’élan de la spontanéité mais elle le nourrit. / What is spontaneity in language? What role does it play in different types of oral discourse, and which constraints is it subject to? This study sets out to identify formal markers of spontaneity in different corpora. We hypothesize that a speaker tends to produce more complex syntactic statements when speaking spontaneously than when monitoring his /her spoken discourse, and that this linguistic complexity is manifested in syntactic reduction. The reduction of the statements or their component forms, combined with other criteria such as their predictive nature, and the role of intonation in their completeness, is indeed observed in statements where the impulse of spontaneity is very evident. This impulse varies, even within a single speaking turn, as can be seen in self-adjustments. Impulse variation in a single speaker is manifested by intrapersonal linguistic variations.These correlated variations (impulse and language) can be observed thanks to the specific corpus compiled for this study, which permits the comparison of semantic equivalences, revealing the effect of the degree of spontaneity on the grammar of statements. The study confirms that reduction is indeed a marker of spontaneity. But reduction affects all levels of language. This concomitance of reduced elements is both compatible with and also fosters the impulse of spontaneity.
3

La complexité linguistique : essai de théorisation et d'application dans un cadre comparatiste

Glaudert, Nathalie 22 November 2011 (has links) (PDF)
Cette thèse en linguistique théorique s'inscrit dans un cadre comparatiste. La première partie de notre thèse est un essai de théorisation de la mesure de la complexité linguistique. Nous y proposons une redéfinition de la théorie de la marque, socle de notre recherche transversale, qui prend en compte (1) les différentes définitions qu'elle a reçues au cours de son développement, (2) les apports que peuvent représenter d'autres modèles théoriques et (3) les critiques qui lui ont été faites jusqu'à notre présente étude. La seconde partie de notre thèse est un essai d'application de la théorie de la marque qui a pour objectif de tester son degré de validité dans plusieurs composantes du langage et dans des analyses intra- et intersystémiques de quelques langues indo-européennes et de l'océan Indien. Il s'agit aussi de cerner ses limites et de présenter les principes fonctionnels avec lesquels elle est en concurrence.
4

Linguistic complexity and information : quantitative approaches / Complexité et information linguistiques : approches quantitatives

Oh, Yoon Mi 20 October 2015 (has links)
La communication humaine vise principalement à transmettre de l'information par le biais de l'utilisation de langues. Plusieurs chercheurs ont soutenu l'hypothèse selon laquelle les limites de la capacité du canal de transmission amènent les locuteurs de chaque langue à encoder l'information de manière à obtenir une répartition uniforme de l'information entre les unités linguistiques utilisées. Dans nos recherches, la stratégie d'encodage de l'information en communication parlée est connue comme résultant de l'interaction complexe de facteurs neuro-cognitifs, linguistiques, et sociolinguistiques et nos travaux s'inscrivent donc dans le cadre des systèmes adaptatifs complexes. Plus précisément, cette thèse vise à mettre en évidence les tendances générales, translinguistiques, guidant l'encodage de l'information en tenant compte de la structure des langues à trois niveaux d'analyse (macrosystémique, mésosystémique, et microsystémique). Notre étude s'appuie ainsi sur des corpus oraux et textuels multilingues dans une double perspective quantitative et typologique. Dans cette recherche, la langue est définie comme un système adaptatif complexe, régulé par le phénomène d'auto-organisation, qui motive une première question de recherche : "Comment les langues présentant des débits de parole et des densités d'information variés transmettent-elles les informations en moyenne ?". L'hypothèse défendue propose que la densité moyenne d'information par unité linguistique varie au cours de la communication, mais est compensée par le débit moyen de la parole. Plusieurs notions issues de la théorie de l'information ont inspiré notre manière de quantifier le contenu de l'information et le résultat de la première étude montre que le débit moyen d'information (i.e. la quantité moyenne d'information transmise par seconde) est relativement stable dans une fourchette limitée de variation parmi les 18 langues étudiées. Alors que la première étude propose une analyse de l'auto-organisation au niveau macro- systémique, la deuxième étude porte sur des sous-systèmes linguistiques tels que la phonologie et la morphologie : elle relève donc d'une analyse au niveau mésosystémique. Elle porte sur les interactions entre les modules morphologique et phonologique en utilisant les mesures de la complexité linguistique de ces modules. L'objectif est de tester l'hypothèse d'uniformité de la complexité globale au niveau mésosystémique. Les résultats révèlent une corrélation négative entre la complexité morphologique et la complexité phonologique dans les 14 langues et vont dans le sens de l'hypothèse de l'uniformité de la complexité globale d'un point de vue typologique holistique. La troisième étude analyse l'organisation interne des sous-systèmes phonologiques au moyen de la notion de charge fonctionnelle (FL) au niveau microsystémique. Les contributions relatives des sous-systèmes phonologiques (segments, accents, et tons) sont évaluées quantitativement en estimant leur rôle dans les stratégies lexicales. Elles sont aussi comparées entre 2 langues tonales et 7 langues non-tonales. En outre, la distribution interne de la charge fonctionnelle à travers les sous-systèmes vocaliques et consonantiques est analysée de façon translinguistique dans les 9 langues. Les résultats soulignent l'importance du système tonal dans les distinctions lexicales et indiquent que seuls quelques contrastes dotés d'une charge fonctionnelle élevée sont observés dans les distributions inégales de charge fonctionnelle des sous-systèmes dans les 9 langues. Cette thèse présente donc des études empiriques et quantitatives réalisées à trois niveaux d'analyse, qui permettent de décrire des tendances générales parmi les langues et apportent des éclaircissements sur le phénomène d'auto-organisation. / The main goal of using language is to transmit information. One of the fundamental questions in linguistics concerns the way how information is conveyed by means of language in human communication. So far many researchers have supported the uniform information density (UID) hypothesis asserting that due to channel capacity, speakers tend to encode information strategically in order to achieve uniform rate of information conveyed per linguistic unit. In this study, it is assumed that the encoding strategy of information during speech communication results from complex interaction among neurocognitive, linguistic, and sociolinguistic factors in the framework of complex adaptive system. In particular, this thesis aims to find general cross-language tendencies of information encoding and language structure at three different levels of analysis (i.e. macrosystemic, mesosystemic, and microsystemic levels), by using multilingual parallel oral and text corpora from a quantitative and typological perspective. In this study, language is defined as a complex adaptive system which is regulated by the phenomenon of self-organization, where the first research question comes from : "How do languages exhibiting various speech rates and information density transmit information on average ?". It is assumed that the average information density per linguistic unit varies during communication but would be compensated by the average speech rate. Several notions of the Information theory are used as measures for quantifying information content and the result of the first study shows that the average information rate (i.e. the average amount of information conveyed per second) is relatively stable within a limited range of variation among the 18 languages studied. While the first study corresponds to an analysis of self-organization at the macrosystemic level, the second study deals with linguistic subsystems such as phonology and morphology and thus, covers an analysis at the mesosystemic level. It investigates interactions between phonological and morphological modules by means of the measures of linguistic complexity of these modules. The goal is to examine whether the equal complexity hypothesis holds true at the mesosystemic level. The result exhibits a negative correlation between morphological and phonological complexity in the 14 languages and supports the equal complexity hypothesis from a holistic typological perspective. The third study investigates the internal organization of phonological subsystems by means of functional load (FL) at the microsystemic level. The relative contributions of phonological subsystems (segments, stress, and tones) are quantitatively computed by estimating their role of lexical strategies and are compared in 2 tonal and 7 non-tonal languages. Furthermore, the internal FL distribution of vocalic and consonantal subsystems is analyzed cross-linguistically in the 9 languages. The result highlights the importance of tone system in lexical distinctions and indicates that only a few salient high-FL contrasts are observed in the uneven FL distributions of subsystems in the 9 languages. This thesis therefore attempts to provide empirical and quantitative studies at the three different levels of analysis, which exhibit general tendencies among languages and provide insight into the phenomenon of self-organization.
5

La complexité linguistique : essai de théorisation et d'application dans un cadre comparatiste / Language complexity : an attempt at theorizing an applying linguistic complexity in a comparative framework

Glaudert, Nathalie 22 November 2011 (has links)
Cette thèse en linguistique théorique s’inscrit dans un cadre comparatiste. La première partie de notre thèse est un essai de théorisation de la mesure de la complexité linguistique. Nous y proposons une redéfinition de la théorie de la marque, socle de notre recherche transversale, qui prend en compte (1) les différentes définitions qu’elle a reçues au cours de son développement, (2) les apports que peuvent représenter d’autres modèles théoriques et (3) les critiques qui lui ont été faites jusqu’à notre présente étude. La seconde partie de notre thèse est un essai d’application de la théorie de la marque qui a pour objectif de tester son degré de validité dans plusieurs composantes du langage et dans des analyses intra- et intersystémiques de quelques langues indo-européennes et de l’océan Indien. Il s’agit aussi de cerner ses limites et de présenter les principes fonctionnels avec lesquels elle est en concurrence. / This thesis in theoretical linguistics is set within a comparative framework. The first part is an attempt to theorize the measurement of linguistic complexity. We endeavour to redefine markedness theory – on which our cross-disciplinary research is based – while taking into account (i) the different definitions given to the theory since its creation, (ii) the benefits other theoretical models can bring to this theory, and (iii) the criticisms the theory has received. The second part of our thesis is an attempt to apply markedness theory in order to test its degree of validity in several components of language and in intraand inter-systemic analyses of some Indo-European and Indian Ocean languages. We also aim at identifying the limits of this theory and presenting other competing functional principles.
6

Une approche computationnelle de la complexité linguistique par le traitement automatique du langage naturel et l'oculométrie

Loignon, Guillaume 05 1900 (has links)
Le manque d'intégration des sciences cognitives et de la psychométrie est régulièrement déploré – et ignoré. En mesure et évaluation de la lecture, une manifestation de ce problème est l’évitement théorique concernant les sources de difficulté linguistiques et les processus cognitifs associés à la compréhension de texte. Pour faciliter le rapprochement souhaité entre sciences cognitives et psychométrie, nous proposons d’adopter une approche computationnelle. En considérant les procédures informatiques comme des représentations simplifiées et partielles de théories cognitivistes, une approche computationnelle facilite l’intégration d’éléments théoriques en psychométrie, ainsi que l’élaboration de théories en psychologie cognitive. La présente thèse étudie la contribution d’une approche computationnelle à la mesure de deux facettes de la complexité linguistique, abordées à travers des perspectives complémentaires. La complexité intrinsèque du texte est abordée du point de vue du traitement automatique du langage naturel, avec pour objectif d'identifier et de mesurer les attributs (caractéristiques mesurables) qui modélisent le mieux la difficulté du texte. L'article 1 présente ALSI (pour Analyseur Lexico-syntaxique intégré), un nouvel outil de traitement automatisé du langage naturel qui extrait une variété d'attributs linguistiques, principalement issus de la recherche en psycholinguistique et en linguistique computationnelle. Nous évaluons ensuite le potentiel des attributs pour estimer la difficulté du texte. L'article 2 emploie ALSI et des méthodes d’apprentissage statistique pour estimer la difficulté de textes scolaires québécois. Dans le second volet de la thèse, la complexité associée aux processus de lecture est abordée sous l'angle de l'oculométrie, qui permet de faire des inférences quant à la charge cognitive et aux stratégies d’allocation de l’attention visuelle en lecture. L'article 3 décrit une méthodologie d'analyse des enregistrements d’oculométrie mobile à l'aide de techniques de vision par ordinateur (une branche de l'intelligence artificielle); cette méthodologie est ensuite testée sur des données de simulation. L'article 4 déploie la même méthodologie dans le cadre d’une expérience pilote d’oculométrie comparant les processus de lecture de novices et d'experts répondant à un test de compréhension du texte argumentatif. Dans l’ensemble, nos travaux montrent qu’il est possible d’obtenir des résultats probants en combinant des apports théoriques à une approche computationnelle mobilisant des techniques d’apprentissage statistique. Les outils créés ou perfectionnés dans le cadre de cette thèse constituent une avancée significative dans le développement des technologies numériques en mesure et évaluation de la lecture, avec des retombées à anticiper en contexte scolaire comme en recherche. / The lack of integration of cognitive science and psychometrics is commonly deplored - and ignored. In the assessment of reading, one manifestation of this problem is a theoretical avoidance regarding sources of text difficulty and cognitive processes underlying text comprehension. To facilitate the desired integration of cognitive science and psychometrics, we adopt a computational approach. By considering computational procedures as simplified and partial representations of cognitivist models, a computational approach facilitates the integration of theoretical elements in psychometrics, as well as the development of theories in cognitive psychology. This thesis studies the contribution of a computational perspective to the measurement of two facets of linguistic complexity, using complementary perspectives. Intrinsic text complexity is approached from the perspective of natural language processing, with the goal of identifying and measuring text features that best model text difficulty. Paper 1 introduces ISLA (Integrated Lexico-Syntactic Analyzer), a new natural language processing tool that extracts a variety of linguistic features from French text, primarily taken from research in psycholinguistics and computational linguistics. We then evaluate the features’ potential to estimate text difficulty. Paper 2 uses ISLA and statistical learning methods to estimate difficulty of texts used in primary and secondary education in Quebec. In the second part of the thesis, complexity associated with reading processes is addressed using eye-tracking, which allows inferences to be made about cognitive load and visual attention allocation strategies in reading. Paper 3 describes a methodology for analyzing mobile eye-tracking recordings using computer vision techniques (a branch of artificial intelligence); this methodology is then tested on simulated data. Paper 4 deploys the same methodology in the context of an eye-tracking pilot experiment comparing reading processes in novices and experts during an argumentative text comprehension test. Overall, our work demonstrates that it is possible to obtain convincing results by combining theoretical contributions with a computational approach using statistical learning techniques. The tools created or perfected in the context of this thesis constitute a significant advance in the development of digital technologies for the measurement and evaluation of reading, with easy-to-identify applications in both academic and research contexts.

Page generated in 0.1069 seconds