Spelling suggestions: "subject:"syntax.""
81 |
Expression et position du sujet pronominal du 12ème au 14ème siècle : une approche quantitative(recherche inédite)Prevost, Sophie 08 July 2011 (has links) (PDF)
La recherche inédite " Expression et position du sujet pronominal du 12ème au 14ème siècle : une approche quantitative " poursuit et exemplifie la réflexion proposée dans le mémoire de synthèse (" Français médiéval en diachronie : du corpus à la langue " http://tel.archives-ouvertes.fr/tel-00667107), tant en ce qui concerne la problématique du changement et de la variation que celle des corpus numérisés et enrichis et des stratégies mises en oeuvre pour les exploiter.
|
82 |
Une approche cognitive du potentiel sémantique et constructionnel du verbe "casser". Une confrontation aux verbes "briser" et "couper"Bordignon, Frédérique 24 May 2003 (has links) (PDF)
Ce travail porte sur le potentiel sémantique et constructionnel du verbe "casser". Il s'inscrit dans le cadre de la Grammaire cognitive de Langacker (1987) dont il exploite les moyens de représentation et notamment le Network Model (1987), qui, sur la base de relations de catégorisation et des notions de schémas et prototypes, permet de rendre compte de façon structurée des différents usages d'un item lexical. Ces usages sont justement identifiés à l'aide d'un corpus de textes littéraires et journalistiques. D'autres données sont aussi exploitées ; il s'agit d'expérimentations réalisées auprès de locuteurs du français (épreuve de classification de phrases) et de locuteurs bilingues français-slovaque dans le but de cerner mieux la sémantique de "casser" et "briser" et la relation qui les unit. Pour décrire son potentiel constructionnel, c'est à "couper" que "casser" est confronté. Ces deux verbes partagent un comportement syntaxique parallèle pour certains emplois, c'est-à-dire les emplois abstraits de "casser" et l'ensemble des emplois de "couper". Ce phénomène est décrit en termes de transitivité et d'ergativité telles que ces notions sont définies par Davidse (1998)
|
83 |
Jalons pour une théorie du questionnaire dans les sciences de l'hommeGrémy, Jean-Paul 07 July 1980 (has links) (PDF)
Cette recherche vise à construire un cadre théorique correspondant aux différentes formes de tests et de questionnaires dont on a acquis l'expérience (en psychologie appliquée, puis par la pratique des enquêtes sociologiques). Dans une première partie, on présente la polymorphie syntaxique de l'interrogation en français (en l'illustrant d'exemples tirés de tests ou de questionnaires), pour chercher ensuite à réduire les multiples formes de questions à une forme canonique, dont toutes les autres formes sont dérivables par transformations paraphrastiques (on s'inspire principalement des travaux de Chomsky, Tesnière, et Harris). Dans la seconde partie, on décrit les relations sémantiques qui lient questions, réponses, et présuppositions ; on expose ensuite les principaux systèmes de logique érotétique (Belnap, Åqvist, Kubinski), pour aboutir à la description de la syntaxe et de la sémantique formelles des questions et des réponses. La troisième partie porte sur la structure du questionnaire et sa réduction à une forme canonique utilisable pour l'analyse des données recueillies. La conclusion indique les applications possibles, et signale les recherches nécessaires pour qu'il soit possible d'élaborer une théorie générale du questionnaire.
|
84 |
La scalarité de l'intégration syntaxique : étude syntaxique, sémantique et pragmatique de la proposition en "quand"Saez, Frédérique 22 June 2011 (has links) (PDF)
Cette étude sur les propositions (clauses) introduites par "quand" s'ancre dans une démarche descriptive qui se veut à l'interface entre syntaxe, sémantique et discours. Il s'agit donc dans un premier temps de définir des critères permettant de rendre compte de la syntaxe particulièrement variable de cette structure introduite par quand. Nous nous sommes inspirée des travaux de Smessaert et al. (2005) pour la distinction entre micro- et macro-syntaxe et Berrendonner & Reichler-Béguelin (1989), Berrendonner (1990) et Béguelin (2004) pour la description macro-syntaxique. L'utilisation des ces outils de descriptions nous a permis de sortir de la dichotomie traditionnelle (hypotaxe vs parataxe) par l'intégration d'un niveau intermédiaire (exotaxe, épitaxe et endotaxe) afin d'élaborer un continuum scalaire d'intégration de la clause introduite par "quand", sur l'exemple de ce que propose Lehmann (1988). Ce continuum d'intégration présente une double orientation de l'intégration : de la coalescence au dégroupage et inversement. Ce continuum d'intégration syntaxique de la clause introduite par quand est corroboré par l'interprétation plus ou moins subjective de cette même clause. Nous souhaitons que ce travail soit à l'origine d'une étude plus vaste sur les intégrateurs temporels en français (cependant, alors, en même temps, à ce moment-là etc.) afin de vérifier la constance prévisible de certains phénomènes.
|
85 |
Génération de phrases multilingues par apprentissage automatique de modèles de phrasesCharton, Eric 12 November 2010 (has links) (PDF)
La Génération Automatique de Texte (GAT) est le champ de recherche de la linguistique informatique qui étudie la possibilité d'attribuer à une machine la faculté de produire du texte intelligible. Dans ce mémoire, nous présentons une proposition de système de GAT reposant exclusivement sur des méthodes statistiques. Son originalité est d'exploiter un corpus en tant que ressource de formation de phrases. Cette méthode offre plusieurs avantages : elle simplifie l'implémentation d'un système de GAT en plusieurs langues et améliore les capacités d'adaptations d'un système de génération à un domaine sémantique particulier. La production, d'après un corpus d'apprentissage, des modèles de phrases finement étiquetées requises par notre générateur de texte nous a conduit à mener des recherches approfondies dans le domaine de l'extraction d'information et de la classification. Nous décrivons le système d'étiquetage et de classification de contenus encyclopédique mis au point à cette fin. Dans les étapes finales du processus de génération, les modèles de phrases sont exploités par un module de génération de texte multilingue. Ce module exploite des algorithmes de recherche d'information pour extraire du modèle une phrase pré-existante, utilisable en tant que support sémantique et syntaxique de l'intention à communiquer. Plusieurs méthodes sont proposées pour générer une phrase, choisies en fonction de la complexité du contenu sémantique à exprimer. Nous présentons notamment parmi ces méthodes une proposition originale de génération de phrases complexes par agrégation de proto-phrases de type Sujet, Verbe, Objet. Nous envisageons dans nos conclusions que cette méthode particulière de génération puisse ouvrir des voies d'investigations prometteuses sur la nature du processus de formation de phrases
|
86 |
Modéliser l'acquisition de la syntaxe du langage naturel via l'hypothèse de la primauté du sensTellier, Isabelle 08 December 2005 (has links) (PDF)
L'objet de ce travail est la modélisation informatique de la capacité d'apprentissage de la syntaxe de leur langue naturelle par les enfants. Une synthèse des connaissances psycho-linguistiques sur la question est donc tout d'abord proposée. Le point de vue adopté pour la modélisation accorde une place privilégiée à la sémantique, qui est supposée acquise avant la syntaxe. Le Principe de compositionnalité, éventuellement adapté, est mis à contribution pour formaliser les liens entre syntaxe et sémantique, et le modèle d'apprentissage ''à la limite'' par exemples positifs de Gold est choisi pour régir les conditions de l'apprentissage. Nous présentons dans ce contexte divers résultats d'apprenabilité de classes de grammaires catégorielles à partir de divers types de données qui véhiculent des informations sémantiques. Nous montrons que, dans tous les cas, la sémantique contribue à spécifier les structures sous-jacentes aux énoncés, et à réduire ainsi l'espace de recherche des algorithmes d'apprentissage.
|
87 |
Extensions syntaxiques dans un contexte LL(1)Vidart, Jorge 28 September 1974 (has links) (PDF)
.
|
88 |
Syntaxe abstraite typéeZsido, Julianna 21 June 2010 (has links) (PDF)
Afin de spécifier le comportement des langages de programmation, de préciser leurs propriétés et de certifier leurs implémentations, on étudie des modèles formels des langages de programmation. L'étude se divise en l'étude de la syntaxe et en celle de la sémantique. La deuxième est basée sur des modèles formels de la syntaxe. Cette thèse de doctorat se situe dans l'étude de la syntaxe et est consacrée principalement à deux approches à la syntaxe abstraite typée avec liaison de variables. Ces deux approches utilisent le langage de la théorie des catégories. La premièere approche est dans l'esprit de l'approche catégorique aux théories alébriques. La deuxième est basée sur la notion de monade et introduit la notion d'un module sur une monade qui remplacent les foncteurs et leurs algèbres. En outre la deuxième approche est adaptée pour une classe plus large de syntaxes typées où les types dépendent des termes.
|
89 |
Ponctuation et syntaxe dans la langue française médiévale. Étude d'un corpus de chartes originales écrites à Liège entre 1236 et 1291Mazziotta, Nicolas 21 December 2007 (has links)
%%%Un résumé mis en forme disponible dans les fichiers joints%%%
Nous avons commencé par faire le pari que la syntaxe pouvait expliquer la majorité des signes de ponctuation. Cette optique nous a guidé durant toute notre étude, dont le but était de répondre à la question:
«Comment, d'après ce qu'on peut observer dans les chartes écrites en français à Liège avant 1292, la ponctuation originale interagit-elle avec la syntaxe dans la langue française médiévale?»
Nous avons d'emblée positionné notre étude par rapport à la réflexion sur la ponctuation médiévale, osant le pari que la syntaxe peut servir de point de référence pour expliquer la plus grande partie de la ponctuation des chartes. Nous avons ensuite décrit la constitution du corpus.
Face à une pareille question, il n'était pas envisageable de commencer
immédiatement à dépouiller les documents: il nous fallait définir avec exactitude les différents concepts dont nous allions avoir besoin.
*** Première partie: modélisation ***
La première partie du travail a ainsi été consacrée à la définition, sur des bases empiriques, des concepts mobilisés. Partant du sens commun et des principes fondamentaux de l'analyse linguistique classique (tenant du structuralisme et du
fonctionnalisme), nous avons exploité les matériaux à notre disposition pour en dégager des notions, dans une approche inductive par son rapport aux faits, mais déductive par sa progression.
Ainsi, au chapitre 2, l'observation du tracé des unités graphiques sur le parchemin nous a amené à abstraire les catégories nécessaires à une modélisation de l'ensemble des unités de la langue écrite, pour lesquelles
nous proposons une terminologie neuve reflétant notre analyse. Nous avons
progressivement défini _langue écrite_, puis _scriptèmes_,
_grammèmes_, etc., progressant des unités les plus générales aux unités les
plus particulières. Ce n'est qu'à ce prix que nous avons pu enfin délimiter
exactement, le moins intuitivement possible, notre propre acception du mot _ponctuation_: «ensemble des
ponctogrammes d'une langue écrite spécifique}. Dans cette définition, le terme _ponctogramme_ désigne une
unité minimale de la langue écrite (_scriptème_) n'organisant pas l'espace (_grammème_), exprimant un contenu (_plérégramme_), ne dépendant pas matériellement d'une autre
unité (_autogramme_), construit à l'aide de traits qui ne se combinent
pas obligatoirement sur un même axe (_nébulogramme_) et non paraphrasable par d'autres unités significatives... Employer ce terme ne pouvait se faire qu'à la fin d'un exposé détaillé, passant en revue tous les hyperonymes impliqués.
De manière moins audacieuse du point de vue de la terminologie employée, nous avons également tenté d'exposer notre conception de la syntaxe (chapitre 3). À nouveau, c'est le corpus qui nous a servi de guide: une fois les phrases délimitées de manière empirique, toutes les structures syntaxiques ont été passées en revue, nommées et intégrées dans un système théorique fondé sur la notion, héritée d'Alain Lemaréchal, de _relation minimale_. Nous sommes parti de l'existence d'un lien sémantique entre les unités en présence et nous
avons caractérisé la manière dont ce lien était _spécifié_.
Nous croyons, au delà de l'intérêt pratique de cette première partie, que les concepts dégagés peuvent être jugés suffisamment généraux sinon pour
servir à la comparaison d'autres systèmes graphiques ou syntaxiques, du moins afin de constituer une base à leur description.
*** Deuxième partie: analyse des données***
Une fois les concepts définis et l'ensemble du corpus annoté, il a été envisageable de répondre à la question posée. Néanmoins, l'ensemble des données disponibles, de par sa nature
et son abondance, rendait l'approche traditionnelle -- ou plutôt _manuelle_
-- difficilement applicable. C'est pourquoi nous avons ouvert la seconde partie du travail en annonçant le recours à des méthodes plus outillées: les statistiques (introduites au chapitre 4).
Ces méthodes présentées, nous avons sélectionné six caractéristiques
morphosyntaxiques et positionnelles que nous avons jugées fondamentales pour décrire tous les constituants. Ces variables répondaient à six
questions: 1/ du point de vue de l'ordre linéaire des mots, le constituant est-il le premier de la structure qu'il sert à construire? 2/ le constituant est-il le dernier de la structure qu'il sert à construire? 3/ quelle est la nature et le niveau d'intégration syntaxique de la structure qui le contient? 4/ quelle
est la fonction du constituant? 5/ est-il de nature propositionnelle (mode personnel ou non)? 6/ est-il relaté? Nous avons ensuite pu mettre en relation les réponses à ces questions et la simple présence de ponctuation de part et d'autre
des constituants, sans tenir compte, dans un premier temps, de la forme des
ponctogrammes.
Pour ce faire, nous avons essentiellement employé les techniques statistiques les plus classiques en sciences humaines: l'analyse des tableaux de contingence à l'aide
du test du chi². Après avoir évalué la relation entre chacune des six variables et la ponctuation, nous avons constaté l'inefficacité de la
méthode, ce qui nous a conduit à en rechercher une autre, permettant d'envisager simultanément toutes les variables morphosyntaxiques et positionnelles, en particulier. Ces nouveaux dépouillements nous ont permis de repérer, au milieu de la masse de constituants inégalement marqués par la présence d'un ponctogramme, ceux dont le marquage ou le rejet du marquage avait la plus faible probabilité d'être dû au hasard. Ce qui est ressorti de cette première étape, où les données étaient réduites à une représentation très abstraite, c'est une liste de points forts concernant:
- la différence de fréquence entre le marquage de la phrase et celui des autres propositions;
- la spécificité du marquage d'un certain nombre de types d'arguments;
- le rejet manifeste du marquage du prédicat;
- la faible fréquence de marquage à la suite des relateurs;
- la forte présence de marquage devant les coordonnants.
Nous avons ainsi pu observer que la ponctuation n'était pas obligatoire, mais que sa présence était certainement liée à un contexte syntaxique spécifique.
Ensuite, ces grandes lignes ont pu être inspectées de manière plus concrète: pour chaque tendance qui le justifiait, nous avons évalué la probabilité que l'attraction ou la répulsion observée soit généralisée. Nous avons adopté la position
pragmatique selon laquelle toute tendance suffisamment fréquente pouvait être considérée comme générale si le fait de retirer les chartes qui la manifestaient de manière significative de l'échantillon ne changeait pas significativement la
probabilité d'attraction.
Il en est ressorti que la plupart des tendances observées étaient générales ou trop faiblement illustrées pour être évaluées de ce point de vue.
Par ailleurs, nous avons essayé de mettre en relation la ponctuation avec le contexte immédiat, ce qui nous a laissé observer que beaucoup de constituants étaient davantage, voire exclusivement marqués au contact d'autres constituants attirant également le marquage ou dans un contexte de coordination.
Cet examen détaillé des tendances mises en évidence au chapitre 5 permet en fin de compte de faire le tri parmi les tendances et de repérer celles
qui sont manifestement dues à l'entourage du constituant ou au document dans lequel il est attesté. En observant plus intuitivement les attestations, nous avons également pu repérer, comme nous nous y attendions, un certain nombre de tendances liées à des facteurs étrangers à la morphosyntaxe: la ponctuation de formules spécifiques au type discursif, celle des chiffres ou encore la présence d'un ponctogramme
devant les noms de personnes.
En outre, l'examen du détail des attestations nous a amené à proposer des révisions concernant le modèle d'analyse morphosyntaxique présenté au chapitre 3: 1/ il conviendrait que soient pris en compte les lexèmes
employés; 2/ la notion de la coordination pourrait être étendue à des groupements de constituants que nous n'avons pas considérés comme coordonnés; 3/ il serait peut-être profitable de considérer les coordonnants de la même manière que les autres relateurs. D'autre part, nous avons insisté sur le fait que l'analyse des structures en syntaxe immédiate gagnerait à être moins abstraite.
De cette étude de la fréquence du marquage est ressorti un ensemble
d'environnements propices à la présence de ponctuation.
À ce moment, il nous a été possible de réintroduire les considérations portant sur la _forme_ des ponctogrammes et d'employer l'_Analyse Factorielle des Correspondances_ (AFC) pour décrire les données. Nous avons effectué un tri croisé pour mesurer les associations entre la forme des ponctogrammes et la tendance au
marquage spécifique à la position où se trouvait ce ponctogramme (ce qui
incluait l'absence d'environnement attirant le marquage). Après une analyse exploratoire, nous avons complété notre étude par une série de
tests évaluant la probabilité que les regroupements entre la forme des
ponctogrammes et l'environnement dans lequel on les rencontre soit due au
hasard. Dans la majorité des cas observés, les contrastes mis en évidence par l'AFC correspondaient à des oppositions significatives.
L'étude détaillée de la forme a mené à la conclusion suivante: les ponctogrammes autres que <·> sont plus rares, et leur emploi paraît plus spécifique à un environnement donné. En d'autres termes: non seulement les scribes ne ponctuaient pas n'importe où, mais, en plus, ils n'employaient pas indifféremment les signes.
Les méthodes ne permettant pas de traiter de manière efficace les ponctogrammes peu attestés, nous les avons simplement commentés, laissant de côté les statistiques pour une étude plus philologique. Ces observations ont mené, d'une part, à la critique de la validité de la transcription: 1/ certaines distinctions entre les formes sont
peut-être superflues; 2/ certaines unités peuvent être confondues avec d'autres. D'autre part, la forme des ponctogrammes pose la question de la relation entre les ponctogrammes et le reste du système graphique.
|
90 |
Contextes de liaison et FLE : productivité des positions /ʔ/, /t/, /n/ et /z/Fernandez, Maria 30 May 2013 (has links) (PDF)
1) Utilisation des corpus oraux en FLE. On postule une unité minimale d'information syntaxique qui opère dans les situations d'interaction communicative. Au niveau macro-syntaxique, cette unité informe la syllabe proéminente. Des positions linéarisées sont décrites pour comparer les syllabations concurrentes. Sur cette base, le gabarit syllabique opératif dans l'interlangue de l'apprenant peut être modifié par la présentation d'un modèle alternatif. Les productions déviantes constatées dans les corpus (intra-langue) justifient l'intervention d'un didacticien-tuteur et la formulation de règles établissant des rapports phonologiques entre la syllabation erratique et une syllabation modèle. 2) Les ressources. Les enregistrements de corpus oraux suivant le protocole PFC (Durand, Laks & Lyche, 2002/2009), permettent de répertorier les contextes de liaison de 14 informateurs de niveau B1/B2 apprenants de FLE à Madrid. En lecture les liaisons sont classées selon les analyses disponibles du texte PFC conçu pour étudier la variation chez des francophones. Les transcriptions orthographiques des conversations ont été réalisées par un transcripteur du sous projet IPFC (Detey, et al. 2010) qui vise l'alignement et le traitement de corpus oraux de locuteurs non francophones. 3) Traitement de données et perspectives. Trois notations (lecture, conversation, prosodie) marquent les productions pour analyse. Leur élaboration s'inspire de la méthodologie appliquée en acquisition du français L1 (Chevrot, Dugua & Fayol, 2008) et repèrent les consonnes parasites, omissions et erreurs à distance. Des critères prosodiques sont proposés pour reconstruire la syntaxe par l'élaboration d'exercices correctifs.
|
Page generated in 0.0398 seconds