• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 42
  • 8
  • 3
  • 2
  • Tagged with
  • 58
  • 30
  • 17
  • 16
  • 15
  • 14
  • 13
  • 13
  • 11
  • 10
  • 10
  • 9
  • 9
  • 9
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modèle de structuration des relations lexicales fondé sur le formalisme des fonctions lexicales

Jousse, Anne-Laure 04 1900 (has links)
Thèse réalisée en cotutelle avec l'Université Paris Diderot (Paris 7) / Cette thèse porte sur l’élaboration d’un modèle de structuration des relations lexicales, fondé sur les fonctions lexicales de la Théorie Sens-Texte [Mel’cuk, 1997]. Les relations lexicales considérées sont les dérivations sémantiques et les collocations telles qu’elles sont définies dans le cadre de la Lexicologie Explicative et Combinatoire [Mel’cuk et al., 1995]. En partant du constat que ces relations lexicales ne sont pas décrites ni présentées de façon satisfaisante dans les bases de données lexicales, nous posons la nécessité d’en créer un modèle de structuration. Nous justifions l’intérêt de créer un système de fonctions lexicales puis détaillons les quatre perspectives du système que nous avons mises au point : une perspective sémantique, une perspective axée sur la combinatoire des éléments d’une relation lexicale, une perspective centrée sur leurs parties du discours, ainsi qu’une perspective mettant en avant l’élément sur lequel se focalise la relation. Le système intègre l’ensemble des fonctions lexicales, y compris les fonctions lexicales non standard, dont nous proposons une normalisation de l’encodage. Le système a été implémenté dans la base de données lexicale du DiCo. Nous présentons trois applications dans lesquelles il peut être exploité. Premièrement, il est possible d’en dériver des interfaces de consultation pour les bases de données lexicales de type DiCo. Le système peut également être directement consulté en tant qu’assistant à l’encodage des relations lexicales. Enfin, il sert de référence pour effectuer un certain nombre de calculs sur les informations lexicographiques, qui pourront, par la suite, être implémentés pour automatiser la rédaction de certains champs de fiches lexicographiques. / This thesis proposes a model for structuring lexical relations, based on the concept of lexical functions (LFs) proposed in Meaning-Text Theory [Mel’cuk, 1997]. The lexical relations taken into account include semantic derivations and collocations as defined within this theoretical framework, known as Explanatory and Combinatorial Lexicology [Mel’cuk et al., 1995]. Considering the assumption that lexical relations are neither encoded nor made available in lexical databases in an entirely satisfactory manner, we assume the necessity of designing a new model for structuring them. First of all, we justify the relevance of devising a system of lexical functions rather than a simple classification. Next, we present the four perspectives developped in the system: a semantic perspective, a combinatorial one, another one targetting the parts of speech of the elements involved in a lexical relation, and, finally, a last one emphasizing which element of the relation is focused on. This system covers all LFs, even non-standard ones, for which we have proposed a normalization of the encoding. Our system has already been implemented into the DiCo relational database. We propose three further applications that can be developed from it. First, it can be used to build browsing interfaces for lexical databases such as the DiCo. It can also be directly consulted as a tool to assist lexicographers in encoding lexical relations by means of lexical functions. Finally, it constitutes a reference to compute lexicographic information which will, in future work, be implemented in order to automatically fill in some fields within the entries in lexical databases.
2

Modèle de structuration des relations lexicales fondé sur le formalisme des fonctions lexicales

Jousse, Anne-Laure 04 1900 (has links)
Cette thèse porte sur l’élaboration d’un modèle de structuration des relations lexicales, fondé sur les fonctions lexicales de la Théorie Sens-Texte [Mel’cuk, 1997]. Les relations lexicales considérées sont les dérivations sémantiques et les collocations telles qu’elles sont définies dans le cadre de la Lexicologie Explicative et Combinatoire [Mel’cuk et al., 1995]. En partant du constat que ces relations lexicales ne sont pas décrites ni présentées de façon satisfaisante dans les bases de données lexicales, nous posons la nécessité d’en créer un modèle de structuration. Nous justifions l’intérêt de créer un système de fonctions lexicales puis détaillons les quatre perspectives du système que nous avons mises au point : une perspective sémantique, une perspective axée sur la combinatoire des éléments d’une relation lexicale, une perspective centrée sur leurs parties du discours, ainsi qu’une perspective mettant en avant l’élément sur lequel se focalise la relation. Le système intègre l’ensemble des fonctions lexicales, y compris les fonctions lexicales non standard, dont nous proposons une normalisation de l’encodage. Le système a été implémenté dans la base de données lexicale du DiCo. Nous présentons trois applications dans lesquelles il peut être exploité. Premièrement, il est possible d’en dériver des interfaces de consultation pour les bases de données lexicales de type DiCo. Le système peut également être directement consulté en tant qu’assistant à l’encodage des relations lexicales. Enfin, il sert de référence pour effectuer un certain nombre de calculs sur les informations lexicographiques, qui pourront, par la suite, être implémentés pour automatiser la rédaction de certains champs de fiches lexicographiques. / This thesis proposes a model for structuring lexical relations, based on the concept of lexical functions (LFs) proposed in Meaning-Text Theory [Mel’cuk, 1997]. The lexical relations taken into account include semantic derivations and collocations as defined within this theoretical framework, known as Explanatory and Combinatorial Lexicology [Mel’cuk et al., 1995]. Considering the assumption that lexical relations are neither encoded nor made available in lexical databases in an entirely satisfactory manner, we assume the necessity of designing a new model for structuring them. First of all, we justify the relevance of devising a system of lexical functions rather than a simple classification. Next, we present the four perspectives developped in the system: a semantic perspective, a combinatorial one, another one targetting the parts of speech of the elements involved in a lexical relation, and, finally, a last one emphasizing which element of the relation is focused on. This system covers all LFs, even non-standard ones, for which we have proposed a normalization of the encoding. Our system has already been implemented into the DiCo relational database. We propose three further applications that can be developed from it. First, it can be used to build browsing interfaces for lexical databases such as the DiCo. It can also be directly consulted as a tool to assist lexicographers in encoding lexical relations by means of lexical functions. Finally, it constitutes a reference to compute lexicographic information which will, in future work, be implemented in order to automatically fill in some fields within the entries in lexical databases. / Thèse réalisée en cotutelle avec l'Université Paris Diderot (Paris 7)
3

Modèles de langue en recherche d'information

Alvarez, Carmen January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
4

Automatisation du repérage et de l'encodage des collocations en langue de spécialité

Orliac, Brigitte January 2004 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
5

"Exploration des procédés de condensation pour le résumé de texte grâce à l'application des formalismes de la théorie sens-texte"

Bélanger, Pascale January 2003 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
6

Etude longitudinale des phénomènes de resyllabation chez les enfants français entre compétence phonologique, lecture et orthographe / A longitudinal study on children language acquisition of French re-syllabification phenomena considering phonological and literacy skills

Ruvoletto, Samantha 29 June 2016 (has links)
Pendant l'acquisition, l’enfant francophone reçoit comme input une langue orale où les frontières entre les mots sont masquées à cause de trois phénomènes de resyllabation très communs : la liaison (ex. les ours [lezuʁs]), l’élision (ex. l'avion [la.vjɔ̃]) et l’enchaînement (ex. une araignée [y.na.ʁɛ.ɲe]). Ces phénomènes sont à l'origine de l'apparition de mauvaises segmentations dans les productions des enfants à partir de l'âge de 2 ans, classifiées sous les noms de « remplacements » ou « consonnes erronées » (ex. de(s)[n]éléphants [de.ne.le.fɑ̃] pour des[z]éléphants [de.ze.le.fɑ̃]) et de « omissions » ou « non-réalisations » (u(n)[Ø]avion [ɛ̃.a.vjɔ̃] pour un[n]avion [ɛ.na.vjɔ̃]). Les études développementales (longitudinales ou transversales) observent une diminution de ces erreurs entre 4 et 5 ans. Si dans la langue orale, les phénomènes de resyllabation causent un non-alignement entre les frontières syllabiques et les frontières lexicales, dans la langue écrite, les frontières lexicales des mots sont délimitées par des marques graphiques (<les ours>, <une ambulance>, <l'éléphant>). Au moyen d'une étude longitudinale conduite sur 43 enfants francophones à partir du CP (6;3) jusqu'au CE1 (7;6), nous montrons que l’apprentissage de l'écriture et de la lecture, dénommés literacy, aide les enfants à fixer les formes lexicales et à mieux produire à l'oral et que cette variable influence aussi le traitement cognitif des séquences resyllabifiées. À partir de ces résultats, nous proposons également un modèle phonologique pour l'acquisition de la liaison après 5 ans qui tient compte des résultats phonétiques enregistrés et de l'apprentissage de la langue écrite. / Early word segmentation in French is complicated by three phenomena of re-syllabification: liaison (word1 les [le], ʽthe’ + word2 ours [uʁs], ʽbears’ → les[z]ours [le.zuʁs], ʽthe bears’), elision (word1 le [le], ʽthe’ + ours [uʁs], word2 ʽbear’→ l'ours [luʁs], ʽthe bear’) and enchainement (word1 une [yn], ʽa’ + word2 autruche [ot.ʁyʃ], ʽostrich’ → une autruche [y.not.ʁyʃ], ʽan otrich’). Theses processes of re-syllabification entail children's errors in oral productions such as replacements (le(s)[n]éléphants [le.ne.le.fɑ̃] for les[z]éléphants [le.ze.le.fɑ̃], ʽthe elephants’) and non-realizations (u(n)[Ø]ours [ɛ̃.a.vjɔ̃] for un[n]ours [ɛ̃.nuʁs], ʽa bear’). Even though the re-syllabified sequences of word1+word2 are perceived blended, in writing forms they appear separated by graphic markers, as blanks (les ours, une autruche) or apostrophes (l'ours). In our longitudinal study we evaluate the role of literacy in French word segmentation of re-syllabified sequences comparing the results of oral tasks and writing-reading tasks in the same group of children in three points according to literacy skills. Data analysis shows that oral productions of re-syllabfied sequences are influenced by literacy: the complete acquisition of written lexical forms and the strengthen reading skills help to correctly perform oral productions and phenomena of re-syllabification. We also notice that re-syllabified sequences entail a processing cost in word recognition. The thesis ends with the proposal of a phonological model that explains word boundaries acquisition after 5 years of age considering literacy as an important factor.
7

Une approche linguistique de l'évaluation des ressources extraites par analyse distributionnelle automatique / Evaluation of resources provided by automatic distributional analysis : a linguistic approach

Morlane-Hondère, François 10 July 2013 (has links)
Dans cette thèse, nous abordons du point de vue linguistique la question de l'évaluation des bases lexicales extraites par analyse distributionnelle automatique (ADA). Les méthodes d'évaluation de ces ressources qui sont actuellement mises en œuvre (comparaison à des lexiques de référence, évaluation par la tâche, test du TOEFL...) relèvent en effet d'une approche quantitative des données qui ne laisse que peu de place à l'interprétation des rapprochements générés. De ce fait, les conditions qui font que certains couples de mots sont extraits alors que d'autres ne le sont pas restent mal connues. Notre travail vise une meilleure compréhension des fonctionnements en corpus qui régissent les rapprochements distributionnels. Pour cela, nous avons dans un premier temps adopté une approche quantitative qui a consisté à comparer plusieurs ressources distributionnelles calculées sur des corpus différents à des lexiques de références (le Dictionnaire électronique des synonymes du CRISCO et le réseau lexical JeuxDeMots). Cette étape nous a permis, premièrement, d'avoir une estimation globale du contenu de nos ressources, et, deuxièmement, de sélectionner des échantillons de couples de mots à étudier d'un point de vue qualitatif. Cette deuxième étape constitue le cœur de la thèse. Nous avons choisi de nous focaliser sur les relations lexico-sémantiques que sont la synonymie, l'antonymie, l'hyperonymie et la méronymie, que nous abordons en mettant en place quatre protocoles différents. En nous appuyant sur les relations contenues dans les lexiques de référence, nous avons comparé les propriétés distributionnelles des couples de synonymes/antonymes/hyperonymes/méronymes qui ont été extraits par l'ADA avec celles des couples qui ne l'ont pas été. Nous mettons ainsi au jour plusieurs phénomènes qui favorisent ou bloquent la substituabilité des couples de mots (donc leur extraction par l'ADA). Ces phénomènes sont considérés au regard de paramètres comme la nature du corpus qui a permis de générer les bases distributionnelles étudiées (corpus encyclopédique, journalistique ou littéraire) ou les limites des lexiques de référence. Ainsi, en même temps qu'il questionne les méthodes d'évaluation des bases distributionnelles actuellement employées, ce travail de thèse illustre l'intérêt qu'il y a à considérer ces ressources comme des objets d'études linguistiques à part entière. Les bases distributionnelles sont en effet le résultat d'une mise en œuvre à grande échelle du principe de substituabilité, ce qui en fait un matériau de choix pour la description des relations lexico-sémantiques. / In this thesis, we address the question of the evaluation of distributional thesauri from a linguistic point of view. The most current ways to evaluate distributional methods rely on the comparison with gold standards like WordNet or semantic tasks like the TOEFL test. However, these evaluation methods are quantitative and thus restrict the possibility of performing a linguistic analysis of the distributional neighbours. Our work aims at a better understanding of the distributional behaviors of words in texts through the study of distributional thesauri. First, we take a quantitative approach based on a comparison of several distributional thesauri with gold standards (the DES - a dictionary of synonyms - and JeuxDeMots - a crowdsourced lexical network). This step allowed us to have an overview of the nature of the semantic relations extracted in our distributional thesauri. In a second step, we relied on this comparison to select samples of distributional neighbours for a qualitative study. We focused on "classical" semantic relations, e.g. synonymy, antonymy, hypernymy and meronymy. We considered several protocols to compare the properties of the couples of distributional neighbours which were found in the gold standards and the others. Thus, taking into account parameters like the nature of the corpora from which were generated our distributional thesauri, we explain why some synonyms, hypernyms, etc. can be substituted in texts while others cannot. The purpose of this work is twofold. First, it questions the traditional evaluation methods, then it shows how distributional thesauri can be used for the study of semantic relations.
8

Une approche linguistique de l'évaluation des ressources extraites par analyse distributionnelle automatique

Morlane-Hondère, François 10 July 2013 (has links) (PDF)
Dans cette thèse, nous abordons du point de vue linguistique la question de l'évaluation des bases lexicales extraites par analyse distributionnelle automatique (ADA). Les méthodes d'évaluation de ces ressources qui sont actuellement mises en œuvre (comparaison à des lexiques de référence, évaluation par la tâche, test du TOEFL...) relèvent en effet d'une approche quantitative des données qui ne laisse que peu de place à l'interprétation des rapprochements générés. De ce fait, les conditions qui font que certains couples de mots sont extraits alors que d'autres ne le sont pas restent mal connues. Notre travail vise une meilleure compréhension des fonctionnements en corpus qui régissent les rapprochements distributionnels. Pour cela, nous avons dans un premier temps adopté une approche quantitative qui a consisté à comparer plusieurs ressources distributionnelles calculées sur des corpus différents à des lexiques de références (le Dictionnaire électronique des synonymes du CRISCO et le réseau lexical JeuxDeMots). Cette étape nous a permis, premièrement, d'avoir une estimation globale du contenu de nos ressources, et, deuxièmement, de sélectionner des échantillons de couples de mots à étudier d'un point de vue qualitatif. Cette deuxième étape constitue le cœur de la thèse. Nous avons choisi de nous focaliser sur les relations lexico-sémantiques que sont la synonymie, l'antonymie, l'hyperonymie et la méronymie, que nous abordons en mettant en place quatre protocoles différents. En nous appuyant sur les relations contenues dans les lexiques de référence, nous avons comparé les propriétés distributionnelles des couples de synonymes/antonymes/hyperonymes/méronymes qui ont été extraits par l'ADA avec celles des couples qui ne l'ont pas été. Nous mettons ainsi au jour plusieurs phénomènes qui favorisent ou bloquent la substituabilité des couples de mots (donc leur extraction par l'ADA). Ces phénomènes sont considérés au regard de paramètres comme la nature du corpus qui a permis de générer les bases distributionnelles étudiées (corpus encyclopédique, journalistique ou littéraire) ou les limites des lexiques de référence. Ainsi, en même temps qu'il questionne les méthodes d'évaluation des bases distributionnelles actuellement employées, ce travail de thèse illustre l'intérêt qu'il y a à considérer ces ressources comme des objets d'études linguistiques à part entière. Les bases distributionnelles sont en effet le résultat d'une mise en œuvre à grande échelle du principe de substituabilité, ce qui en fait un matériau de choix pour la description des relations lexico-sémantiques.
9

La place des connaissances lexicales face aux connaissances du monde dans le processus d'interprétation des énoncés

Bangha, Kornél Robert January 2003 (has links)
Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur.
10

Segmentation de la parole en mots et régularités phonotactiques : Effets phonologiques, probabilistes ou lexicaux ?

Crouzet, Olivier 01 December 2000 (has links) (PDF)
Selon des travaux récents, les locuteurs seraient capables de recourir à des connaissances sur les régularités phonotactiques ou syllabiques de leur langue pour segmenter le signal de parole en mots. Une analyse distributionnelle de la fréquence des groupes de consonnes dans un lexique informatisé de la langue française révèle cependant l'existence d'un lien étroit entre la structure phonologique des groupes de consonnes et leur probabilité d'occurrence dans la langue. Les séquences de phonèmes tautosyllabiques ou légales sont en moyenne beaucoup plus fréquentes que les séquences hétérosyllabiques ou illégales. Trois modèles des processus de segmentation lexicale sont présentés qui pourraient rendre compte des effets observés sans recourir à des processus de segmentation fondés sur les régularités phonologiques de la langue. Les expériences conduites ont pour objectif de dissocier ces diverses interprétations d'un modèle de segmentation fondé sur les régularités phonologiques. Les résultats obtenus confirment en partie l'influence des contraintes phonologiques sur les processus de segmentation de la parole en mots. Ils incitent cependant à développer une réflexion sur le niveau d'implémentation de ces connaissances (prélexical vs. post-lexical) et sur leur mode d'intégration dans un modèle du traitement de la parole. Un modèle est proposé dans lequel ces procédures de segmentation constitueraient des routines générales d'organisation perceptive qui ne seraient pas spécifiques des processus de traitement du langage parlé et n'influenceraient pas directement les niveaux de représentation lexicaux. Ces deux catégories de traitements seraient indépendantes et intégrées au cours d'une étape ultérieure.

Page generated in 0.0585 seconds