• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 140
  • 17
  • 14
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 178
  • 87
  • 51
  • 47
  • 38
  • 37
  • 36
  • 35
  • 31
  • 30
  • 29
  • 29
  • 28
  • 24
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

La prégnance perceptive des mots parlés: une réponse au problème de la segmentation lexicale ?

Lachaud, Christian 27 September 2005 (has links) (PDF)
Reconnaître des mots parlés implique de résoudre un problème de localisation de frontières lexicales dans le flux sonore. La segmentation lexicale est envisagée dans ce travail de recherche comme résultant du guidage ascendant des traitements par la prosodie, et descendant par la structure du lexique.<br />Les résultats présentés montrent :<br />- qu'un code prososyllabique structure le signal de parole et contraint fortement le traitement lexical;<br />- que la présence d'une superposition lexicale à l'initiale d'un mot facilite sa reconnaissance.<br />SLEXS, un modèle mathématique de prégnance perceptive des mots parlés, est proposé pour expliquer ce phénomène de facilitation, qui serait lié à un processus récursif de construction du percept. Aucune des données obtenues ne permet de conclure que la compétition lexicale soit un mécanisme essentiel lors de la reconnaissance des mots parlés.
12

La terminologie wolof dans une perspective de traduction et de combinatoire lexicale restreinte / Wolof terminology in translation and lexical combinatorics perspectives

Diagne, Abibatou 29 January 2018 (has links)
La présente étude s’intéresse à la terminologie médicale wolof, envisagée dans le cadre de la sémantique lexicale. Nous y abordons des unités terminologiques de type collocation. Ce choix a un lien direct avec notre cadre théorique d’analyse, la Théorie Sens-Texte (TST), qui, à l’heure actuelle, propose l’un des meilleurs outils de description de la collocation avec les Fonctions Lexicales (FL). Les collocations constituent des indices de spécialisation en plus d’avoir un comportement lexicosyntaxique singulier. Nous les analysons, sur la base d’un corpus scientifique compilé, afin d’avoir une perception holistique de la cooccurrence lexicale. Les langues, en Afrique, sont souvent peu dotées du point de vue terminologique. Il s’agit dans cette recherche de s’appuyer sur le modèle d’analyse du lexique qui prend en compte trois paramètres clés : le sens, la forme et la combinatoire, afin de faire une description du lexique wolof qui, à terme, permet d’établir des principes de terminologisation. La portée traductive du travail réside dans l’approche interlinguistique que nous adoptons pour élaborer notre liste de termes. Le versant opératoire de l’étude est la constitution d’un début de corpus médical trilingue (anglais-français-wolof). Le caractère multilingue n’est pas une fin en soi, mais au vu de la richesse terminologique de l’anglais et du français, il nous a paru opportun de partir des travaux en ces langues. La perspective traductive de la terminologie a permis de relever différents procédés de création et de restitutions de termes médicaux (anglais et français) en wolof. Elle n’a par ailleurs pas manqué de poser en filigrane une problématique d’ordre socioterminologique pour laquelle nous donnons des éléments de réponses. / This study focuses on Wolof medical terminology under the lexical semantics context. We talk about terminology units, particularly collocations. This choice has a direct link with our theoretical framework of analysis, the Meaning-Text Theory (MTT), which currently offers one of the best tools for describing collocation through Lexical Functions. Collocations constitute indices of specialization and have a singular lexico-syntactic functioning. We analyze them, on the basis of compiled scientific corpus, in order to have a holistic perception of lexical co-occurrence. Languages in Africa are often poorly endowed from a terminology view. This research is based on the lexical analysis model which takes into account three key parameters : meaning, form and combinatorics, to make a description of the Wolof lexicon which, in the long run, gives principles of terminology. The translational scope of the work lies in the interlinguistic approach we adopt to develop our list of terms. The operative side of the study is the constitution of a beginning of trilingual medical corpus (English-French-Wolof). The multilingual character is not an end in itself, but considering the richness of English and French terminology studies, it seemed appropriate to start work in these languages. The translation perspective of the terminology has revealed different processes to create and restitute medical terms (English and French) into Wolof. Moreover, it focuses on a socioterminological problem for which we give some answers.
13

The role of aspect in paraphrase operations

Schluter, Natalie January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
14

Automatisation du repérage et de l'encodage des collocations en langue de spécialité

Orliac, Brigitte January 2004 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
15

Reconnaissance d'implications textuelles à forte composante linguistique / Linguistic-Based Computational Treatment of Textual Entailment Recognition

Amoia, Marilisa 07 November 2008 (has links)
Dans cette thèse, j'étudie la manière dont les ressources lexicales basées sur l'organisation de la connaissance lexicale dans des classes qui partagent des propriétés communes (syntactiques, sémantiques, etc.) permettent le traitement automatique de la langue naturelle et en particulier la reconnaissance symbolique d'implications textuelles. Tout d'abord, je présente une approche robuste et à large couverture sur la reconnaissance de paraphrases verbales lexico-structurelle basée sur la classification de verbes anglais par Levin (1993). Puis, je montre qu'en étendant le cadre proposé par Levin pour traiter les modèles d'inférence généraux, on obtient une classification d'adjectifs anglais qui, comparée à des approches antérieures, propose une caractérisation sémantique à grain plus fin de leurs propriétés déductives. De plus, je développe un cadre sémantique compositionnel pour assigner à des adjectifs une représentation sémantique sur la base d'une approche ontologiquement variée (Hobbs, 1985) et qui permet ainsi l'inférence de premier ordre pour tous les types d'adjectifs, y compris les adjectifs extensionnels. Enfin, je présente un corpus de test pour l'inférence basée sur les adjectifs que j'ai développée comme ressource pour l'évaluation de systèmes de traitement automatique de l'inférence de la langue naturelle. / In this thesis, I investigate how lexical resources based on the organisation of lexical knowledge in classes which share common (syntactic, semantic, etc. features support natural language processing and in particular symbolic recognition of textual entailment. First, I present a robust and wide coverage approach to lexico-structural verb paraphrase recognition based on Levin's (1993) classification of English verbs. Then, I show that by extending Levin's framework to general inference patterns, a classification of English adjectives can be obtained that compared with previous approaches, provides a more fine grained semantic characterisation of their inferential properties. Further, I develop a compositional semantic framework to assign a semantic representation to adjectives based on an ontologically promiscuous approach (Hobbs, 1985) and thereby supporting first order inference for all types of adjectives including extensional ones. Finally, I present a test suite for adjectival inference I developed as a resource for the evaluation of computational systems handling natural language inference.
16

Sémantique lexicale et profils langagiers d'enfants avec autisme de langue hébraïque / Lexical semantics and language profiles in Hebrew-speaking children with ASD

Sukenik, Nufar 11 December 2017 (has links)
La communication en général, et les capacités linguistiques en particulier, constituent de formidables obstacles pour beaucoup d'enfants avec TSA, qui ont du mal à faire connaître leurs idées, sentiments et intentions à autrui. La sémantique lexicale est fondamentale dans le choix des bons mots et la compréhension du monde autour de soi. Dans la recherche sur le Trouble du spectre de l’autisme (TSA), les capacités langagières sont communément mesurées sur la base de la performance sur des tâches qui mesurent les capacités en sémantique lexicale—les connaissances sur la signification des mots. Or, les connaissances scientifiques sur comment les capacités sémantiques lexicales sont liées aux autres aspects du langage dans le TSA sont pauvres. / Communications in general and linguistic abilities in particular, constitute formidable obstacles for many children with ASD, who struggle with making their ideas, feelings and intentions known to others. Lexical semantics is fundamental to choosing the right words, and understanding the surrounding world. In research on ASD, language abilities are very widely measured on the basis of performance on tasks testing lexical semantic abilities—knowledge of the meaning of words. However, very little is known about how lexical semantic abilities are related to other aspects of language in ASD.
17

Ressources et méthodes semi-supervisées pour l'analyse sémantique de texte en français

Mouton, Claire 17 December 2010 (has links) (PDF)
Pouvoir chercher des informations sur un niveau sémantique plutôt que purement lexical devrait améliorer la recherche d'informations. Cette thèse a pour objectif de développer des modules d'analyse sémantique lexicale a n d'améliorer le système de recherche de documents textuels de la société Exalead. Les travaux présentés concernent plus spécifi quement l'analyse sémantique de texte en français. La problématique liée au traitement du français réside dans le fait qu'il n'existe que peu de ressources sémantiques et de corpus annotés pour cette langue. Rendre possible une telle analyse implique donc d'une part de pourvoir aux besoins en ressources linguistiques françaises, et d'autre part, de trouver des méthodes alternatives ne nécessitant pas de corpus français manuellement annoté. Notre manuscrit est structuré en trois parties suivies d'une conclusion. Les deux chapitres de la première partie délimitent les objectifs et le contexte de notre travail. Le premier introduit notre thèse en évoquant la problématique de la sémantique en recherche d'information, en présentant la notion de sens et en identifiant deux tâches d'analyse sémantique : la désambiguïsation lexicale et l'analyse en rôles sémantiques. Ces deux tâches font l'objet de l'ensemble de notre étude et constituent respectivement les parties 2 et 3. Le second chapitre dresse un état de l'art de toutes les thématiques abordées dans notre travail. La deuxième partie aborde le problème de la désambiguïsation lexicale. Le chapitre 3 est consacré à la constitution de nouvelles ressources françaises pour cette tâche. Nous décrivons dans un premier temps une méthode de traduction automatique des synsets nominaux de WordNet vers le français à partir de dictionnaires bilingues et d'espaces distributionnels. Puis, nous constituons une ressource automatiquement en proposant une adaptation de deux méthodes d'induction de sens existantes. L'originalité des clusters de sens ainsi constitués est de contenir des mots dont la syntaxe est proche de celle des mots source. Ces clusters sont alors exploités dans l'algorithme que nous proposons au chapitre 4 pour la désambiguïsation elle-même. Le chapitre 4 fournit également des recommandations concernant l'intégration d'un tel module dans un système de recherche de documents. L'annotation en rôles sémantiques est traitée dans la troisième partie. Suivant une structure similaire, un premier chapitre traite de la constitution de ressources pour le français, tandis que le chapitre suivant présente l'algorithme développé pour l'annotation elle-même. Ainsi, le chapitre 5 décrit nos méthodes de traduction et d'enrichissement des prédicats de FrameNet, ainsi que l'évaluation associée. Nous proposons au chapitre 6 une méthode semi-supervisée exploitant les espaces distributionnels pour l'annotation en rôles sémantiques. Nous concluons ce chapitre par une ré flexion sur l'usage des rôles sémantiques en recherche d'information et plus particulièrement dans le cadre des systèmes de réponses à des questions posées en langage naturel. La conclusion de notre mémoire résume nos contributions en soulignant le fait que chaque partie de notre travail exploite les espaces distributionnels syntaxiques et que ceci permet d'obtenir des résultats intéressants. Cette conclusion mentionne également les perspectives principales que nous inspirent ces travaux. La perspective principale et la plus immédiate est l'intégration de ces modules d'analyse sémantique dans des prototypes de recherche documentaire.
18

Analyse d'un corpus de verbes de son : étude de leurs fonctionnements syntaxique, lexical et sémantique

Domingue, Geneviève 04 1900 (has links) (PDF)
Cette étude propose une description de huit verbes de son en français : bourdonner, bruire, carillonner, crépiter, crisser, gargouiller, retentir et tinter. L'étude de ces verbes repose sur une analyse de corpus et comporte trois étapes : une analyse syntaxique, un typage lexical et une analyse en sémantique cognitive. L'analyse syntaxique consiste à identifier les éléments qui apparaissent aux côtés des verbes ciblés et de dégager les patrons syntaxiques dans lesquels les verbes de son peuvent entrer. Les patrons syntaxiques sont précisés par le typage lexical : les éléments qui accompagnent les verbes sont associés à des types sémantiques. Les verbes de son sont ensuite représentés à l'aide du schéma conceptuel de la perception auditive proposé par Piron (2006). Les trois premiers paramètres de ce schéma, soit l'émission sonore, la propagation sonore et la réception acoustique, permettent de rendre compte des verbes de son à l'étude. Il est montré que les différentes acceptions des verbes de son correspondent à différents cas d'exploitation du schéma conceptuel. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : verbes de son, français, sémantique cognitive, patrons syntaxiques, typage lexical
19

Étude neuropsychologique et neuroanatomofonctionnelle du traitement phonologique chez le lecteur sourd pré-lingual

Aparicio, Mario Metz-Lutz, Marie-Noëlle. January 2007 (has links) (PDF)
Thèse de doctorat : Neuropsychologie : Strasbourg 1 : 2007. / Titre provenant de l'écran-titre. Bibliogr. p. 151-165.
20

Polysemy and cross-linguistic variation : a study of English and French deictic motion verbs

Zuercher, Beau 07 1900 (has links) (PDF)
La présente thèse en sémantique lexicale examine le phénomène de la polysémie (c.-à-d. l'existence de multiples emplois inter-reliés pour un même mot), et ce de deux points de vue : d'une part, celui du statut de la polysémie dans le lexique, et d'autre part, celui des causes de la variation de la polysémie entre les langues. Les tenants d'approches par sens multiples – en particulier ceux qui travaillent dans le cadre de la sémantique cognitive – attribuent la polysémie d'un mot donné à un réseau complexe de sens organisés autour d'un sens prototypique et concret, ces sens étant reliés par des relations telles que la similarité et la métaphore. Mais ces approches par sens multiples souffrent d'un manque de parcimonie (prolifération des sens, redondances entre connaissances sémantiques et connaissances du monde, redondances entre les sens individuels), et elles n'offrent pas de moyen adéquat pour rendre compte des différences de polysémie que l'on observe d'une langue à l'autre. La présente étude se penche sur les verbes déictiques anglais et français qui permettent d'exprimer des situations de 'mouvement' (COME, GO, VENIR et ALLER) par le biais de trois questions : 1) ces verbes ont-ils de multiples sens lexicaux ou un sens lexical unique; 2) pourquoi montrent-ils les ressemblances d'emploi que l'on observe en comparant les deux langues, et 3) pourquoi montrent-ils les différences d'emploi que l'on observe? En utilisant des données provenant de plusieurs dictionnaires, d'un petit corpus et des intuitions de locuteurs, nous avons identifié pour chaque verbe un grand ensemble de significations possibles qui appartiennent à une grande variété de domaines, et nous avons identifié le contenu sémantique lexical invariant de chacun de ces verbes en les analysant dans le cadre de l'approche monosémiste de Bouchard (1995) ainsi que celui de l'approche néo-saussuréenne de Bouchard (2002, à paraître). Nous montrons que chacun de ces verbes est monosémique au niveau lexical, ne possédant qu'une seule représentation sémantique abstraite dont les composantes sont ancrées dans des propriétés de la cognition générale. Plus spécifiquement, COME et VENIR expriment l'orientation abstraite vers le centre déictique (défini comme un point qui est accessible à un Sujet de Conscience), tandis que GO et ALLER expriment l'orientation abstraite vers une relation avec l'anti-centre déictique, le complément du centre déictique. Nous démontrons en détail comment tous les emplois sémantiques discutés dans cette étude découlent de la manière dont ces représentations sémantiques indépendantes de tout domaine particulier interagissent avec des inférences basées sur des connaissances extralinguistiques. Le degré élevé de polysémie contextuelle de ces éléments découle du caractère très abstrait de leurs composantes sémantiques ('orientation', 'Sujet de Conscience', 'accessibilité', localisation' et R, une relation combinatoire maximalement générale). Comme il existe de nombreuses façons pour un élément d'interagir avec ces composantes (selon la nature des entités impliquées dans la situation), ces verbes peuvent donner lieu à un nombre pratiquement sans limites de manifestations différentes en fonction du contexte. Nous montrons par ailleurs que les ressemblances observées dans ces paires d'équivalents français-anglais découlent de leur contenu sémantique commun, tandis que les nombreuses asymétries que l'on observe dans les emplois de ces paires s'expliquent par une seule différence au niveau du sens invariant : les verbes anglais contiennent une relation de localisation, alors que les verbes français correspondants contiennent la relation combinatoire générale R. Étant donné que les représentations sémantiques de ces verbes sont très abstraites, l'interaction entre cette petite différence au niveau du contenu sémantique, d'une part, et les connaissances contextuelles et les connaissances du monde, d'autre part, donne lieu à d'abondantes différences de surface. D'autres différences émergent de l'interaction entre ces sens uniques et les différences grammaticales et lexicales entre l'anglais et le français. Ainsi, nous démontrons qu'une approche monosémique permet d'offrir une analyse de la polysémie et de la variation qui est à la fois compréhensive et parcimonieuse. Les résultats obtenus appuient l'idée selon laquelle les mots tendent à être monosémiques au niveau du lexique ainsi que l'idée selon laquelle les composantes sémantiques lexicales (à la fois celles qui sont récurrentes d'une langue et l'autre et celles qui varient) sont ancrées dans des propriétés de la cognition générale. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : sémantique lexicale, polysémie, monosémie, variation, verbes de déplacement déictiques, anglais, français

Page generated in 0.0473 seconds