• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 101
  • 19
  • 5
  • 1
  • 1
  • 1
  • Tagged with
  • 130
  • 64
  • 56
  • 53
  • 41
  • 37
  • 30
  • 28
  • 28
  • 22
  • 21
  • 19
  • 19
  • 18
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Affinités syntaxiques et sémantiques entre mots : apports mutuels de la linguistique et du TAL

Fabre, Cécile 29 November 2010 (has links) (PDF)
Je présente un bilan des travaux que j'ai menés depuis mon recrutement à l'Université de Toulouse 2 - Le Mirail (1997) dans le domaine de la linguistique et du Traitement Automatique des Langues (TAL). J'ai exploré le lien entre ces deux disciplines de deux façons que j'estime complémentaires : tout d'abord, je considère le champ applicatif du TAL comme un terrain d'investigation important pour la linguistique. Le TAL, et de façon générale, les applications relevant du domaine de l'ingénierie des langues, sollicitent un renouvellement des objets d'étude de la linguistique et élargissent le champ de ses questionnements. En retour, la linguistique gagne à s'appuyer sur des procédures de découverte issues du TAL, basées sur le traitement de corpus numérisés et annotés et sur le recours à des techniques de quantification adaptées aux besoins de la description linguistique. Au sein de ce cadre général, les travaux que j'ai menés ont porté principalement sur deux thématiques de recherche que j'ai résumées sous les termes d'affinités sémantiques et syntaxiques. Le premier concerne la question du repérage des rapports de proximité sémantique entre différents types d'unités (mots, termes, structures prédicatives). Identifier sous la diversité des formulations des éléments de contenu similaire est un objectif crucial pour de nombreuses applications qui visent l'accès à l'information dans les textes. Dans cette perspective, j'ai cherché à considérer sur le plan linguistique cette question de la proximité sémantique, en faisant en particulier appel à des techniques d'analyse distributionnelle automatique qui visent à calculer les rapprochements sémantiques entre mots sur la base de la similarité de leur comportement syntaxique dans les corpus. Cette approche inductive des relations de sens déborde largement les limites des relations classiquement décrites en linguistique et sollicite des procédures nouvelles de description et de validation. Le second volet concerne la question des affinités syntaxiques entre mots : impliquée dans le projet de développement et d'exploitation d'un analyseur syntaxique automatique, syntex, je me suis intéressée à une question qui est au coeur des problèmes d'ambiguïté syntaxique, à savoir le rattachement des groupes prépositionnels. J'ai travaillé en particulier à la mise au point d'une méthode permettant de distinguer des types différents de rattachement prépositionnel, de nature argumentale ou adjonctive. Dans ce cas également, mon travail est guidé par un objectif qui relève du TAL (améliorer les performances d'un analyseur), et ce projet m'a amenée en retour à retravailler une question linguistique centrale en syntaxe, la distinction entre arguments et circonstants, et à développer des méthodes d'analyse de corpus qui permettent de substituer à une conception binaire de ces notions une appréciation plus graduelle de l'autonomie du groupe prépositionnel par rapport au verbe. Je propose donc de montrer comment les outils de TAL appliqués aux corpus offrent à la linguistique des instruments d'observation et d'expérimentation qui permettent d'aborder les faits langagiers par le biais de l'observation des usages et sous l'angle de la quantification. Ma conviction est que la linguistique ainsi outillée peut jouer un rôle plus important sur les nombreux terrains applicatifs qui nécessitent l'analyse de données langagières.
42

Caractérisation phonétique et phonologique du syntagme intermédiaire en français : de la production à la perception.

Michelas, Amandine 04 July 2011 (has links) (PDF)
Le travail présenté ici est sous-tendu par deux observations majeures. Premièrement, la plupart des modèles proposés pour le français s'accordent sur l'existence de deux niveaux de structure prosodique: le syntagme accentuel et le syntagme intonatif. Deuxièmement, bien que l'existence d'un niveau additionnel de structure situé entre ces deux niveaux ait été proposé pour le français, les propriétés phonétiques et phonologiques de ce constituant n'ont pas clairement été définies. Dans cette thèse nous avons fourni des preuves de l'existence du syntagme intermédiaire (ip) à la fois en production et en perception de la parole. Grâce à cinq expérimentations menées dans le cadre de la phonologie de laboratoire, nous avons caractérisé les propriétés phonético-phonologiques de ce constituant et attesté de son rôle dans le traitement perceptif du langage. Les résultats obtenus en production montrent que l'ip est le domaine de l'abaissement des accents mélodiques en français. Sa frontière droite est marquée par un allongement pré-frontière ainsi qu'un accent de syntagme responsable du retour à la ligne de référence du registre. Les analyses menées en perception ont montré que les frontières droites du syntagme accentuel et du syntagme intermédiaire sont utilisées très tôt dans le processus de traitement syntaxique. Les indices phonétiques et phonologiques présents à ces frontières permettent aux auditeurs du français de construire des attentes sur la structure syntaxique des énoncés perçus. Une analyse séparée des différents types d'indices acoustiques a également montré qu'en l'absence de marquage tonal, les indices de durée semblent suffisants dans le but de marquer la frontière de syntagme accentuel. Un marquage conjoint de la frontière droite d'ip par les indices mélodiques et l'allongement pré-frontière semble au contraire nécessaire pour que les auditeurs du français perçoivent et utilisent cette frontière dans le traitement du langage.
43

Extraction de relations en domaine de spécialité

Minard, Anne-Lyse 07 December 2012 (has links) (PDF)
La quantité d'information disponible dans le domaine biomédical ne cesse d'augmenter. Pour que cette information soit facilement utilisable par les experts d'un domaine, il est nécessaire de l'extraire et de la structurer. Pour avoir des données structurées, il convient de détecter les relations existantes entre les entités dans les textes. Nos recherches se sont focalisées sur la question de l'extraction de relations complexes représentant des résultats expérimentaux, et sur la détection et la catégorisation de relations binaires entre des entités biomédicales. Nous nous sommes intéressée aux résultats expérimentaux présentés dans les articles scientifiques. Nous appelons résultat expérimental, un résultat quantitatif obtenu suite à une expérience et mis en relation avec les informations permettant de décrire cette expérience. Ces résultats sont importants pour les experts en biologie, par exemple pour faire de la modélisation. Dans le domaine de la physiologie rénale, une base de données a été créée pour centraliser ces résultats d'expérimentation, mais l'alimentation de la base est manuelle et de ce fait longue. Nous proposons une solution pour extraire automatiquement des articles scientifiques les connaissances pertinentes pour la base de données, c'est-à-dire des résultats expérimentaux que nous représentons par une relation n-aire. La méthode procède en deux étapes : extraction automatique des documents et proposition de celles-ci pour validation ou modification par l'expert via une interface. Nous avons également proposé une méthode à base d'apprentissage automatique pour l'extraction et la classification de relations binaires en domaine de spécialité. Nous nous sommes intéressée aux caractéristiques et variétés d'expressions des relations, et à la prise en compte de ces caractéristiques dans un système à base d'apprentissage. Nous avons étudié la prise en compte de la structure syntaxique de la phrase et la simplification de phrases dirigée pour la tâche d'extraction de relations. Nous avons en particulier développé une méthode de simplification à base d'apprentissage automatique, qui utilise en cascade plusieurs classifieurs.
44

Analyse syntaxique automatique du français écrit : applications à l'indexation automatique

Lallich-Boidin, Geneviève 08 October 1986 (has links) (PDF)
L'analyse syntaxique d'une langue naturelle consiste à définir une grammaire de cette langue, grammaire nécessairement ambiguë, à choisir un algorithme d'analyse non déterministe et à élaborer une stratégie d'analyse afin d'éviter la construction de structures syntaxiques parasites. Dans le cadre de ce travail, nous définissons une grammaire du syntagme nominal du français écrit. Nous étudions les analyseurs hors contexte et non déterministes de Cocke-Younger-Kosomi et d'Earley, et retenons ce dernier. Puis, au dessus de cet analyseur, nous élaborons une stratégie d'analyse qui, à partir des données linguistiques portées par le texte à analyser, permet de prédire localement la structure juste et qui limite de ce fait le nombre de solutions parasites. L'indexation automatique de documents à partir des syntagmes nominaux contenus dans leur résumé est une application de l'analyseur construit
45

Vers une analyse syntaxique à granularité variable

Vanrullen, Tristan 12 December 2005 (has links) (PDF)
Il est souhaitable qu'une analyse syntaxique -en traitement automatique des langues naturelles- soit réalisée avec plus ou moins de précision en fonction du contexte, c'est-à-dire que sa granularité soit réglable. Afin d'atteindre cet objectif, nous présentons ici des études préliminaires permettant d'appréhender les contextes technique et scientifique qui soulèvent ce problème. Nous établissons un cadre pour les développements à réaliser et pour leur évaluation. Nous choisissons un formalisme d'analyse par satisfaction de contraintes (celui des Grammaires de Propriétés) ayant l'avantage de permettre l'utilisation des mêmes ressources linguistiques avec un degré de précision réglable. Nous introduisons une reformulation mathématique du formalisme des Grammaires de Propriétés et nous définissons une mesure (la densité de satisfaction), qui permet de contrôler la granularité de l'analyse. Puis nous décrivons un ensemble d'outils modulaires (LPLSuite) et de ressources (lexique et sous-lexiques DicoLPL) développés pour permettre une analyse syntaxique et susceptibles d'être embarqués<br />dans des applications de haut niveau. Nous présentons et évaluons ensuite plusieurs analyseurs syntaxiques dans ce formalisme, le dernier (SeedParser) étant destiné à mettre en oeuvre une véritable analyse à granularité variable. L'évaluation de ces outils est l'objet d'une étude approfondie. Enn, nous présentons quelques applications développées à l'aide de nos outils.
46

Pour un modèle de l'explication pluraliste et mécaniste en psychiatrie

Goyer, Simon 05 1900 (has links) (PDF)
Dans ce mémoire, je présente et j'évalue trois modèles de l'explication en psychiatrie, à savoir (1) l'interprétation réductionniste que je fais des modèles déductif-nomologique (DN) et inductif-statistique (IS) de Carl Gustav Hempel (et Paul Oppenheim); (2) le modèle de l'explication réductionniste et mécaniste formulé par John Bickle et (3) le modèle de l'explication pluraliste et mécaniste développé par le psychiatre et chercheur Kenneth S. Kendler. Au premier chapitre, je présente la conception syntaxique des théories scientifiques. J'y présente, en outre, les modèles DN et IS qui s'inscrivent dans cette conception. J'y expose aussi mon interprétation réductionniste de ces modèles. Je termine ce chapitre par une présentation du modèle de la réduction interthéorique d'Ernest Nagel. Au deuxième chapitre, je présente une critique des modèles de la réduction interthéorique de Nagel et de Kenneth F. Schaffner. De plus, j'expose trois problèmes que rencontrent les modèles DN et IS. En montrant les failles de ces derniers, je conclus trois choses : (a) il n'est pas possible d'interpréter de manière réductive les modèles DN et IS; (b) ces modèles, même non interprétés de manière réductionniste, sont problématiques et, pour cela, inapplicables en psychiatrie; (c) la conception syntaxique des théories est un cadre inadéquat pour concevoir l'explication en médecine mentale. Dans le troisième chapitre, je présente la conception sémantique des théories scientifiques. Suivant cette conception, une théorie est une famille de modèles. On peut définir le terme « modèle » de plusieurs manières. Patrick Suppes, Bas C. Van Fraassen et Ronald N. Giere ont proposé une définition de ce terme. J'adopte celle de Giere. Puis, j'expose la notion de modèle mécaniste qui peut être subsumée sous la conception des modèles de ce dernier. Je montre qu'un modèle mécaniste est pertinent pour représenter l'explication d'un trouble de santé mentale. Je termine en rejetant le modèle mécaniste et réductionniste de Bickle et en défendant le modèle mécaniste et pluraliste de Kendler. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : philosophie des sciences, philosophie de la psychiatrie, explication, réduction, conception syntaxique des théories, conception sémantique des théories, modèle, causalité, psychiatrie, troubles de santé mentale, neurosciences.
47

L'approche sémantique offre-t-elle un meilleur modèle de l'explication scientifique que les théories qu'elle prétend supplanter ?

Germain, Pierre-Luc January 2009 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
48

Étude parémiologique comparée des proverbes français et des proverbes en dialecte libyen / Comparative paremiologic Study of French proverbs and Libyan dialect proverbs

Elmaamri, Sedigh 12 December 2013 (has links)
Les similitudes entre les proverbes français et les proverbes arabe libyens dialectaux » est une étude parémiologique comparée de l'antiquité à nos jours. Les interrogations qui sous-tendent cette étude touchent aux ressemblances et aux divergences proverbiales, leur origine, les aspects linguistiques, sociolinguistiques ou anthropologiques. Il s'agit en premier lieu d'une approche rhétorico-sémantique à partir d'analyse grammaticale et syntaxique faisant apparaitre les similitudes, les convergences, mais aussi les différences entre les proverbes relevant de la littérature populaire ou orale de deux cultures différentes.Cette étude a pour ambition de mettre en lumière l'interculturalité et l'universalité du proverbe, des échanges entre les langues d'airs culturelles et religieuses différentes / The similarities between the French proverbs and sayings Libyan Arab dialect" is a parémiologique comparative antiquity to the present study. The questions underlying this study relate to the similarities and differences proverbial, origin, language, socio-linguistic and anthropological aspects. It is primarily a rhetorical-semantic from syntactic parsing and making appear similarities, similarities, but also differences within the popular proverbs or oral literature of two different cultures approach.This study aims to highlight intercultural and universal proverb, exchanges between languages ​​of different cultural and religious tunes
49

Predicative Analysis for Information Extraction : application to the biology domain / Analyse prédicative pour l'extraction d'information : application au domaine de la biologie

Ratkovic, Zorana 11 December 2014 (has links)
L’abondance de textes dans le domaine biomédical nécessite le recours à des méthodes de traitement automatique pour améliorer la recherche d’informations précises. L’extraction d’information (EI) vise précisément à extraire de l’information pertinente à partir de données non-structurées. Une grande partie des méthodes dans ce domaine se concentre sur les approches d’apprentissage automatique, en ayant recours à des traitements linguistiques profonds. L’analyse syntaxique joue notamment un rôle important, en fournissant une analyse précise des relations entre les éléments de la phrase.Cette thèse étudie le rôle de l’analyse syntaxique en dépendances dans le cadre d’applications d’EI dans le domaine biomédical. Elle comprend l’évaluation de différents analyseurs ainsi qu’une analyse détaillée des erreurs. Une fois l’analyseur le plus adapté sélectionné, les différentes étapes de traitement linguistique pour atteindre une EI de haute qualité, fondée sur la syntaxe, sont abordés : ces traitements incluent des étapes de pré-traitement (segmentation en mots) et des traitements linguistiques de plus haut niveau (lié à la sémantique et à l’analyse de la coréférence). Cette thèse explore également la manière dont les différents niveaux de traitement linguistique peuvent être représentés puis exploités par l’algorithme d’apprentissage. Enfin, partant du constat que le domaine biomédical est en fait extrêmement diversifié, cette thèse explore l’adaptation des techniques à différents sous-domaines, en utilisant des connaissances et des ressources déjà existantes. Les méthodes et les approches décrites sont explorées en utilisant deux corpus biomédicaux différents, montrant comment les résultats d’IE sont utilisés dans des tâches concrètes. / The abundance of biomedical information expressed in natural language has resulted in the need for methods to process this information automatically. In the field of Natural Language Processing (NLP), Information Extraction (IE) focuses on the extraction of relevant information from unstructured data in natural language. A great deal of IE methods today focus on Machine Learning (ML) approaches that rely on deep linguistic processing in order to capture the complex information contained in biomedical texts. In particular, syntactic analysis and parsing have played an important role in IE, by helping capture how words in a sentence are related. This thesis examines how dependency parsing can be used to facilitate IE. It focuses on a task-based approach to dependency parsing evaluation and parser selection, including a detailed error analysis. In order to achieve a high quality of syntax-based IE, different stages of linguistic processing are addressed, including both pre-processing steps (such as tokenization) and the use of complementary linguistic processing (such as the use of semantics and coreference analysis). This thesis also explores how the different levels of linguistics processing can be represented for use within an ML-based IE algorithm, and how the interface between these two is of great importance. Finally, biomedical data is very heterogeneous, encompassing different subdomains and genres. This thesis explores how subdomain-adaptationcan be achieved by using already existing subdomain knowledge and resources. The methods and approaches described are explored using two different biomedical corpora, demonstrating how the IE results are used in real-life tasks.
50

Construction de ressources linguistiques arabes à l’aide du formalisme de grammaires de propriétés en intégrant des mécanismes de contrôle / Building arabic linguistic resources using the property grammar formalism by integrating control mechanisms

Bensalem, Raja 14 December 2017 (has links)
La construction de ressources linguistiques arabes riches en informations syntaxiques constitue un enjeu important pour le développement de nouveaux outils de traitement automatique. Cette thèse propose une approche pour la création d’un treebank de l’arabe intégrant des informations d’un type nouveau reposant sur le formalisme des Grammaires de Propriétés. Une propriété syntaxique caractérise une relation pouvant exister entre deux unités d’une certaine structure syntaxique. Cette grammaire est induite automatiquement à partir du treebank arabe ATB, ce qui constitue un enrichissement de cette ressource tout en conservant ses qualités. Cet enrichissement a été également appliqué aux résultats d’analyse d’un analyseur état de l’art du domaine, le Stanford Parser, offrant la possibilité d’une évaluation s’appuyant sur un ensemble de mesures obtenues à partir de cette ressource. Les étiquettes des unités de cette grammaire sont structurées selon une hiérarchie de types permettant la variation de leur degré de granularité, et par conséquent du degré de précision des informations. Nous avons pu ainsi construire, à l’aide de cette grammaire, d’autres ressources linguistiques arabes. En effet, sur la base de cette nouvelle ressource, nous avons développé un analyseur syntaxique probabiliste à base de propriétés syntaxiques, le premier appliqué pour l'arabe. Une grammaire de propriétés lexicalisée probabiliste fait partie de son modèle d’apprentissage pour pouvoir affecter positivement le résultat d’analyse et caractériser ses structures syntaxiques avec les propriétés de ce modèle. Nous avons enfin évalué les résultats obtenus en les comparant à celles du Stanford Parser. / The building of syntactically informative Arabic linguistic resources is a major issue for the development of new machine processing tools. We propose in this thesis to create an Arabic treebank that integrates a new type of information, which is based on the Property Grammar formalism. A syntactic property is a relation between two units of a given syntactic structure. This grammar is automatically induced from the Arabic treebank ATB. We enriched this resource with the property representations of this grammar, while retaining its qualities. We also applied this enrichment to the parsing results of a state-of-the-art analyzer, the Stanford Parser. This provides the possibility of an evaluation using a measure set, which is calculated on this resource. We structured the tags of the units in this grammar according to a type hierarchy. This permit to vary the granularity level of these units, and consequently the accuracy level of the information. We have thus been able to construct, using this grammar, other Arabic linguistic resources. Secondly, based on this new resource, we developed a probabilistic syntactic parser based on syntactic properties. This is the first analyzer of this type that we have applied to Arabic. In the learning model, we integrated a probabilistic lexicalized property grammar that may positively affect the parsing result and describe its syntactic structures with its properties. Finally, we evaluated the parsing results of this approach by comparing them to those of the Stanford Parser.

Page generated in 0.0482 seconds