• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 61
  • 20
  • 3
  • 1
  • 1
  • 1
  • Tagged with
  • 88
  • 24
  • 22
  • 22
  • 17
  • 16
  • 14
  • 13
  • 12
  • 12
  • 12
  • 11
  • 11
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Accès à l'information dans les grandes collections textuelles en langue arabe / Information access in large Arabic textual collections

El Mahdaouy, Abdelkader 16 December 2017 (has links)
Face à la quantité d'information textuelle disponible sur le web en langue arabe, le développement des Systèmes de Recherche d'Information (SRI) efficaces est devenu incontournable pour retrouver l'information pertinente. La plupart des SRIs actuels de la langue arabe reposent sur la représentation par sac de mots et l'indexation des documents et des requêtes est effectuée souvent par des mots bruts ou des racines. Ce qui conduit à plusieurs problèmes tels que l'ambigüité et la disparité des termes, etc.Dans ce travail de thèse, nous nous sommes intéressés à apporter des solutions aux problèmes d'ambigüité et de disparité des termes pour l'amélioration de la représentation des documents et le processus de l'appariement des documents et des requêtes. Nous apportons quatre contributions au niveau de processus de représentation, d'indexation et de recherche d'information en langue arabe. La première contribution consiste à représenter les documents à la fois par des termes simples et des termes complexes. Cela est justifié par le fait que les termes simples seuls et isolés de leur contexte sont ambigus et moins précis pour représenter le contenu des documents. Ainsi, nous avons proposé une méthode hybride pour l’extraction de termes complexes en langue arabe, en combinant des propriétés linguistiques et des modèles statistiques. Le filtre linguistique repose à la fois sur l'étiquetage morphosyntaxique et la prise en compte des variations pour sélectionner les termes candidats. Pour sectionner les termes candidats pertinents, nous avons introduit une mesure d'association permettant de combiner l'information contextuelle avec les degrés de spécificité et d'unité. La deuxième contribution consiste à explorer et évaluer les systèmes de recherche d’informations permettant de tenir compte de l’ensemble des éléments d’indexation (termes simples et complexes). Par conséquent, nous étudions plusieurs extensions des modèles existants de RI pour l'intégration des termes complexes. En outre, nous explorons une panoplie de modèles de proximité. Pour la prise en compte des dépendances de termes dans les modèles de RI, nous introduisons une condition caractérisant de tels modèle et leur validation théorique. La troisième contribution permet de pallier le problème de disparité des termes en proposant une méthode pour intégrer la similarité entre les termes dans les modèles de RI en s'appuyant sur les représentations distribuées des mots (RDMs). L'idée sous-jacente consiste à permettre aux termes similaires à ceux de la requête de contribuer aux scores des documents. Les extensions des modèles de RI proposées dans le cadre de cette méthode sont validées en utilisant les contraintes heuristiques d'appariement sémantique. La dernière contribution concerne l'amélioration des modèles de rétro-pertinence (Pseudo Relevance Feedback PRF). Étant basée également sur les RDM, notre méthode permet d'intégrer la similarité entre les termes d'expansions et ceux de la requête dans les modèles standards PRF. La validation expérimentale de l'ensemble des contributions apportées dans le cadre de cette thèse est effectuée en utilisant la collection standard TREC 2002/2001 de la langue arabe. / Given the amount of Arabic textual information available on the web, developing effective Information Retrieval Systems (IRS) has become essential to retrieve relevant information. Most of the current Arabic SRIs are based on the bag-of-words representation, where documents are indexed using surface words, roots or stems. Two main drawbacks of the latter representation are the ambiguity of Single Word Terms (SWTs) and term mismatch.The aim of this work is to deal with SWTs ambiguity and term mismatch. Accordingly, we propose four contributions to improve Arabic content representation, indexing, and retrieval. The first contribution consists of representing Arabic documents using Multi-Word Terms (MWTs). The latter is motivated by the fact that MWTs are more precise representational units and less ambiguous than isolated SWTs. Hence, we propose a hybrid method to extract Arabic MWTs, which combines linguistic and statistical filtering of MWT candidates. The linguistic filter uses POS tagging to identify MWTs candidates that fit a set of syntactic patterns and handles the problem of MWTs variation. Then, the statistical filter rank MWT candidate using our proposed association measure that combines contextual information and both termhood and unithood measures. In the second contribution, we explore and evaluate several IR models for ranking documents using both SWTs and MWTs. Additionally, we investigate a wide range of proximity-based IR models for Arabic IR. Then, we introduce a formal condition that IR models should satisfy to deal adequately with term dependencies. The third contribution consists of a method based on Distributed Representation of Word vectors, namely Word Embedding (WE), for Arabic IR. It relies on incorporating WE semantic similarities into existing probabilistic IR models in order to deal with term mismatch. The aim is to allow distinct, but semantically similar terms to contribute to documents scores. The last contribution is a method to incorporate WE similarity into Pseud-Relevance Feedback PRF for Arabic Information Retrieval. The main idea is to select expansion terms using their distribution in the set of top pseudo-relevant documents along with their similarity to the original query terms. The experimental validation of all the proposed contributions is performed using standard Arabic TREC 2002/2001 collection.
22

Le rôle et la place de l'anglais de spécialité dans les petites annonces pour l'emploi en milieu scientifique / The role and the place of English for specific purposes in scientific job advertisements

Sosin, George 13 February 2015 (has links)
Cette étude en anglais de spécialité s’inscrit dans le domaine de la terminologie du discours des annonces pour l’emploi en milieu scientifique, domaine encore inexploré d’un point de vue linguistique. Le discours des annonces pour l’emploi est la somme de plusieurs discours, notamment discours des ressources humaines, discours publicitaire, discours qu’on peut appeler « touristique » et discours scientifique. Puisque le but primordial de l’annonce est de faire la publicité de l’entreprise ou du laboratoire de recherche, le discours scientifique y est réduit au minimum car il s’avère que ce discours ne peut se plier à la finalité et aux contraintes des annonceurs. Après une analyse des vocables des ressources humaines, un travail a été entrepris sur les domaines scientifiques concernés et une nouvelle terminologie a été proposée, articulée notamment autour de hyperdomaines, domaines et sous-domaines scientifiques. L’analyse des vocables scientifiques suggère une distinction nécessaire entre les vocables scientifiques et les termes spécialisés. Enfin, le travail se clôt par un examen des moyens linguistiques et graphiques mis en œuvre dans le discours publicitaire. / This dissertation focuses on English for Specific Purposes and more particularly on the terminology of scientific job advertisements discourse, an area still in pristine condition from a linguistic point of view. Job advertisements discourse is the sum of various discourses, i.e. human resources, advertising as well as a discourse which may be termed as "tourist" discourse and scientific discourse. Since the main purpose of advertisements is to advertise the company or the research laboratory, science discourse is minimized because it appears that this particular discourse fails to comply with the announcers’ ultimate aim. Once an analysis of human resources terms was done, a study was undertaken on scientific fields and a new terminology has been suggested, namely that of scientific hyperfields, fields and sub-fields. The analysis of scientific terms calls for a necessary distinction that has to be made between scientific terms and specialized terms. At last, the dissertation undertakes an analysis of linguistic and graphic means used in the advertising discourse.
23

Traduire la prose de l'OTAN : Une étude sur les stratégies de traduction de termes spécialisés relatifs aux relations internationales / Translating NATO's prose : A study on applied strategies when translating specialised terms in the context of international relations

Persson, Elin January 2016 (has links)
International relations as well as multilingual organisations and institutions rely upon translation. In this particular field, translators are mostly concerned with different types of specialised documents, such as legal acts, technical reports and press statements. Due to the high precision and clarity requirements that are associated with these texts, terminology appears to be one of the most difficult aspects when it comes to translating specialised documents. This difficulty is the main focus of this study. More specifically, the aim is to describe and analyse how equivalents of specialised terms in the source language can be found in the target language and to study translation strategies that can be applied when translating international relations terminology. In order to obtain the primary data used in the study, NATO’s new strategic concept from 2010 was translated from French to Swedish. The concept is supposed to guide the organisation during a ten-year period. Throughout the translation process both lexical and textual sources were used. The analysis was made in the light of different translation theories and models, which include Vinay and Darbelnet’s (1977) “direct” and “indirect” translation techniques, as well as Cabré’s (1992) theories and methods on terminology. The results show the complexity of the subject, and most importantly, that parallel texts, that is to say specialised documentation, can play an important role when it comes to translating specialised terms, since many of them are not to be found in ordinary dictionaries.
24

Conception d'un langage dédié à l'analyse et la transformation de programmes

Balland, Emilie 11 March 2009 (has links) (PDF)
Développer des analyseurs statiques nécessite une manipulation intensive de structures d'arbres et de graphes représentant le programme. La finalité de cette thèse est de proposer des constructions de langage dédiées au prototypage d'outils d'analyse et de transformation de programmes et inspirées de la réécriture de termes et de termes-graphes. L'originalité de notre approche est d'embarquer ces nouvelles constructions dans les langages généralistes sous la forme d'un langage dédié embarqué. Les travaux de cette thèse se fondent sur le langage Tom qui propose d'embarquer des constructions de réécriture dans des langages généralistes comme Java. La première contribution de cette thèse a été de formaliser les langages embarqués sous le concept de langage îlot. Ce formalisme a ainsi permis de certifier la compilation du langage Tom. Nos travaux sur l'analyse de Bytecode nous ont ensuite conduit à réfléchir à la représentation et la manipulation de graphes de flot de programmes et nous avons alors proposé des constructions de langage inspirées de la réécriture de termes-graphes. Une autre contribution de cette thèse est la conception d'un langage de stratégies adapté à l'expression de propriétés sur un programme. Associé au filtrage, ce langage permet d'exprimer de manière déclarative des analyses et des transformations sur des arbres ou des graphes. Enfin, l'ensemble des propositions de cette thèse a été intégré au langage Tom sous la forme de nouvelles constructions syntaxiques ou d'améliorations de constructions existantes et a ainsi pu être appliqué à l'analyse du langage Java.
25

Gestion et interrogation d'une base de données communales sur micro ordinateur

Jauneau, Agnès 29 June 1983 (has links) (PDF)
.
26

Déduction et Unification dans les Théories Permutatives

Echenim, Mnacho 02 December 2005 (has links) (PDF)
Il existe de nombreux démonstrateurs automatiques qui effectuent des raisonnements modulo une théorie équationnelle, c'est-à-dire enconsidérant non pas des termes, mais des classes d'équivalence de termes. En général, les travaux accomplis dans ce domaine ont pour but de concevoir des techniques pour faire de la déduction modulo une théorie particulière. Dans [Avenhaus & Plaisted, 2001], Jürgen Avenhaus et David Plaisted ont cherché à déterminer des techniques qui pourraient être employées dans le traitement non plus d'une théorie particulière, mais de toute une classe de théories équationnelles: les théories permutatives. Les auteurs ont introduit les notions de terme stratifié et d'ensemble stratifié, et décrit les procédures qui devraient être implémentées dans un démonstrateur automatique basé sur ces termes stratifiés. Les propriétés de régularité de ces théories font qu'il est possible d'employer des techniques efficaces de théorie algorithmique des groupes pour les traiter. Les auteurs espéraient que l'efficacité de ces techniques contrebalancerait le nombre élevé de clauses qui pourraient être générées dans un démonstrateur automatique basé sur ces termes stratifiés. Cependant, les algorithmes proposés pour faire de la déduction avec des termes stratifiés sont basés sur une énumération explicite des éléments des groupes, et sont donc exponentiels. Dans ce mémoire, nous développons les travaux d'Avenhaus et Plaisted, et modifions leur formalisme pour pouvoir faire l'usage le plus intensif possible des techniques de théorie algorithmique des groupes.
27

Nouvelles techniques pour la construction de modèles finis ou infinis en déduction automatique

Peltier, Nicolas 10 October 1997 (has links) (PDF)
Nous étudions des méthodes de recherche simultanée de refutation et de modèle. Nous proposons une méthode pour la construction de modèles finis réduisant de façon importante l'espace de recherche des approches existantes. Nous nous intéressons ensuite à la recherche de modèles infinis. Nous étendons les méthodes RAMC (Refutation And Model Construction) et RAMCET (Refutation And Model Construction with Equational Tableaux) définie par R. Caferra et N. Zabel en introduisant de nouvelles règles et stratégies. Ces extensions augmentent strictement les capacités de la méthode, à la fois pour la recherche de preuve et de contre-exemple. Nous montrons que les méthodes proposées sont des procédures de décision uniforme pour une large clase de formules logiques. Ensuite, nous proposons et étudions de nouveaux formalismes pour représenter les modèles: les termes avec exposants entiers et les automates d'arbres. Nous prouvons la décidabilité de la théorie du premier ordre sur les termes avec exposants. Nous proposons également une nouvelle approche pour la découverte et l'utilisation de l'analogie en recherche simultanée de preuve et de contre-exemple et nous montrons comment utiliser la méthode RAMC en Programmation Logique (pour étendre les capacités des interpréteurs, détecter, voire corriger des erreurs dans les programmes etc.). Enfin, nous décrivons le système RAMC-ATINF implémentant certaines des idées proposées et nous donnons quelques résultats expérimentaux.
28

Réécriture de requêtes en termes de vues en présence de contraintes de valeurs pour un système d'intégration de sources de données agricoles

Jaudoin, Hélène 29 November 2005 (has links) (PDF)
Cette thèse traite le problème de la réécriture de requêtes en termes de vues en présence de contraintes de valeurs. Les contraintes de valeurs permettent de restreindre le domaine de valeur d'un attribut donné. Elles connaissent un regain d'intérêt depuis leur utilisation dans le cadre du langage d'ontologie du web OWL. Ce travail est motivé par une application réelle qui vise à permettre l'intégration flexible d'un grand nombre de sources de données agricoles. L'étude de la décidabilité de ce problème est basée sur le cadre des logiques de description. Ce travail montre également que le problème de calculer les réécritures engendrées par les contraintes de valeurs se rattache au cadre de découverte des connaissances dans les bases de données introduit par Mannila and Toivonen. Ceci nous permet d'adpter des algorithmes exustants et efficaces pour calculer ces réécritures et proposer un prototype de réécriture qui passe à l'echelle.
29

Traitement Automatique des Langues et Recherche d'Information en langue arabe dans un domaine de spécialité : Apport des connaissances morphologiques et syntaxiques pour l'indexation

Boulaknadel, Siham 18 October 2008 (has links) (PDF)
La Recherche d'Information a pour objectif de fournir à un utilisateur un accès facile à l'information qui l'intéresse, cette information étant située dans une masse de documents textuels. Afin d'atteindre cet objectif, un système de recherche d'information doit représenter, stocker et organiser l'information, puis fournir à l'utilisateur les éléments correspondant au besoin d'information exprimé par sa requête. La plupart des systèmes de recherche d'information (SRI) utilisent des termes simples pour indexer et retrouver des documents. Cependant, cette représentation n'est pas assez précise pour représenter le contenu des documents et des requêtes, du fait de l'ambiguïté des termes isolés de leur contexte. Une solution à ce problème consiste à utiliser des termes complexes à la place de termes simples isolés. Cette approche se fonde sur l'hypothèse qu'un terme complexe est moins ambigu qu'un terme simple isolé. Notre thèse s'inscrit dans le cadre de la recherche d'information dans un domaine de spécialité en langue arabe. L'objectif de notre travail a été d'une part, d'identifier les termes complexes présents dans les requêtes et les documents. D'autre part, d'exploiter pleinement la richesse de la langue en combinant plusieurs connaissances linguistiques appartenant aux niveaux morphologique et syntaxique, et de montrer comment l'apport de connaissances morphologiques et syntaxiques permet d'améliorer l'accès à l'information. Ainsi, nous avons proposé une plate-forme intégrant divers composants dans le domaine public ; elle conduit à montrer l'apport significatif et tranché de plusieurs de ces composants. En outre, nous avons avons défini linguistiquement les termes complexes en langue arabe et nous avons développé un système d'identification de termes complexes sur corpus qui produit des résultats de bonne qualité en terme de précision, en s'appuyant sur une approche mixte qui combine modèle statistique et données linguistiques.
30

Couleur, culture et cognition : examen épistémologique de la théorie des termes basiques

Jraissati, Yasmine 11 November 2009 (has links) (PDF)
La catégorisation de la couleur, à l'interface entre lexique et perception, est un champ de recherche d'élection pour les théories qui soutiennent la dépendence/ indépendance du langage et des concepts. Le débat concernant l'interaction entre culture et cognition dans la catégorisation de la couleur oppose traditionnellement les perspectives dites ‘relativistes' et ‘universalistes', respectivement représentées par l'hypothèse Sapir-Whorf et la Théorie des termes basiques (TTB). Dans la perspective relativiste, on soutient que le langage détermine la perception et que la catégorisation des couleurs dépend du langage. Elle est donc arbitraire. Dans la perspective universaliste, on soutient qu'il y a un nombre déterminé de catégories basiques de couleur (11), communes à toutes les langues. De plus, ces catégories émergent dans le lexique suivant une séquence évolutionnaire partiellement contrainte (blanc, noir, rouge, jaune, vert, bleu, marron, rose, orange, gris, violet). En résultat, les défenseurs de la TTB soutiennent que les catégories de couleur ne sont pas déterminées par la langue et la culture de façon arbitraire. Au contraire, la perception détermine la catégorisation et la sémantique des couleurs. Aujourd'hui cependant, ces différents points de vue semblent converger, bien que la littérature considère généralement séparément la détermination du lexique ou la détermination perceptuelle. L'objectif de cette thèse est de dépasser le débat traditionnel et contraignant opposant les relativistes aux universalistes, et de contribuer à la littérature en tentant de poser les bases d'une approche de la catégorisation de la couleur à l'interface entre langage, perception et contexte. La TTB s'étant établie comme un paradigme de recherche et une théorie de référence concernant la catégorisation de la couleur et le rapport entre culture et cognition, elle sert de point de départ et de cadre théorique pour cette thèse. Dans l'établissement de son argument universaliste, la TTB se sert de plusieurs notions et concepts, dont deux sont clés : les notions de ‘terme basique de couleur' et de détermination perceptuelle'. Pour cette raison, après avoir passé en revue la TTB et son évolution entre 1969 et 2006 dans le chapitre 1, je me consacre à la notion de ‘termes basiques' dans le chapitre 2, et à celle de la détermination perceptuelle dans le chapitre 3. Plus précisément, le chapitre 2 reprend les 8 critères avancés par la TTB pour identifier les termes basiques d'un lexique. Je soutiens que cette définition opérationnelle des ‘termes basiques de couleur' ne peut pas être appliquée de façon cohérente et systématique, comme l'illustrent plusieurs cas de la littérature. Je propose le critère alternatif de ‘référence consensuelle' selon lequel sont basiques, ou cognitivement significatifs, les termes de couleur qui sont employés à travers une communauté linguistique en référence aux mêmes échantillons de couleur. Dans la mesure où la stabilité référentielle est graduelle, la ‘basicité' est donc, elle aussi, une notion graduelle. Les termes de couleur sont plus ou moins basiques ou cognitivement significatifs. A part son avantage expérimental, cette approche des termes basiques a aussi un avantage théorique, dans la mesure où elle permet conceptuellement, une considération du rôle du contexte dans la catégorisation. L'idée sous-tendant cette approche des termes basiques est la suivante : plus un terme de couleur est utilisé, plus il se stabilise, plus il est basique. Le chapitre 3 se concentre sur la nature de la détermination perceptuelle mise en avant par la TTB pour rendre compte de la régularité observée dans la catégorisation. Je soutiens dans cette partie de la thèse que la TTB a hérité d'une approche traditionnelle ‘fondationnelle' de la cognition de la couleur, incompatible avec certains de ses aspects. La TTB doit abandonner son fondationnalisme afin de pouvoir répondre aux défis auxquels elle est aujourd'hui confrontée. Sont ‘fondationnelles' toutes les approches de la cognition de la couleur qui reposent sur un petit nombre de couleurs fondamentales généralement dites ‘primaires'. Ces couleurs ‘primaires' sont considérées nécessaires dans un sens sémantique, épistémique, perceptif ou métaphysique. De plus, j'argue que dans sa dernière tentative d'explication de la régularité de la catégorisation, la TTB pourrait bien être en train d'indiquer la voie vers une approche non fondationnelle de la cognition de la couleur. En effet, dans mon interprétation de cette dernière tentative, la cognition de la couleur repose sur une notion relative de saillance perceptuelle. C'est-à-dire : a) La saillance perceptuelle est relative au positionnement des couleurs dans un espace perceptif irrégulier ; b) La catégorisation étant considérée comme ‘optimale', la saillance perceptuelle est relative au nombre existant de catégories basiques dans un lexique donné. Dans cette optique, et contrairement à ce que suggèrent les défenseurs de la TTB, ce dernier développement de la théorie n'est pas en continuité avec l'approche de la catégorisation par les couleurs focales, soutenue pendant des décennies. Les couleurs focales sont prises pour être fondées sur les couleurs pures, qui, en raison de leur qualité inhérente de ‘pureté', opèrent comme des points de repère absolus dans notre espace perceptif, alors que la saillance perceptuelle est nécessairement relative. En me basant sur cette analyse des termes de couleur ‘basiques', ou cognitivement significatifs, ainsi que sur la nature de la détermination perceptuelle, je suggère enfin dans le chapitre 4, une hypothèse sur la façon dont pourraient interagir contexte, lexique et perception dans la catégorisation de la couleur. Ma suggestion s'appuie sur deux études expérimentales. La première est une tâche de tri contraint qui a pour but de tester l'hypothèse soutenue par la TTB selon laquelle des mécanismes perceptifs et cognitifs universels déterminent la catégorisation. La deuxième expérience est une étude du lexique des bilingues libanais, qui se caractérise par l'instabilité de la région dite ‘violet' en français. Cette instabilité de la région ‘violet' ne peut être expliquée sur la base exclusive de facteurs perceptifs ou lexicaux et contextuels, et constitue un argument en faveur de notre approche de la catégorisation à l'interface entre contexte, lexique et perception.

Page generated in 0.5861 seconds