• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 32
  • 5
  • 4
  • Tagged with
  • 41
  • 22
  • 14
  • 12
  • 10
  • 10
  • 9
  • 9
  • 9
  • 8
  • 8
  • 8
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Amélioration des systèmes de traduction par analyse linguistique et thématique : application à la traduction depuis l'arabe / Improvements for Machine Translation Systems Using Linguistic and Thematic Analysis : an Application to the Translation from Arabic

Gahbiche-Braham, Souhir 30 September 2013 (has links)
La traduction automatique des documents est considérée comme l’une des tâches les plus difficiles en traitement automatique des langues et de la parole. Les particularités linguistiques de certaines langues, comme la langue arabe, rendent la tâche de traduction automatique plus difficile. Notre objectif dans cette thèse est d'améliorer les systèmes de traduction de l'arabe vers le français et vers l'anglais. Nous proposons donc une étude détaillée sur ces systèmes. Les principales recherches portent à la fois sur la construction de corpus parallèles, le prétraitement de l'arabe et sur l'adaptation des modèles de traduction et de langue.Tout d'abord, un corpus comparable journalistique a été exploré pour en extraire automatiquement un corpus parallèle. Ensuite, différentes approches d’adaptation du modèle de traduction sont exploitées, soit en utilisant le corpus parallèle extrait automatiquement soit en utilisant un corpus parallèle construit automatiquement.Nous démontrons que l'adaptation des données du système de traduction permet d'améliorer la traduction. Un texte en arabe doit être prétraité avant de le traduire et ceci à cause du caractère agglutinatif de la langue arabe. Nous présentons notre outil de segmentation de l'arabe, SAPA (Segmentor and Part-of-speech tagger for Arabic), indépendant de toute ressource externe et permettant de réduire les temps de calcul. Cet outil permet de prédire simultanément l’étiquette morpho-syntaxique ainsi que les proclitiques (conjonctions, prépositions, etc.) pour chaque mot, ensuite de séparer les proclitiques du lemme (ou mot de base). Nous décrivons également dans cette thèse notre outil de détection des entités nommées, NERAr (Named Entity Recognition for Arabic), et nous examions l'impact de l'intégration de la détection des entités nommées dans la tâche de prétraitement et la pré-traduction de ces entités nommées en utilisant des dictionnaires bilingues. Nous présentons par la suite plusieurs méthodes pour l'adaptation thématique des modèles de traduction et de langue expérimentées sur une application réelle contenant un corpus constitué d’un ensemble de phrases multicatégoriques.Ces expériences ouvrent des perspectives importantes de recherche comme par exemple la combinaison de plusieurs systèmes lors de la traduction pour l'adaptation thématique. Il serait également intéressant d'effectuer une adaptation temporelle des modèles de traduction et de langue. Finalement, les systèmes de traduction améliorés arabe-français et arabe-anglais sont intégrés dans une plateforme d'analyse multimédia et montrent une amélioration des performances par rapport aux systèmes de traduction de base. / Machine Translation is one of the most difficult tasks in natural language and speech processing. The linguistic peculiarities of some languages makes the machine translation task more difficult. In this thesis, we present a detailed study of machine translation systems from arabic to french and to english.Our principle researches carry on building parallel corpora, arabic preprocessing and adapting translation and language models. We propose a method for automatic extraction of parallel news corpora from a comparable corpora. Two approaches for translation model adaptation are explored using whether parallel corpora extracted automatically or parallel corpora constructed automatically. We demonstrate that adapting data used to build machine translation system improves translation.Arabic texts have to be preprocessed before machine translation and this because of the agglutinative character of arabic language. A prepocessing tool for arabic, SAPA (Segmentor and Part-of-speech tagger for Arabic), much faster than the state of the art tools and totally independant of any other external resource was developed. This tool predicts simultaneously morphosyntactic tags and proclitics (conjunctions, prepositions, etc.) for every word, then splits off words into lemma and proclitics.We describe also in this thesis, our named entity recognition tool for arabic, NERAr, and we focus on the impact of integrating named entity recognition in the preprocessing task. We used bilingual dictionaries to propose translations of the detected named entities. We present then many approaches to adapt thematically translation and language models using a corpora consists of a set of multicategoric sentences.These experiments open important research perspectives such as combining many systems when translating. It would be interesting also to focus on a temporal adaptation of translation and language models.Finally, improved machine translation systems from arabic to french and english are integrated in a multimedia platform analysis and shows improvements compared to basic machine translation systems.
22

Modélisation électromagnétique in virtuo. Application aux problèmes de propagation en milieux complexes pour les systèmes de télécommunication

Chenu, Sylvain 11 January 2011 (has links) (PDF)
Actuellement, la plupart des simulateurs électromagnétiques se basent sur une résolution des équations aux dérivées partielles. Ces simulateurs ont jusqu'à présent bénéficié d'une augmentation de la puissance informatique compensant les exigences de calcul nécessitées par la croissance de la complexité et de la dimension des objets à modéliser. Cependant la taille des problèmes cruciaux augmente beaucoup plus rapidement que la puissance informatique. Malgré les apports faits pour simplifier les calculs électromagnétiques, la difficulté à tenir compte de tels problèmes complexes nécessite un saut méthodologique important. La méthode dite " énactive ", proposée dans ces travaux, constitue une approche atypique pour la modélisation dynamique d'un environnement naturel et sa simulation en un système de réalité virtuelle. Issue de la modélisation des systèmes multi-agents, elle propose une méthode spécifique pour la modélisation de tels systèmes complexes où de nombreux phénomènes interagissent de nombreuses façons, à des échelles de temps et d'espace pouvant être très différentes. Nous cherchons à suivre l'évolution d'une onde électromagnétique et ses interactions éventuelles avec des objets d'un environnement in virtuo, i.e. à travers un laboratoire virtuel (virtuoscope). Dans ce contexte, cette thèse s'inscrit dans un cadre interdisciplinaire qui allie les outils et les techniques de la réalité virtuelle à la modélisation de phénomènes électromagnétiques. En outre, les phénomènes sont modélisés en tant qu'entités autonomes en interaction. Notre modèle doit donc reposer sur une définition rigoureuse des entités, à savoir les ondes et les milieux, et des interactions qui peuvent avoir lieu afin de reconstituer correctement l'ensemble des phénomènes électromagnétiques " réels " au sein d'un environnement virtuel. Aussi, nous n'avons pas de moyens nous permettant de vérifier ni de valider autrement que par l'expérimentation notre modèle. En ce sens, nous faisons l'enjeu et le pari de parvenir à construire un tel système énactique électromagnétique. Pour cela, nous avons mis au point un ensemble de scénarios d'environnements électromagnétiques, suite au développement de deux modèles de propagation, l'un unidimensionnel et l'autre bidimensionnel. Les résultats seront comparés à des méthodes plus classiques appropriées voire à la théorie lorsque c'est possible.
23

Intégration de la programmation basée entités pour la fabrication sur machines à commandes numériques dans un contexte multi-process

Laguionie, Raphael 17 November 2010 (has links) (PDF)
Les travaux présentés portent sur l'intégration de la programmation basée entités des machines-outils à commande numérique (MOCN). Cette programmation émergente s'appuie sur les concepts véhiculés par le standard STEP-NC et la norme ISO 14649. Quatre axes de recherche sont proposés. Le premier concerne l'évolution de la programmation actuelle vers la programmation basée entités et l'enrichissement du standard STEP-NC. Pour ceci, nous proposons deux contributions principales au standard STEP-NC dans le cadre de notre participation au comité normatif de l'ISO 14649 : l'intégration de stratégies d'usinage à motifs avec pour application l'usinage trochoïdal et le tréflage, et l'élaboration d'un modèle fonctionnel STEP-NC des MOCN. Le deuxième axe se focalise sur l'évolution du système de fabrication pour tirer profit de la programmation basée entités. Nous proposons un concept de système étendu de fabrication intégrée XMIS (eXtended Manufacturing Integrated System) ainsi qu'une déclinaison concrète à travers la CAO étendue et la CN étendue. Au cours du troisième axe, nous étendons l'étude à l''intégration de plusieurs procédés au sein d'une même gamme de fabrication STEP-NC et étudions l'organisation des outils de simulation dans ce contexte multi-process avec la description d'espaces de simulation. Le quatrième axe porte sur la validation et la mise en œuvre des concepts proposés avec le développement de la plate-forme SPAIM (STEP-NC Platform for Advanced and Intelligent Manufacturing) qui intégre la programmation basée entités du modèle à la pièce usinée sur des moyens industriels et montre l'impact multidirectionnel des modifications tout au long de la chaîne numérique.
24

Un logiciel de stockage, de traitement et de visualisation graphique et cartographique des données géologiques et géotechniques

Damak, Mohamed 29 June 1990 (has links) (PDF)
Cette thèse présente un travail de spécification, de conception et de réalisation partielle d'un logiciel de stockage, de traitement et de visualisation graphique et cartographique des données géologiques et géotechniques. Nous avons accordé dans cette étude autant d'importance aux méthodes d'analyse et de conception qu'à la réalisation du système. En effet, nous avons établi la spécification en utilisant la métbode SA.D.T. (System Analysis Data Thecnic) qui nous a permis de constituer un dossier d'analyse de fonctionnalités du système. Par ailleurs, l'application du modèle entité-association nous a conduit à la définition des entités correspondant aux données géologiques ainsi que les relations entre ces entités. La conception du système a été basée sur la méthode orientée objet ce qui permet plus d'adaptabilité et de portabilité. La priorité a été donnée à la réalisation d'un sous*logiciel de modélisation géométrique des données et de leur visualisation tridimensionnelle. La modélisation a été basée sur un choix adéquat des structures de données. Une étude des algorithmes de triangulation et d'élimination des parties cachées a été réalisée, les algorithmes choisis ont été améliorés et adaptés à l'application présente.
25

Identification automatique d'entités pour l'enrichissement de contenus textuels

Stern, Rosa 28 June 2013 (has links) (PDF)
Cette thèse propose une méthode et un système d'identification d'entités (personnes, lieux, organisations) mentionnées au sein des contenus textuels produits par l'Agence France Presse dans la perspective de l'enrichissement automatique de ces contenus. Les différents domaines concernés par cette tâche ainsi que par l'objectif poursuivi par les acteurs de la publication numérique de contenus textuels sont abordés et mis en relation : Web Sémantique, Extraction d'Information et en particulier Reconnaissance d'Entités Nommées (\ren), Annotation Sémantique, Liage d'Entités. À l'issue de cette étude, le besoin industriel formulé par l'Agence France Presse fait l'objet des spécifications utiles au développement d'une réponse reposant sur des outils de Traitement Automatique du Langage. L'approche adoptée pour l'identification des entités visées est ensuite décrite : nous proposons la conception d'un système prenant en charge l'étape de \ren à l'aide de n'importe quel module existant, dont les résultats, éventuellement combinés à ceux d'autres modules, sont évalués par un module de Liage capable à la fois (i) d'aligner une mention donnée sur l'entité qu'elle dénote parmi un inventaire constitué au préalable, (ii) de repérer une dénotation ne présentant pas d'alignement dans cet inventaire et (iii) de remettre en cause la lecture dénotationnelle d'une mention (repérage des faux positifs). Le système \nomos est développé à cette fin pour le traitement de données en français. Sa conception donne également lieu à la construction et à l'utilisation de ressources ancrées dans le réseau des \ld ainsi que d'une base de connaissances riche sur les entités concernées.
26

Créer un corpus annoté en entités nommées avec Wikipédia et WikiData : de mauvais résultats et du potentiel

Pagès, Lucas 04 1900 (has links)
Ce mémoire explore l'utilisation conjointe de WikiData et de Wikipédia pour créer une ressource d'entités nommées (NER) annotée : DataNER. Il fait suite aux travaux ayant utilisé les bases de connaissance Freebase et DBpedia et tente de les remplacer avec WikiData, une base de connaissances collaborative dont la croissance continue est garantie par une communauté active. Malheureusement, les résultats du processus proposé dans ce mémoire ne sont pas à la hauteur des attentes initiales. Ce document décrit dans un premier temps la façon dont on construit DataNER. L'utilisation des ancres de Wikipédia permet d'identifier un grand nombre d'entités nommées dans la ressource et le programme NECKAr permet de les classifier parmi les classes LOC, PER, ORG et MISC en utilisant WikiData. On décrit de ce fait les détails de ce processus, dont la façon dont on utilise les données de Wikipédia et WikiData afin de produire de nouvelles entités nommées et comment calibrer les paramètres du processus de création de DataNER. Dans un second temps, on compare DataNER à d'autres ressources similaires en utilisant des modèles de NER ainsi qu'avec des comparaisons manuelles. Ces comparaisons nous permettent de mettre en valeur différentes raisons pour lesquelles les données de DataNER ne sont pas d'aussi bonne qualité que celles de ces autres ressources. On conclut de ce fait sur des pistes d'améliorations de DataNER ainsi que sur un commentaire sur le travail effectué, tout en insistant sur le potentiel de cette méthode de création de corpus. / This master's thesis explores the joint use of WikiData and Wikipedia to make an annotated named entities (NER) corpus : DataNER. It follows papers which have used the knowledge bases DBpedia and Freebase and attempts at replacing them with WikiData, a collaborative knowledge base with an active community guaranteeing its continuous growth. Unfortunately, the results of the process described in this thesis did not reach our initial expectations. This document first describes the way in which we build DataNER. The use of Wikipedia anchors enable us to identify a significant quantity of named entities in the resource and the NECKAr toolkit labels them with classes LOC, PER, ORG and MISC using WikiData. Thus, we describe the details of the corpus making process, including the way in which we infer more named entities thanks to Wikipedia and WikiData, as well as how we calibrate the making of DataNER with all the information at our availability. Secondly, we compare DataNER with other similar corpora using models trained on each of them, as well as manual comparisons. Those comparisons enable us to identify different reasons why the quality of DataNER does not match the one of those other corpora. We conclude by giving ideas as to how to enhance the quality of DataNER, giving a more personal comment of the work that has been accomplished and insisting on the potential of using Wikipedia and WikiData to automatically create a corpus.
27

L'émergence des intérêts halieutiques des États et entités étatiques non arctiques en océan Arctique : défis et regards en droit international

Benaissa, Monim 30 October 2023 (has links)
La situation de l'océan Arctique a progressivement évolué entre le XXe et le XXIe siècle. D'une zone géostratégique et de tensions entre les deux blocs Est et Ouest, en passant par une période de détente et de calme après la dislocation de l'ex-URSS, cette région s'est formidablement transformée en un eldorado d'opportunités économiques qui attire l'attention des États de la région et d'ailleurs. À la suite de la guerre froide, on peut souligner le développement au sein du milieu académique d'une vision de l'Arctique en tant que région distincte dotée d'un programme politique propre. Cette conception a joué un rôle de premier plan dans l'élaboration d'initiatives, notamment par le lancement de la Stratégie de protection de l'environnement de l'Arctique (AEPS) en 1991 et la création du Conseil de l'Arctique en 1996. De toute évidence, il existe plusieurs enjeux en Arctique, mais dans le cadre de cette thèse nous nous concentrons sur le domaine halieutique, notamment sur son aspect juridique. Sans doute, la pêche devient de plus en plus importante en océan Arctique, en raison notamment de la migration massive des poissons vers les deux pôles liés au changement climatique. Conséquemment, outre les États dits « arctiques traditionnels », les États non arctiques et certaines entités étatiques (l'Union européenne) dévoilent désormais leur volonté de s'impliquer davantage dans l'exploitation des ressources naturelles de cet océan, de sa richesse halieutique entre autres. De surcroît, la montée en puissance de plusieurs nouveaux acteurs dans les relations internationales, incluant la Chine et l'Inde, et l'épanouissement de l'Union européenne comme entité étatique puissante, sont des facteurs qui font de l'Arctique une région convoitée. Ainsi, ces nouveaux acteurs étatiques ont réalisé un progrès concernant leur statut en Arctique, depuis que certains sont devenus observateurs permanents au sein du Conseil de l'Arctique et ont adhéré, en 2018, à l'Accord visant à prévenir la pêche non réglementée en haute mer dans l'océan Arctique central. Ainsi, les récents développements ont soulevé de nouvelles questions sur la dimension de cet intérêt étatique comme base de réflexion sur l'avenir des pêcheries en océan Arctique. Des facteurs tels que l'incidence du changement climatique sur la région fournissent un fil conducteur reliant de multiples opportunités. Plus précisément, nous examinerons les ambitions halieutiques de ces acteurs dans cet océan, qui coïncident avec les conséquences du changement climatique sur la région. Une attention particulière sera portée à l'interprétation du droit international de la pêche que font ces acteurs étatiques et leur respect des normes en matière de pêche. En outre, il n'existe pas pour le moment en océan Arctique de gestion unifiée des pêcheries, en particulier hauturières, mais divers systèmes normatifs. Ceci est la raison pour laquelle il convient à l'avenir de se pencher sur le cadre juridique des pêcheries arctiques à la lumière de ces nouveaux développements. Notre analyse tient compte de l'exploitation durable des ressources halieutiques de l'océan Arctique en examinant les principaux instruments juridiques internationaux existants et d'autres perspectives juridiques. Dans l'ensemble, en présentant une approche constructiviste pour la gouvernance de la pêche en océan Arctique, notre objectif est de démontrer que les acteurs étatiques concernés sont des parties prenantes dans la recherche des solutions les plus adéquates. L'étude conclut que les États et les entités étatiques non arctiques ont l'intention de jouer un rôle dynamique, en tant qu'acteurs œuvrant à la bonne gouvernance des ressources halieutiques de cet océan nouvellement exploité.
28

L'identification des entités nommées en arabe en vue de leur extraction et classification automatiques : la construction d’un système à base de règles syntactico-sémantique / Identification of arabic named entities with a view to their automatique extraction an classification : a syntactico-semantic rule based system

Asbayou, Omar 01 December 2016 (has links)
Cette thèse explique et présente notre démarche de la réalisation d’un système à base de règles de reconnaissance et de classification automatique des EN en arabe. C’est un travail qui implique deux disciplines : la linguistique et l’informatique. L’outil informatique et les règles la linguistiques s’accouplent pour donner naissance à une nouvelle discipline ; celle de « traitement automatique des langues », qui opère sur des niveaux différents (morphosyntaxique, syntaxique, sémantique, syntactico-sémantique etc.). Nous avons donc, dans ce qui nous concerne, mis en œuvre des informations et règles linguistiques nécessaires au service du logiciel informatique, qui doit être en mesure de les appliquer, pour extraire et classifier, par des annotations syntaxiques et/ou sémantiques, les différentes classes d’entités nommées.Ce travail de thèse s’inscrit donc dans un cadre général de traitement automatique des langues, mais plus particulièrement dans la continuité des travaux réalisés au niveau de l’analyse morphosyntaxique par la conception et la réalisation des bases des données lexicales SAMIA et ensuite DIINAR avec l’ensemble de résultats de recherches qui en découlent. C’est une tâche qui vise à l’enrichissement lexical par des entités nommées simples et complexes, et qui veut établir la transition de l’analyse morphosyntaxique vers l’analyse syntaxique, et syntatico-sémantique dans une visée plus générale de l’analyse du contenu textuel. Pour comprendre de quoi il s’agit, il nous était important de commencer par la définition de l’entité nommée. Et pour mener à bien notre démarche, nous avons distingué entre deux types principaux : pur nom propre et EN descriptive. Nous avons aussi établi une classification référentielle en se basant sur diverses classes et sous-classes qui constituent la référence de nos annotations sémantiques. Cependant, nous avons dû faire face à deux difficultés majeures : l’ambiguïté lexicale et les frontières des entités nommées complexes. Notre système adopte une approche à base de règles syntactico-sémantiques. Il est constitué, après le Niveau 0 d’analyse morphosyntaxique, de cinq niveaux de construction de patrons syntaxiques et syntactico-sémantiques basés sur les informations linguistique nécessaires (morphosyntaxiques, syntaxiques, sémantique, et syntactico-sémantique). Ce travail, après évaluation en utilisant deux corpus, a abouti à de très bons résultats en précision, en rappel et en F–mesure. Les résultats de notre système ont un apport intéressant dans différents application du traitement automatique des langues notamment les deux tâches de recherche et d’extraction d’informations. En effet, on les a concrètement exploités dans les deux applications (recherche et extraction d’informations). En plus de cette expérience unique, nous envisageons par la suite étendre notre système à l’extraction et la classification des phrases dans lesquelles, les entités classifiées, principalement les entités nommées et les verbes, jouent respectivement le rôle d’arguments et de prédicats. Un deuxième objectif consiste à l’enrichissement des différents types de ressources lexicales à l’instar des ontologies. / This thesis explains and presents our approach of rule-based system of arabic named entity recognition and classification. This work involves two disciplines : linguistics and computer science. Computer tools and linguistic rules are merged to give birth to a new discipline : Natural Languge Processsing, which operates in different levels (morphosyntactic, syntactic, semantic, syntactico-semantic…). So, in our particular case, we have put the necessary linguistic information and rules to software sevice. This later should be able to apply and implement them in order to recognise and classify, by syntactic and semantic annotations, the different named entity classes.This work of thesis is incorporated within the general domain of natural language processing, but it particularly falls within the scope of the continuity of the accomplished work in terms of morphosyntactic analysis and the realisation of lexical data bases of SAMIA and then DIINAR as well as the accompanying scientific recearch. This task aimes at lexical enrichement with simple and complex named entities and at establishing the transition from the morphological analysis into syntactic and syntactico-semantic analysis. The ultimate objective is text analysis. To understand what it is about, it was important to start with named entity definition. To carry out this task, we distinguished between two main named entity types : pur proper name and descriptive named entities. We have also established a referential classification on the basis of different classes and sub-classes which constitue the reference for our semantic annotations. Nevertheless, we are confronted with two major difficulties : lexical ambiguity and the frontiers of complex named entities. Our system adoptes a syntactico-semantic rule-based approach. After Level 0 of morpho-syntactic analysis, the system is made up of five levels of syntactic and syntactico-semantic patterns based on tne necessary linguisic information (i.e. morphosyntactic, syntactic, semantic and syntactico-semantic information).This work has obtained very good results in termes of precision, recall and F-measure. The output of our system has an interesting contribution in different applications of the natural language processing especially in both tasks of information retrieval and information extraction. In fact, we have concretely exploited our system output in both applications (information retrieval and information extraction). In addition to this unique experience, we envisage in the future work to extend our system into the sentence extraction and classification, in which classified entities, mainly named entities and verbs, play respectively the role of arguments and predicates. The second objective consists in the enrichment of different types of lexical resources such as ontologies.
29

Approche multi-niveaux pour l'analyse des données textuelles non-standardisées : corpus de textes en moyen français / Multi-level approach for the analysis of non-standardized textual data : corpus of texts in middle french

Aouini, Mourad 19 March 2018 (has links)
Cette thèse présente une approche d'analyse des textes non-standardisé qui consiste à modéliser une chaine de traitement permettant l’annotation automatique de textes à savoir l’annotation grammaticale en utilisant une méthode d’étiquetage morphosyntaxique et l’annotation sémantique en mettant en œuvre un système de reconnaissance des entités nommées. Dans ce contexte, nous présentons un système d'analyse du Moyen Français qui est une langue en pleine évolution dont l’orthographe, le système flexionnel et la syntaxe ne sont pas stables. Les textes en Moyen Français se singularisent principalement par l’absence d’orthographe normalisée et par la variabilité tant géographique que chronologique des lexiques médiévaux.L’objectif est de mettre en évidence un système dédié à la construction de ressources linguistiques, notamment la construction des dictionnaires électroniques, se basant sur des règles de morphologie. Ensuite, nous présenterons les instructions que nous avons établies pour construire un étiqueteur morphosyntaxique qui vise à produire automatiquement des analyses contextuelles à l’aide de grammaires de désambiguïsation. Finalement, nous retracerons le chemin qui nous a conduits à mettre en place des grammaires locales permettant de retrouver les entités nommées. De ce fait, nous avons été amenés à constituer un corpus MEDITEXT regroupant des textes en Moyen Français apparus entre le fin du XIIIème et XVème siècle. / This thesis presents a non-standardized text analysis approach which consists a chain process modeling allowing the automatic annotation of texts: grammar annotation using a morphosyntactic tagging method and semantic annotation by putting in operates a system of named-entity recognition. In this context, we present a system analysis of the Middle French which is a language in the course of evolution including: spelling, the flexional system and the syntax are not stable. The texts in Middle French are mainly distinguished by the absence of normalized orthography and the geographical and chronological variability of medieval lexicons.The main objective is to highlight a system dedicated to the construction of linguistic resources, in particular the construction of electronic dictionaries, based on rules of morphology. Then, we will present the instructions that we have carried out to construct a morphosyntactic tagging which aims at automatically producing contextual analyzes using the disambiguation grammars. Finally, we will retrace the path that led us to set up local grammars to find the named entities. Hence, we were asked to create a MEDITEXT corpus of texts in Middle French between the end of the thirteenth and fifteenth centuries.
30

Les relations extérieures du Parlement écossais : 1999-2007 / The external relations of the Scottish Parliament : 1999-2007

Aliyeva Potier, Elmira 28 June 2013 (has links)
L’action extérieure du Parlement écossais est l’objet de notre étude. D’abord, nous avons identifié la capacité opérationnelle de cette institution au sein du système institutionnel britannique, sur la scène communautaire et dans les échanges internationaux. Puis, nous avons détecté les facteurs structurant cette action. Selon notre étude, trois pôles prennent forme dans l’action parlementaire tels que les îles Britanniques, l’Europe qui couvre l’espace géographique européen, l’environnement institutionnel communautaire. Enfin, le troisième pôle est l’espace hors d’Europe, notamment les pays du Commonwealth et les Etats-Unis d’Amérique. Nous avons également établi une certaine spécialisation des méthodes et des moyens d’action dans les trois pôles évoqués. / The focus of my dissertation is the external action of the Scottish Parliament. My study identifies the operational capacity of this institution within the British institutional system, on the European Union arena and in international relations. I have identified the factors structuring the parliamentary action that shaped three poles such as the British Isles, Europe and outside the geographic European space. The pole of Europe covers both Continental Europe and the EC institutional environment. I have also identified the specialisation of methods and tools of action within the above mentioned poles

Page generated in 0.4239 seconds