• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 54
  • 24
  • 5
  • Tagged with
  • 83
  • 40
  • 17
  • 16
  • 13
  • 12
  • 10
  • 10
  • 10
  • 9
  • 8
  • 8
  • 7
  • 7
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Sémantique des programmes récursifs-parallèles et méthodes pour leur analyse

Kouchnarenko, Olga 24 February 1997 (has links) (PDF)
Cette thèse s'inscrit dans le cadre des travaux consacrés au développement des modèles sémantiques destinés aux langages de programmation concurrents. Une particularité de notre étude réside dans la considération explicite d'une récursivité au niveau des programmes parallèles. Pour ces programmes nous proposons une sémantique originale, dont nous étudions en détail les propriétés. Bien que le modèle proposé ne soit pas d'états finis, il est possible de le munir d'une structure de systèmes de transitions bien structurés au sens de Finkel ce qui établit la décidabilité de nombreux problèmes de vérification. Cette sémantique à la Plotkin permet de mieux comprendre le comportement des programmes récursifs-parallèles, d'analyser formellement certaines de leurs propriétés, de décrire la stratégie d'implémentation et d'énoncer en quel sens elle est correcte.
12

Dérivation numérique : synthèse, application et intégration

Dridi, Mehdi 13 December 2011 (has links) (PDF)
Les algorithmes de dérivation sont des méthodes numériques permettant d'estimer la dérivée d'un signal à partir d'une mesure de celui-ci. Dans la discipline de l'automatique, et comme il a été repris dans une large part des travaux de la communauté automaticienne, ces méthodes fournissent une aide précieuse dans les problèmes de commande non linéaire dans la mesure où celles-ci permettent de fournir, par dérivation de signaux mesurables, une estimation de signaux intervenant dans le calcul de la commande. Les approches les plus connues au problème, sont basées sur les observateurs. Dans celles-ci, le signal à dériver est modélisé comme la sortie d'un système dynamique donné dont l'entrée est un signal canonique connu. Les dérivées du signal sont alors obtenues par observation de l'état de son modèle. La plupart de ces techniques prennent en compte, implicitement ou explicitement, des hypothèses, stochastiques ou déterministes, propres sur le signal à dériver et/ou sur la perturbation l'affectant. Dans ce travail, on s'intéresse à l'étude et l'application des différentes approches linéaires et non linéaires d'observation dans la synthèse d'algorithmes de dérivation. Dans un cadre linéaire, différentes approches de filtrage et d'observation (grand gain, Kalman, H2) sont alors introduites et appliquées pour l'estimation de la dérivée d'un signal mesuré. Une proposition d'approche alternative d'observation linéaire a été introduite et appliquée à la dérivation. Dans celle-ci, un observateur est mis en oeuvre par optimisation d'une norme H¥ . Le problème de synthèse d'observateurs est alors formulé comme un problème d'optimisation sous contraintes LMI. Cette approche présente l'intérêt de la possibilité de considérer une norme H¥ pondérée dans la synthèse de l'observateur. Dans ce cas, il est possible d'imposer un gabarit particulier sur la Densité Spectrale de Puissance du signal d'erreur. Une investigation supplémentaire est également apportée quant à la possibilité de considérer des structures d'observateurs alternatives à la structure Luenberger classique afin de s'affranchir de cette contrainte structurelle. Dans un cadre non linéaire, les observateurs par modes glissants fournissent une alternative aux observateurs linéaires dans l'application à la dérivation. Ces méthodes présentent l'intérêt de leur robustesse avérée et de pouvoir apporter une amélioration potentielle de la précision des algorithmes. De plus, celles-ci permettent l'introduction d'une notion de convergence inconnue dans un cadre linéaire : la convergence en temps fini. Du fait de leur non linéarité, la procédure de réglage de algorithmes qui en découlent est assez délicate et dépend, surtout, de la nature du signal à dériver et du niveau de bruit sur celui-ci. Ainsi, un réglage reste optimal pour un signal donné mais ne garantit pas le même niveau de performances pour un autre. Dans ce cas, des approches d'adaptation en temps réel des gains de réglage des algorithmes ont été introduites afin de s'affranchir de cette difficulté de réglage ou, du moins, la rendre moins complexe. Une version adaptative d'un algorithme de dérivation par modes glissants classique a été alors proposée. Cependant, notre approche dans l'étude du problème ne s'est pas réservée uniquement aux fondements théoriques des méthodes de dérivation. Ainsi, suite au travail théorique décrit précédemment, un travail de nature pratique et expérimental a été effectué. L'objectif étant de mettre en place un " capteur logiciel " embarqué sur cible numérique à faible coût permettant l'estimation des variables d'état d'un système mécatronique, par dérivation de signaux mesurés, en vue de sa commande. Pour se faire, une étude préalable quant aux effets des contraintes technologiques d'implémentation (résolution de calcul, précision des organes de conversion,...) sur les performances des algorithmes de dérivation a été présentée. On s'est ensuite intéressé à la mise en œuvre des algorithmes de dérivation sur un circuit numérique et la validation de la solution en boucle ouverte pour l'estimation de la dérivée de différents signaux. Enfin, la carte de dérivation ainsi obtenue a été introduite dans une boucle de commande non linéaire d'un système électropneumatique. Dans cette étape, le dérivateur numérique fait office de capteur logiciel pour l'estimation de certaines grandeurs intervenant dans le calcul de la commande. Des résultats comparatifs entre différents algorithmes et différentes trajectoires de consigne on été alors présentés.
13

Pilotage d'implémentations d'outils de TCAO au sein d'une organisation : une approche méthodologique

Viguié, Philippe 03 November 2010 (has links) (PDF)
Les technologies de la collaboration suscitent de nombreuses études sur la façon de concevoir et de développer des systèmes de Travail Coopératif Assisté par Ordinateur (TCAO). Néanmoins, les recherches relatives au pilotage du processus d'implémentation des outils de TCAO, dans le monde industriel, ne sont pas nombreuses. L'approche techno-centrée, valable pour les applications individuelles à des fins purement techniques, semble en décalage dans le cas de l'implémentation de ces outils où l'humain, l'organisation et la technologie doivent trouver un équilibre. Plusieurs auteurs ont décrit les problèmes rencontrés, d'autres ont proposé des approches sur la problématique de l'amélioration du processus d'implémentation. Une méthode abordable pour des non spécialistes du domaine reste nécessaire à proposer. Le but de ce travail est de mettre au point une méthode de pilotage du processus d'implémentation. Par ailleurs, la plupart des travaux se base sur une logique de conception alors que nous nous positionnons sur une logique d'acquisition et d'intégration des applications de TCAO, dans le domaine industriel. L'intérêt académique de cette recherche réside ainsi dans la nouveauté qu'elle propose en matière méthodologique. Notre contribution académique dans le domaine, est celle d'une proposition de méthode de pilotage sous forme de tableaux de bord. Basée sur les concepts Agile, notre méthode, dite « par grignotage » propose un suivi par étape. Chaque étape représente la gestion locale d'indicateurs d'implémentation regroupés en fonction d'un item (facteur de succès) issu des résultats connus de l'état de l'art et de ceux produits par des expérimentations menées sur une période de 3 ans au sein d'une grande banque régionale.
14

Proposition d'un modèle d'implémentation d'une méthode de management des risques projet: "Application à deux projets de conception de produits nouveaux"

Verdoux, Vanessa 09 1900 (has links) (PDF)
Les projets comportent de nombreuses sources de risques qui tiennent tant du management et de la gestion de projet que de l'organisation de l'équipe projet, de la technique et de l'environnement du projet. Ce contexte est imposé à l'équipe projet qui le subit et ne peut pas le modifier. Elle peut seulement connaître sa position par rapport à lui, plus ou moins favorable à la réussite du projet, indépendamment de la façon dont il sera géré par la suite. Le chef de projet est responsable de la réussite du projet. Son but est d'atteindre les objectifs fixés par l'entreprise pour le projet, à partir des ressources qui lui sont attribuées, dans les meilleures conditions. Pour ce faire, il dispose d'une certaine marge de manoeuvre dans un contexte qui s'impose à lui. L'objectif de nos travaux de recherche est de guider les chefs de projet afin d'optimiser l'utilisation de cette marge de manoeuvre, plus précisément en fiabilisant la prise en compte des risques pour concevoir plus vite, mieux et moins cher. Des méthodes de management des risques projet ont été développées pour répondre à ce besoin. Le succès de ces démarches reste encore très modeste et leur pérennité est fragile. Pour répondre à ce problème, nous présentons dans ce mémoire un modèle d'implémentation d'une méthode de management des risques projet composé de trois paramètres: la création d'un nouveau métier support aux équipes projets: le Riskmanager projet, la maîtrise de la cohérence des méthodes d'analyse des risques dans le processus global du management des risques projets, et la capitalisation des expériences à travers un support logiciel. Ce modèle a été élaboré et validé par plusieurs expérimentations sur deux projets de conception de produits nouveaux au sein de l'entreprise Saint-Gobain.
15

Design et implémentation sur FPGA d'un algorithme DES

Amoud, Mohamed January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
16

Arithmétique des couplages, performance et résistance aux attaques par canaux cachés.

El Mrabet, Nadia 07 December 2009 (has links) (PDF)
Ma thèse porte sur l'étude des couplages, et plus particulièrement leur utilisation en cryptographie. Mes premiers travaux ont portés sur l'arithmétique des couplages à travers une comparaison des complexités en nombre d'opérations des couplages de Weil et Tate. Puis je me suis intéressée à l'étude de l'arithmétique utile pour les couplages. Un de mes travaux propose d'utiliser une représentation alternative des corps finis pour améliorer l'efficacité des calculs impliqués dans les couplages. Le second étudie en détail l'arithmétique des couplages pour les courbes dont le degré d'enfoncement est 15. Ces premiers travaux m'ont permis de me familiariser avec les couplages et je me suis alors orientée vers la résistance aux attaques par canaux cachés des algorithmes de couplage. J'ai étudié les faiblesses de l'algorithme de Miller lorsqu'il subit des attaques par analyse de consommation de courant et par injection de fautes.
17

Systèmes de cryptocalculs, compilation et support d’exécution / Cryptocomputing systems, compilation and runtime

Fau, Simon 22 March 2016 (has links)
Notre approche dans cette thèse était d'identifier où le chiffrement complètement homomorphe (FHE) pouvait être utilisé pour le domaine des sciences informatiques et de construire une plate-forme expérimentale qui nous permette de tester des algorithmes de traitement de l'information manipulant des données chiffrées. La première partie de cette thèse est consacrée à l'état de l'art. Nous présentons d'abord les systèmes de chiffrement homomorphes conçus avant 2008, puis nous présentons ceux adressant la problématique du chiffrement complètement homomorphe. Nous décrivons plusieurs méthodes de chiffrement d'intérêt pour cette thèse et discutons de leurs implémentations FHE. Enfin, nous présentons des circuits de Yao car ils peuvent résoudre des problèmes similaires que le FHE et nous parlons brièvement du chiffrement fonctionnel (FE). La deuxième partie de cette thèse présente nos contributions. Nous commençons par expliquer comment le FHE peut être utile dans divers scénarios et décrivons plusieurs cas d'utilisation pratique identifiés au cours de la thèse. Ensuite, nous décrivons notre approche pour effectuer des calculs sur des données chiffrées à l'aide du FHE et expliquons comment nous avons pu développer une plate-forme pour l'exécution dans le domaine chiffré d'une large gamme d'algorithmes en s'appuyant seulement sur l'addition et la multiplication homomorphes. Nous détaillons ensuite notre solution pour effectuer des requêtes privées sur une base de données chiffrées en utilisant le chiffrement homomorphe. Dans un dernier chapitre, nous présentons nos résultats expérimentaux. / Our approach in this thesis was to identify where FHE could be used in computer science and to build an experimental platform that allow us to test real-life algorithm running on homomorphically-encrypted data. The first part of this thesis is dedicated to the state of the art. We first present homomorphic encryption schemes designed before 2008 and then move to the Fully Homomorphic Encryption period. We describe several schemes of interest for this thesis and discuss FHE implementations. Finally, we present Yao’s garbled circuits as they can solve similar problems as FHE and briefly talk about Functional Encryption (FE). The second part of this thesis is for our contributions to the subject. We begin by explaining how FHE can be useful in various scenarios and try to provide practical use cases that we identified during the thesis. Then, we describe our approach to perform computations on encrypted data using FHE and explain how we were able to build on just the homomorphic addition and multiplication a platform for the execution in the encrypted domain of a wide range of algorithms. We then detail our solution for performing private queries on an encrypted database using homomorphic encryption. In a final chapter, we present our experimental results.
18

Contribution à l’amélioration des performances de décodage des turbo codes : algorithmes et architecture / Contribution to the improvement of the decoding performance of turbo codes : algorithms and architecture

Tonnellier, Thibaud 05 July 2017 (has links)
Les turbo codes sont une classe de codes correcteurs d’erreurs approchant la limite théorique de capacité formulée par Claude Shannon. Conjointement à leurs excellentes performances de décodage, la complexité calculatoire modérée des turbo décodeurs a permis leur inclusion dans de nombreux standards de communications numériques. Une des métriques permettant la caractérisation de codes correcteurs d’erreurs est l’évolution du taux d’erreurs binaires en fonction du rapport signal sur bruit. Dans le cadre des turbo codes, une courbe de performance de décodage comprend deux zones principales.Dans la première zone, une faible amélioration de la qualité du canal de transmission entraîne de grandes améliorations au niveau des performances de décodage. En revanche dans la seconde, une amélioration de cette qualité ne résulte qu’en une amélioration marginale des performances de décodage. Cette seconde région est nommée zone du plancher d’erreurs. Elle peut empêcher l’utilisation de turbo codes dans des contextes nécessitant de très faibles taux d’erreurs. C’est pourquoi la communauté scientifique a proposé différentes optimisations favorisant la construction de turbo codes atténuant ce plancher d’erreurs. Cependant, ces approches ne peuvent être considérées pour des turbocodes déjà standardisés. Dans ce contexte, cette thèse adresse le problème de la réduction du plancher d’erreurs en s’interdisant de modifier la chaîne de communications numériques du côté de l’émetteur.Pour ce faire, un état de l’art de méthodes de post-traitement de décodage est dressé pour les turbo codes. Il apparaît que les solutions efficaces sont coûteuses à mettre en oeuvre car elles nécessitent une multiplication des ressources calculatoires ou impactent fortement la latence globale de décodage.Dans un premier temps, deux algorithmes basés sur une supervision de l’évolution de métriques internes aux décodeurs, sont proposés. L’un deux permet d’augmenter la convergence du turbo décodeur. L’autre ne permet qu’une réduction marginale du plancher d’erreurs. Dans un second temps, il est observé que dans la zone du plancher d’erreurs, les trames décodées par le turbo décodeur sont très proches du mot de code originellement transmis. Ceci est démontré par une proposition de prédiction analytique de la distribution du nombre d’erreurs binaires par trame erronée. Cette dernière est réalisée grâce au spectre de distance du turbo code. Puisque ces erreurs binaires responsables du plancher d’erreurs sont peu nombreuses, une métrique permettant de les identifier est mise en oeuvre. Ceci mène alors à l’établissement d’un algorithme de décodage permettant de corriger des erreurs résiduelles. Cet algorithme, appelé algorithme Flip-and-Check se base sur un principe de création de mots candidats et de vérifications successives parun code détecteur d’erreurs. Grâce à cet algorithme de décodage, un abaissement du plancher d’erreurs d’un ordre de grandeur est obtenu pour les turbo codes de différents standards (LTE, CCSDS, DVB-RCS et DVB-RCS2), ce, tout en conservant une complexité calculatoire raisonnable.Finalement, une architecture matérielle de décodage implémentant l’algorithme Flipand-Check est présentée. Une étude préalable de l’impact des différents paramètres de l’algorithme est menée. Elle aboutit à la définition de valeurs optimales pour certains de ces paramètres. D’autres sont à adapter en fonction des gains visés en terme de performances de décodage. Cette architecture démontre alors la possible intégration de cet algorithme aux turbo décodeurs existants ; permettant alors d’abaisser le plancher d’erreurs des différents turbo codes présents dans les différents standards de télécommunication. / Since their introduction in the 90’s, turbo codes are considered as one of the most powerful error-correcting code. Thanks to their excellent trade-off between computational complexity and decoding performance, they were chosen in many communication standards. One way to characterize error-correcting codes is the evolution of the bit error rate as a function of signal-to-noise ratio (SNR). The turbo code error rate performance is divided in two different regions : the waterfall region and the error floor region. In the waterfall region, a slight increase in SNR results in a significant drop in error rate. In the error floor region, the error rate performance is only slightly improved as the SNR grows. This error floor can prevent turbo codes from being used in applications with low error rates requirements. Therefore various constructions optimizations that lower the error floor of turbo codes has been proposed in recent years by scientific community. However, these approaches can not be considered for already standardized turbo codes.This thesis addresses the problem of lowering the error floor of turbo codes without allowing any modification of the digital communication chain at the transmitter side. For this purpose, the state-of-the-art post-processing decoding method for turbo codes is detailed. It appears that efficient solutions are expensive to implement due to the required multiplication of computational resources or can strongly impact the overall decoding latency. Firstly, two decoding algorithms based on the monitoring of decoder’s internal metrics are proposed. The waterfall region is enhanced by the first algorithm. However, the second one marginally lowers the error floor. Then, the study shows that in the error floor region, frames decoded by the turbo decoder are really close to the word originally transmitted. This is demonstrated by a proposition of an analytical prediction of the distribution of the number of bits in errors per erroneous frame. This prediction rests on the distance spectrum of turbo codes. Since the appearance of error floor region is due to only few bits in errors, an identification metric is proposed. This lead to the proposal of an algorithm that can correct residual errors. This algorithm, called Flip-and-Check, rests on the generation of candidate words, followed by verification according to an error-detecting code. Thanks to this decoding algorithm, the error floor of turbo codes encountered in different standards (LTE, CCSDS, DVB-RCS and DVB-RCS2) is lowered by one order of magnitude. This performance improvement is obtained without considering an important computational complexity overhead. Finally, a hardware decoding architecture implementing the Flip-and-Check algorithm is presented. A preliminary study of the impact of the different parameters of this algorithm is carried out. It leads to the definition of optimal values for some of these parameters. Others has to be adapted according to the gains targeted in terms of decoding performance. The possible integration of this algorithm along with existing turbo decoders is demonstrated thanks to this hardware architecture. This therefore enables the lowering of the error floors of standardized turbo codes.
19

IT Conflict Contagion : Action Research in a Consulting Firm / La contagion des conflits dans les projets TI : une recherche-action dans une société de conseil

Bou Saba, Peter 22 November 2017 (has links)
Les conflits et les comportements de résistance des utilisateurs représentent une des difficultés managériales majeures lors de l’implémentation des Systèmes d’Information (SI). Bien que de nombreuses études de SI abordent la résistance et les conflits des utilisateurs en anticipant, en minimisant, ou même en amplifiant ces comportements négatifs, peu de recherches ont pris en compte les mécanismes de contagion des conflits et ont examiné pourquoi et comment les utilisateurs résistent de manière comparable à des projets de Technologie de l'Information (TI) entièrement différents. La littérature en SI semble limitée quant à l'impact des comportements de résistance survenus dans le passé sur le nouveau projet TI. Or, les gestionnaires doivent être en mesure d’anticiper les causes potentielles de l'échec du projet en raison des comportements de résistance en cours, mais aussi à cause des résistances apparues dans le passé et qui perdurent ou sont susceptibles de réapparaître. Pour les chercheurs et praticiens en SI, cette recherche met en lumière les liens entre des problèmes liés aux conflits actuels et antérieurs survenus dans le portefeuille de projets TI d'une entreprise. Pour cela, nous mobilisons, en particulier, les théories de la contagion et de l’inoculation qui n’ont été à ce jour que faiblement utilisées dans le domaine des systèmes d’information. La partie empirique consiste en un projet de recherche-action de trois ans réalisé chez Efficient Innovation Corporation (une société française de conseil en management de l’innovation). Tout d'abord, mes observations révèlent que les employés qui expriment des conflits axés sur les tâches vers un projet de déploiement TI sont susceptibles d'utiliser une stratégie de contournement dissimulant des conflits sociopolitiques. Deuxièmement, nous avons pu identifier un phénomène de contagion de conflits entre deux projets TI malgré leurs fortes différences en termes d’objectifs, de périmètres fonctionnels et d’utilisateurs. Troisièmement, les techniques « d’inoculation » que nous avons pu mettre en œuvre ont permis d’enrailler voire de limiter la diffusion de comportements de résistance envers les TI. Le message sous-jacent de cette thèse est de considérer les comportements de résistance antérieurs et la contagion des conflits comme des processus clés intégrés à l’implémentation des TI. A cet effet, nous introduisons le concept de “Resistance Path Dependency”, puis nous proposons un modèle conceptuel du mécanisme de contagion possible des conflits entre différentes équipes et projets TI. / User conflicts and resistance behaviours represent one of the major managerial difficulties during Information Systems (IS) implementation. Although numerous IS studies tackle user resistance and conflicts by anticipating, minimising or even amplifying these negative behaviours, little research has taken into consideration the contagion mechanisms of conflicts and examined why and how users similarly resist to entirely different Information Technology (IT) projects. The IS literature is sparse on addressing the impact of resistance behaviours that occurred in the past on the new IT. IS managers need to anticipate potential causes for project failure because of ongoing resistance behaviours toward the new IT, but also because of resistance behaviours occurred in the past and persist until today, or are likely to reappear. For IS researchers and practitioners, my research gives greater attention to issues related to current and prior conflicts occurring in a firm’s IT project portfolio. Therefore, we particularly mobilise the theories of contagion and Inoculation which have been so far weakly used in the field of information systems. The empirical part consists of a three-year action research project conducted at Efficient Innovation Corporation (a French management consulting firm). Firstly, my observations reveal that employees expressing task-oriented conflicts towards an IT deployment project were likely to use a bypassing strategy, hiding socio-political conflicts. Secondly, we were able to identify a phenomenon of conflict contagion between two IT projects despite their strong differences in terms of objectives, functional perimeters and users. Thirdly, the "Inoculation" techniques that we implemented succeeded to stall and limit the diffusion of resistance behaviours toward IT. The underlying message of this thesis is to consider prior resistance behaviours and conflict contagion as key processes integrated into IT implementation. Accordingly, we introduce the concept of "Resistance Path Dependency", and propose a conceptual model of possible conflict contagion mechanisms between different teams and IT projects.
20

Description de l'Ikota (B25), langue bantu du Gabon. Implémentation de la morphosyntaxe et de la syntaxe / Ikota’s description (B25), bantu language of Gabon Morphosyntax and syntax implementation

Magnana Ekoukou, Brunelle 21 September 2015 (has links)
Cette thèse est une description formelle de la morphosyntaxe et de la syntaxe de l'ikota (Gabon, Bantu B25).Les données recueillies sur le terrain sont modélisées à l'aide de théories récentes (Paradigm FunctionMorphology (PFM), Tree Adjoining Grammar (TAG)). Je montre qu'une description formelle adéquate permetun passage rapide à une implémentation des règles grammaticales sous forme de contraintes. En effet, cesrègles ont permis la génération automatique des formes nominales et verbales fléchies de cette languebantu à morphologie riche ainsi que la réalisation d’une grammaire électronique des phrases de base.En morphologie, mes analyses reposent en particulier sur le concept de classes de position tel que définidans Stump (2001). Je montre qu'une analyse 'plate' (i.e. non arborescente) fournit une description élégantedes différentes classes nominales, de leurs accords sur les démonstratifs, possessifs, relateurs, adjectifs etverbes ainsi que de la flexion verbale riche (définie sur x positions). Les formes morphologiques généréessont alors réutilisées en syntaxe, les traits associés aux formes servent à contraindre la combinatoire desarbres syntaxiques. XMG2 (eXtensible MetaGrammar, Petitjean 2014) est l'outil qui permet à la fois lagénération des formes fléchies et la génération des arbres dans une grammaire TAG lexicalisée. / In this thesis, I propose a formal description of the morphosyntax and the syntax of Ikota (Bantu languageB25, spoken in Gabon). Field data are represented using recent linguistic theories (namely ParadigmFunction Morphology (PFM) and Tree Adjoining Grammar (TAG)). I show how a formal description makes itpossible to quickly implement grammar rules as constraints. These rules allowed for the automaticgeneration of nominal and verbal inflected forms belonging to this morphologically-rich Bantu language,along with the creation of an electronic grammar covering core sentences.Regarding morphology, my analyses rely on the concept of position classes as defined in Stump (2001). Ishow how a 'flat' analyse, that is to say differing from a tree-based representation, provides an elegantdescription of several nominal classes, including agreements with demonstratives, possessives, relators,adjectives or verbs, and of rich verbal inflection (defined on x positions). Inflected forms generated from thisdescription are then reused in syntax, their morphosyntactic features allow for a reduced combinatory atparsing (fewer syntactic trees are considered according to the sentence to parse). XMG 2 (eXtensibleMetaGrammar, Petitjean 2014) is the framework which has been used for describing and generating bothinflected forms and lexicalised TAG trees.

Page generated in 0.4793 seconds