• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 33
  • 6
  • 5
  • 2
  • Tagged with
  • 47
  • 47
  • 35
  • 29
  • 19
  • 18
  • 16
  • 15
  • 15
  • 14
  • 13
  • 13
  • 10
  • 10
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

CELINE, vers un correcteur lexico-syntaxique adaptatif et semi-automatique

Menezo, Jacques 05 July 1999 (has links) (PDF)
Cette thèse aborde la spécification et la réalisation de CELINE, outil de correction des erreurs basé sur une architecture multi-agents à deux niveaux : <BR> 1) Un système lourd, renfermant l'ensemble du savoir linguistique (multi-domaines par rapport à l'univers du discours), et générateur de systèmes individualisés. Les agents peuvent être considérés comme imparfaits ou partiellement inadaptés. Ils sont mis en concurrence par domaine d' expertise.<BR> 2) Un système léger implanté sur le site du rédacteur, système construit par apprentissage par le système central à partir des travaux de ce rédacteur.<BR> La spécification du système se construit tout au long des chapitres.<BR> La problématique de la correction des erreurs et la finalité de la conception d'un système de correction le plus automatique possible, avec des prises de décision à faible granularité reposant sur des critères multi-niveaux, nous entraînent vers un besoin de coopération justifiant une réalisation multi-agents.<BR> Une taxinomie des erreurs et des rappels sur l'analyse linguistique nous permet d'établir un début de structure du tableau noir du système. Nous consolidons nos choix par une comparaison du système attendu avec quelques prototypes du domaine. Nous examinons ensuite les comportements sociaux de deux agents chargés de définir l'un un modèle linguistique partiel suffisant du rédacteur et l'autre un sous-ensemble pertinent du système global. Nous découvrons alors le modèle de communication des agents et complétons notre structure de données par les marques de validité.<BR> La méthode des structures permet une quantification, incluse dans le tableau noir, de la correction des fautes d'accords.<BR> Après une approche des systèmes multi-agents, nous présentons une synthèse de l'architecture de CELINE et du fonctionnement des pilotes et de quelques agents.<BR> Un bilan rapide, précèdera en conclusion, une mise en situation du système proposé dans le cadre des industries de la langue et dans un environnement réseau du type Internet.
32

Le lexique-grammaire des verbes du grec moderne: les constructions transitives locatives standard

Yannacopoulou, Anastasia 13 July 2005 (has links) (PDF)
L'objectif de notre recherche est la description formelle et systématique des verbes à construction transitive locative standard du grec moderne : N0 V N1cor Loc N2lieu (Loc N3lieu), où le nom en position complément direct (N1) désigne, en général, l'objet qui se déplace par rapport au lieu en position prépositionnelle (N2, N3) à cause de l'agent (N0). Notre étude s'inscrit dans le cadre théorique de la grammaire transformationnelle défini par Zellig S. Harris. Nous suivons le cadre méthodologique du Lexique-Grammaire défini par Maurice Gross et élaboré au Laboratoire d'Automatique Documentaire et Linguistique. Notre but est la description exhaustive du grec moderne en vue de l'analyse automatique de la langue. Ainsi, 931 verbes simples sont classés dans 5 tables du lexique-grammaire : 38GLD : constructions à complément prépositionnel destination , 38GLS : constructions à complément prépositionnel source , 38GL : constructions à complément source et complément destination , 38GLH : constructions à complément(s) prépositionnel(s) locatif(s) et à complément direct obligatoirement humain ; 38GLR : constructions transitives locatives résiduelles. Nous procédons à la description morphologique et syntactico-sémantique des prépositions introduisant des compléments locatifs et nous exposons les propriétés transformationnelles et distributionnelles des verbes transitifs locatifs. Nous présentons la conversion automatique des tables en automates à états finis récursifs, dans le cadre du TAL (Traitement automatique des langues), ainsi que nos remarques sur la traduction, vers le français, des constructions locatives grecques, basée sur les propriétés figurant dans les tables.
33

Indexation de textes médicaux par extraction de concepts, et ses utilisations

Pouliquen, Bruno 07 June 2002 (has links) (PDF)
Nous nous intéressons à l'accès à l'information médicale. Nous avons utilisé un lexique de flexions, dérivations et synonymes de mots spécifiquement créé pour le domaine médical, issu de la base de connaissances "Aide au Diagnostic Médical". Nous avons exploité les mots composés et les associations de mots de ce lexique pour optimiser l'indexation d'une phrase en mots de référence. Nous avons créé un outil d'indexation permettant de reconnaître un concept d'un thésaurus médical dans une phrase en langage naturel. Nous avons ainsi pu indexer des documents médicaux par un ensemble de concepts, ensuite nous avons démontré l'utilité d'une telle indexation en développant un système de recherche d'information et divers outils: extraction de mots-clés, similarité de documents et synthèse automatique de documents. Cette indexation diminue considérablement la complexité de la représentation des connaissances contenues dans les documents en langage naturel. Les résultats des évaluations montrent que cette indexation conserve néanmoins la majeure partie de l'information sémantique.
34

Knowledge Base Population based on Entity Graph Analysis / Peuplement d'une base de connaissance fondé sur l'exploitation d'un graphe d'entités

Rahman, Md Rashedur 17 April 2018 (has links)
Le peuplement de base de connaissance (KBP) est une tâche importante qui présente de nombreux défis pour le traitement automatique des langues. L'objectif de cette tâche est d'extraire des connaissances de textes et de les structurer afin de compléter une base de connaissances. Nous nous sommes intéressés à la reconnaissance de relations entre entités. L'extraction de relations (RE) entre une paire de mentions d'entités est une tâche difficile en particulier pour les relations en domaine ouvert. Généralement, ces relations sont extraites en fonction des informations lexicales et syntaxiques au niveau de la phrase. Cependant, l'exploitation d'informations globales sur les entités n'a pas encore été explorée. Nous proposons d'extraire un graphe d'entités du corpus global et de calculer des caractéristiques sur ce graphe afin de capturer des indices des relations entre paires d'entités. Pour évaluer la pertinence des fonctionnalités proposées, nous les avons testées sur une tâche de validation de relation dont le but est de décider l'exactitude de relations extraites par différents systèmes. Les résultats expérimentaux montrent que les caractéristiques proposées conduisent à améliorer les résultats de l'état de l'art. / Knowledge Base Population (KBP) is an important and challenging task specially when it has to be done automatically. The objective of KBP task is to make a collection of facts of the world. A Knowledge Base (KB) contains different entities, relationships among them and various properties of the entities. Relation extraction (RE) between a pair of entity mentions from text plays a vital role in KBP task. RE is also a challenging task specially for open domain relations. Generally, relations are extracted based on the lexical and syntactical information at the sentence level. However, global information about known entities has not been explored yet for RE task. We propose to extract a graph of entities from the overall corpus and to compute features on this graph that are able to capture some evidence of holding relationships between a pair of entities. In order to evaluate the relevance of the proposed features, we tested them on a task of relation validation which examines the correctness of relations that are extracted by different RE systems. Experimental results show that the proposed features lead to outperforming the state-of-the-art system.
35

Analyse d'évaluations en résumé automatique : proposition d'une terminologie française, description des paramètres expérimentaux et recommandations

Goulet, Marie-Josée 13 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2007-2008. / Cette thèse porte sur l'évaluation des résumés automatiques. Ce sujet présente deux problèmes majeurs. Premièrement, la terminologie utilisée dans les évaluations de résumés automatiques comporte de nombreuses lacunes, tant en anglais qu'en français. Plus précisément, un même mot est parfois utilisé pour désigner plus d'un concept et certains concepts ne sont pas dénommés adéquatement. En outre, certains termes sont vagues et certains termes sont inappropriés. Afin de remédier à ce problème, un lexique de vingt-deux termes français pour la présentation des résultats d'évaluation de résumés automatiques a été élaboré. Le deuxième problème est l'absence d'un modèle pour la présentation des résultats d'évaluation de résumés automatiques. Par conséquent, les résultats ne sont pas présentés de la même manière d'un article à l'autre. Qui plus est, de nombreux chercheurs omettent des informations importantes lors de la présentation de leurs résultats d'évaluation, par exemple le nombre de juges qui ont évalué les résumés automatiques. Toutefois, l'élaboration d'un modèle de l'évaluation des résumés automatiques requiert une étude empirique d'assez grande envergure sur le sujet. Dans cette thèse, une analyse approfondie de vingt-sept évaluations de résumés automatiques a été effectuée, ce qui constitue la plus vaste étude jamais conduite sur ce sujet. Lors de cette analyse, toutes les informations pertinentes par rapport au déroulement de l'évaluation ont été retenues dans chacune des vingt-sept expériences du corpus. Ces informations, nommées paramètres expérimentaux, ont été classées en vingt-cinq grandes catégories, plus précisément : 1. quatre paramètres sur les textes sources ; 2. six paramètres sur les résumés automatiques évalués ; 3. sept paramètres sur les résumés de comparaison ; 4. huit paramètres sur les méthodes et les critères d'évaluation. Au terme de l'analyse, quarante-cinq recommandations pour la présentation des résultats d'évaluation de résumés automatiques ont été formulées. Les outils mis en place dans cette thèse, soit la terminologie française, les résultats d'analyse et les recommandations, pourront être utilisés par les chercheurs désirant évaluer leurs résumés automatiques. De plus, ils pourront bientôt être mis à contribution pour le démarrage d'une campagne d'évaluation internationale des résumés automatiques français.
36

Méthodes d'évaluation en extraction d'information ouverte

Lamarche, Fabrice 08 1900 (has links)
L’extraction d’information ouverte (OIE) est un domaine du traitement des langues naturelles qui a pour but de présenter les informations contenues dans un texte dans un format régulier permettant d’organiser, d’analyser et de réfléchir ces informations. De nombreux systèmes d’OIE existent et sont proposés, revendiquant des performances de plus en plus proches d’un idéal. Dans les dernières années, beaucoup de ces systèmes utilisent des architectures neuronales et leurs auteurs affirment être plus performant sur cette tâche que les méthodes précédentes. Afin d’établir ces performances et de les comparer les unes aux autres, il est nécessaire d’utiliser une référence. Celles-ci ont également évolué dans le temps et se veulent précises, objectives et proches de la réalité. Dans ce mémoire, nous proposons une nouvelle référence permettant de remédier à certaines limitations potentielles des méthodes d’évaluation actuelles. Cette référence comprend deux composantes principales soit une annotations manuelles de phrases candidates et une fonction permettant d’établir la concordance syntaxique entre différents faits extraits et annotés. De plus, nous proposons de nouvelles lignes directrice pour encadrer et mieux définir la tâche d’extraction d’information ouverte elle-même, ce qui permet de mieux quantifier et mesurer la quantité d’informations pertinentes extraites par les systèmes d’OIE. Nos expériences démontrent que notre référence suit de plus près ces lignes directrices que les références précédentes ,qu’elle parvient à mieux juger de la concordances entre les faits extraits et les faits annotés et qu’elle est plus souple dans son approche que la référence qui est à ce jour l’état de l’art. Notre nouvelle référence permet de tirer des conclusions intéressantes sur les performances réelles des systèmes d’extraction d'Information ouverte, notamment sur la réelle amélioration des systèmes plus récents par rapport aux méthodes classiques. / Open Information Extraction (OIE) is a field of natural language processing whose aim is to present the information contained in a text in a regular format that allows that information to be organized, analyzed and reflected upon. Numerous OIE systems exist, claiming everincreasing levels of performance. In order to establish their performance and compare them, it is necessary to use a reference. These have also evolved over time, and are intended to be precise and objective, making it possible to identify the best-performing systems. In this thesis, we identify some of the limitations of current evaluation methods and propose a new benchmark to remedy them. This new benchmark comprises two main components : a manual annotation of candidate sentences and a function to establish syntactic concordance between different extracted and annotated facts. In addition, we propose new guidelines to frame and better define the open information extraction task itself, enabling us to better quantify and measure the amount of relevant information extracted by OIE systems. Our experiment shows that our benchmark follows these guidelines more closely than previous benchmarks, is better at judging the match between extracted and annotated facts, and is more flexible than the current state-of-the-art benchmarks. Our new benchmark allows us to draw some interesting conclusions about the actual performance of open information extraction systems. We show that the latest systems are not necessarily the best.
37

WikiGames : une plateforme de jeux dédiée à la validation d’une base de connaissances produite à partir de techniques d’extraction d’information ouverte

Forand, Kevin 08 1900 (has links)
No description available.
38

Etude et réalisation d'une méthode de transport : traduction de programmes PL 360 en LP 80

Chassagne, Claudine 26 January 1978 (has links) (PDF)
I. Presentation du traducteur PIAFTRAD : le système PIAF, adaptation du système PIAF à la traduction, fonctionnement du traducteur.<br />II. Description des problèmes de traduction : définitions et notations de base. Problèmes liés à la structure de la machine. Problèmes liés au langage. <br />III. Evaluation : résultats, perspectives d'optimisation
39

Description morphosyntaxique et sémantique des adverbes figés en vue d‟un système d‟analyse automatique des textes grecs

Stavroula, Voyatzi 06 March 2006 (has links) (PDF)
Cette recherche a pour objectif la description systématique et formelle des adverbes figés et semi-figés du grec moderne, abrégés ici en adverbes figés (i.e. κέζα ζηα άγξηα κεζάλπρηα/à l‟aube, ην κήλα πνπ δελ έρεη ΢άββαην/la semaine des quatre jeudis). Notre intention est d‟aboutir à une description aussi exhaustive et explicite que possible en vue de l‟analyse automatique de la langue grecque. La méthodologie du lexique-grammaire (M. Gross 1975, 1990a), s‟appuyant sur les principes de la grammaire transformationnelle harisienne, nous a fourni un modèle de description de la langue naturelle adéquat. Notre étude s‟articule autour de cinq parties. Dans la première partie, nous abordons les deux notions fondamentales qui véhiculent notre recherche : les notions d‟adverbe et de figement. Dans la deuxième partie, nous étudions la composition lexicale d‟un ensemble de 4 880 formes adverbiales figées, recensées à partir des sources éditées et numériques. Nous insistons particulièrement sur les différents types de variations mises en jeu ainsi que sur les problèmes que celles-ci posent lors de la représentation formalisée des adverbes dans le dictionnaire électronique morphologique et les tables du lexique-grammaire. La troisième partie traite l‟analyse syntaxico-sémantique des adverbes figés. En premier lieu, nous distinguons les adverbes figés des compléments formellement similaires mais syntaxiquement différents. En deuxième lieu, nous entreprenons l‟analyse syntaxique des phrases simples à adverbes figés et celle à adverbes de date. La quatrième partie porte sur la classification des adverbes figés, répartis en seize classes morpho-syntaxiquement distinctes. Après avoir exposé les principes théoriques qui régissent notre opération de classification, nous présentons l‟organisation des tables du lexique-grammaire des adverbes figés grecs. Les critères classificatoires, les régularités et les particularités que les classes établies comportent ainsi que les propriétés syntaxico-sémantiques des adverbes figés font également l‟objet de cette partie. La cinquième partie est consacrée à l‟exploitation de nos données linguistiques à des fins de traitement automatique des langues naturelles (TALN). Notre intérêt est focalisé sur la reconnaissance lexicale des adverbes figés et semi-figés dans les textes grecs. Nous présentons en annexe (volume 2) des échantillons représentatifs des tables du lexique-grammaire des adverbes figés et de la grammaire locale des expressions de date.
40

Les déclarations gouvernementales en Belgique (1944-1992). Étude de lexicométrie politique

Deroubaix, Jean-Claude 11 September 1997 (has links) (PDF)
Résumé Saisir la politique à travers son discours, mesurer en quelque sorte le discours politique des uns et des autres pour mieux les comparer et mettre en évidence en quoi, au-delà de la lecture immédiate et quotidiennement politique, ces discours nous renseignent sur le fonctionnement de la société, voilà les objectifs que nous nous sommes assignés tout au long de cette recherche. Le plan de l'exposé s'ajuste étroitement à la stratégie de recherche qui vise à mener de front sans jamais les confondre une réflexion sur l'objet (le vocabulaire du discours politique gouvernemental belge tel qu'il s'exprime entre 1944 et 1992 dans la déclaration liminaire à la prise de fonction d'un nouveau cabinet ministériel), sur la méthode (le choix, la critique et éventuellement la construction de méthodes qui sans être nécessairement nouvelles dans leur principe le sont dans leur mise en œuvre) et sur l'interprétation (en distinguant bien les deux sens du mot selon qu'il s'agisse de l'interprétation linguistico-socio-politique ou de l'interprétation statistique). L'application des méthodes statistiques de la lexicométrie à un corpus de textes politiques n'est pas une simple opération mécanique. En effet comme pour toute application statistique dans quelque discipline que ce soit, le fait de soumettre des “ données ” formellement bien conditionnées à une procédure ou à un ensemble de procédures statistiques, par la grâce à l'informatique, suffit à la production de résultats. On peut imaginer qu'à ce stade commence le travail du chercheur et celui du lexicologue politique en l'occurrence. Nous savons que ce patron est évidemment irréaliste, qu'une recherche se construit et que, d'une certaine façon, elle demeure indissociable d'une réflexion sur les méthodes et sur l'interprétation. Dans cette recherche-ci en particulier, la découverte de la dominance d'un facteur temporel dans la structuration du vocabulaire politique gouvernemental nous a mené à définir une méthode spécifique pour mettre en évidence ce facteur, pour essayer de l'analyser et de comprendre le processus d'évolution du langage politique qui lui est sous-jacent. Ainsi, la production de ce résultat de lexicologie politique a-t-il été indissociable d'une réflexion sur les problèmes de méthodes d'analyse du vocabulaire. La recherche de la structure du vocabulaire des coalitions gouvernementales s'est faite en construisant, pas à pas, une méthode. Le choix des méthodes est intrinsèquement lié au projet de recherche. Nous avons tenu à expliciter à chaque fois pourquoi nous utilisions une méthode et en quoi celle-ci permettait d'atteindre nos objectifs de manière efficace. Nous étions parti de l'hypothèse que le champ lexical des discours gouvernementaux était essentiellement parcouru par les lignes de force principales du domaine politique en régime de démocratie représentative de masse, c'est-à-dire les lignes de force qu'engendre la polarisation entre la gauche et la droite politique, ou celles que définissent en Belgique les polarisations communautaires (entre Flamands et francophones) et philosophiques (entre catholiques et laïques), nous avons cependant conclu à la continuité gouvernementale comme ligne principale de structuration du vocabulaire. Les textes des déclarations des gouvernements belges écrits et prononcés pour obtenir la confiance des Chambres législatives au moment de l'entrée en fonction d'un nouveau cabinet entre 1944 et 1992 forment une série chronologique textuelle lorsqu'ils sont étudiés du point de vue de la distribution du vocabulaire. Les gouvernants puisent dans plusieurs stocks lexicaux pour faire leur déclaration : Un stock est commun à toutes les déclarations et caractérise la déclaration gouvernementale comme genre de littérature politique, stock dont on peut penser que le segment “ le gouvernement qui se présente devant vous ” et la forme “ confiance ” sont de bons représentants ; à coté de ce stock lexical commun subsistent plusieurs autres stocks qui fournissent durant des périodes déterminées leur lot de vocabulaire. C'est la mise en évidence de ces vocabulaires plus fréquemment employés durant une période déterminée qui nous conduisit à qualifier ce corpus de “ chronique textuelle ”. Le cheminement de la recherche nous a tout d'abord conduit à mettre en œuvre l'analyse factorielle des correspondances et des méthodes de classification automatique. L'abandon de notre hypothèse d'un champ lexical principalement polarisé entre la gauche et la droite au profit d'une hypothèse de structuration temporelle du corpus découle de l'AFC du tableau lexical (tronqué en ne retenant que les formes de fréquence supérieure ou égale à 10) qui révèle un effet “ Gutmann ” sensible sur le plan des axes 1 et 2 (forme en S des projections des points-déclarations). Cet aspect de chronique textuelle est confirmé par la comparaison entre l'ordre naturel de rédaction des déclarations et celui de leur représentation sur le premier axe. Une première définition du contenu lexical de la structure temporelle est proposée grâce à l'étude de la répartition des formes. L'hypothèse d'un effet temporel dévoilé par l'analyse factorielle est mis en évidence aussi à travers les méthodes de classification. Ces méthodes ont permis d'affiner la caractérisation des lignes de forces dégagées par l'analyse factorielle en fournissant des typologies de vocabulaire, en répartissant en classes disjointes les différentes sortes de vocabulaire selon leur fréquence d'usage par les gouvernements successifs. Certaines de ces classes de vocabulaire peuvent être envisagées comme des pots communs, des urnes spécialisées ou générales dans lesquelles ont puisé les gouvernements pour bâtir leur discours. Pour détecter les classes de vocabulaire responsables de l'aspect chronologique, nous avons construit une méthode de classification qui tient compte de la connexité deux à deux des déclarations. Ce qui a permis de distinguer les classes de vocabulaire dont l'usage a varié dans le temps, des classes de vocabulaires d'usage stable ou d'usage accidentel. Nous avons dès lors pu proposer un mode de fonctionnement du renouvellement du vocabulaire des discours gouvernementaux qui puisse rendre compte de la chronologicité de l'ensemble. L'intérêt des méthodes utilisées pour aboutir à ce diagnostic et à cette hypothèse de fonctionnement est d'utiliser peu d'hypothèses a priori tant du point de vue statistique (car les méthodes utilisées appartiennent essentiellement au domaine de la statistique descriptive) que du point de vue de la production sociolinguistique (ou politico-linguistique). Guidée par les données lexicales du corpus, notre démarche n'exclut cependant pas une volonté de définir des méthodes applicables à d'autres corpus. La démarche nous semble exportable : choisir (ou construire) la méthode qui permettra de mettre en évidence plus clairement, plus précisément les phénomènes étonnants déjà découverts, et cela au fur et à mesure du dévoilement des structures, des avancées partielles dans la compréhension. Dans la pratique, cette démarche n'a rien de linéaire. D'autres voies ont été envisagées ; nous avons tenu, dans un chapitre consacré aux expériences, à rendre compte d'au moins l'une d'entre elles : l'usage des distances de Levenshtein pour mesurer la “ dissemblance ” entre textes de déclarations en fonction de la manière dont les formes sont agencées dans le discours. Il nous semble qu'au prix de modifications dans l'application, il émerge peut-être un point de vue statistique intéressant sur le vocabulaire et sa mise en œuvre attestée dans un corpus. Enfin, un dernier apport consiste dans ce qui pourrait paraître, assez secondaire : la mise au point d'une méthode standardisée de choix des exemples qui satisfasse à des critères statistiques (les exemples doivent contenir beaucoup de formes appartenant à la liste à illustrer) et contribue à l'interprétation (en mettant en évidence, les formes d'intérêt dans le segment exemplaire). L'outil de recherche d'un exemple proposé doit être considéré comme une généralisation des concordanciers et autres outils de mise en évidence de contextes car il s'agit d'une méthode de visualisation de contextes communs à plusieurs formes lexicales. Le diagnostic de “ chronologicité ” est déduit d'un travail statistique d'analyse du vocabulaire; nous en proposons aussi une interprétation. Plusieurs facteurs concourent à “ fabriquer ” le caractère chronologique du corpus : le rituel de l'énonciation, la mission dévolue au gouvernement et le mode de composition du gouvernement, chacun de ces facteurs n'étant pas indépendant des autres. Le rituel de l'énonciation est un facteur de détermination de la déclaration gouvernementale comme style de discours politique ; il contribue au moins partiellement à la constitution du stock lexical commun. À ce titre, son action devrait être neutre du point de vue de la chronologicité. Toutefois, le rituel de la présentation officielle du gouvernement devant les chambres (qui représentent la nation) implique que le discours soit un discours rassembleur qui s'adresse à la totalité des électeurs et pas seulement à ceux qui ont voté pour la majorité. Ce discours, par définition, se doit de gommer les éléments partisans qui sont présents dans les discours électoraux. De ce fait, ce discours va puiser une partie de ses thèmes dans l'actualité politique, dans les problèmes politiques du moment, mais en mobilisant le vocabulaire commun en usage dans l'ensemble du monde politique pendant la période qui a précédé sa demande de confiance et non un vocabulaire partisan. Les problèmes liés à la guerre, à la mise en place de la Sécurité sociale, à la “ crise ” énergétique, à la transformation institutionnelle n'ont jamais été résolus le temps d'un seul gouvernement. On conçoit donc qu'ils induisent des effets de périodisation dans le vocabulaire du corpus : plusieurs gouvernements successifs vont s'y référer jusqu'à ce qu'ils disparaissent provisoirement ou définitivement de la liste des problèmes de l'heure. Le rituel conduit à diminuer l'impact du lexique partisan dans le discours de présentation, mais il favorise l'émergence d'un vocabulaire caractéristique de la période politique. Sans l'imposer, le rituel implique donc une mise en retrait des aspects partisans du programme politique. Le rôle dévolu au gouvernement comme représentant de l'État renforce cette pression sur l'effacement, dans le discours inaugural, de l'idéologie partisane. Au nom de la continuité de l'État, il conduit à utiliser le vocabulaire des gouvernements précédents pour marquer cette volonté de permanence dans la gestion des problèmes du moment. La contrainte de gestion “ raisonnable ” des affaires d'État, que s'imposent les gouvernements, aligne le discours sur l'actualité politique plutôt que sur la mise en œuvre d'un bouleversement idéologique. Enfin, les cabinets qui ont été investis de l'autorité exécutive durant la période 1944-1992 ont été essentiellement des cabinets de coalition. L'atténuation des programmes est le propre de la discussion autour de la formation d'un gouvernement, la recherche du compromis l'impose. Sans oublier qu'il n'est pas inutile de laisser du flou dans le programme de gouvernement, de recourir donc plus à l'énoncé des problèmes à prendre en considération qu'à la proposition de solutions concrètes. Ceci favorise encore la reprise des thèmes d'actualité et leur vocabulaire plus que la mobilisation d'un vocabulaire partisan. La périodisation du corpus répond donc à une périodisation de la vie politique belge autour de thèmes imposés par la situation sociale, économique, communautaire ainsi que par la situation internationale. La politique partisane est peu présente dans le discours gouvernemental car elle s'exprime dans le discours des partis et dans celui des parlementaires. Le gouvernement unifie le discours partisan dominant. La présence quasi constante dans l'exécutif d'une famille politique (les partis catholiques) inhibe les ruptures ; cette famille se succède à elle-même, ne se désavoue pas et fait du discours gouvernemental un discours “ neutralisé ”. Ceci ne signifie nullement que l'action du gouvernement soit neutre. L'idéologie bien entretenue d'un discours gouvernemental empreint de raison, responsable et qui place l'intérêt de l'État et de la Nation au-dessus des querelles de partis est éminemment favorable aux partis qui se réclament du centre (comme les partis sociaux-chrétiens) au détriment de leurs partenaires plus marqués dans le champ politique traditionnel (libéraux et socialistes) ou communautaire (Volksunie, FDF, Rassemblement wallon). L'exposé de programme gouvernemental se distingue du discours partisan en ce qu'il prétend réunir la totalité de la nation dans un projet commun, laissant au discours partisan le rôle de réunir les électeurs du parti autour d'un programme d'éventuel “ projet commun ”. Les vocabulaires utilisés portent la marque de cette division politique des tâches. En somme, transparaissent dans le discours gouvernemental les éléments, les mots, d'une “ culture ” politique commune aux milieux dirigeants. Cette “ culture ” qui transcende les différences entre partis évolue surtout sous la poussée de la transformation de la société et en fonction des mutations politiques extérieures surtout en Belgique, petit pays soumis aux influences de nations plus puissantes.

Page generated in 0.0784 seconds