Spelling suggestions: "subject:"erreurs."" "subject:"horreurs.""
181 |
Contrôle d'Accès et Présentation Contextuels pour le Web des DonnéesCostabello, Luca 29 November 2013 (has links) (PDF)
La thèse concerne le rôle joué par le contexte dans l'accès au Web de données depuis les dispositifs mobiles. Le travail analyse ce problème de deux points de vue distincts: adapter au contexte la présentation de données liées, et protéger l'accès aux bases des donnés RDF depuis les dispositifs mobiles. La première contribution est PRISSMA, un moteur de rendu RDF qui étend Fresnel avec la sélection de la meilleure représentation pour le contexte physique ou on se trouve. Cette opération est effectuée par un algorithme de recherche de sous-graphes tolérant aux erreurs basé sur la notion de distance d'édition sur les graphes. L'algorithme considère les différences entre les descriptions de contexte et le contexte détecté par les capteurs, supporte des dimensions de contexte hétérogènes et est exécuté sur le client pour ne pas révéler des informations privées. La deuxième contribution concerne le système de contrôle d'accès Shi3ld. Shi3ld supporte tous les triple stores et il ne nécessite pas de les modifier. Il utilise exclusivement les langages du Web sémantique, et il n'ajoute pas des nouveaux langages de définition de règles d'accès, y compris des analyseurs syntaxiques et des procédures de validation. Shi3ld offre une protection jusqu'au niveau des triplets. La thèse décrit les modèles, algorithmes et prototypes de PRISSMA et de Shi3ld. Des expériences montrent la validité des résultats de PRISSMA ainsi que les performances au niveau de mémoire et de temps de réponse. Le module de contrôle d'accès Shi3ld a été testé avec différents triple stores, avec et sans moteur SPARQL. Les résultats montrent l'impact sur le temps de réponse et démontrent la faisabilité de l'approche.
|
182 |
Les Codes LDPC non-binaires de nouvelle génération / Development of new generation non-binary LDPC error correcting codesShams, Bilal 08 December 2010 (has links)
Dans cette thèse, nous présentons nos travaux dans le domaine de l'algorithme de décodage non-binaire pour les classes générales de codes LDPC non-binaires. Les Low-Density Parity-Check (LDPC) codes ont été initialement présentés par Gallager en 1963, et après quelques avancées théoriques fondamentales, ils ont été pris en compte dans les normes comme le DVB-S2, WI-MAX, DSL, W-LAN etc. Plus tard, Les codes LDPC non-binaires (NB-LDPC) ont été proposés dans la littérature, et ont montré de meilleures performances lorsque la taille du code est petite ou lorsqu'il est utilisé sur des canaux non-binaires. Toutefois, les avantages de l'utilisation des codes LDPC non-binaires entrainent une complexité de décodage fortement accrue. Pour un code défini dans GF (q), la complexité est de l'ordre O(q^2). De même, la mémoire nécessaire pour stocker les messages est d'ordre O(q). Par conséquent, l'implémentation d'un décodeur LDPC-définie sur un ordre q> 64 devient pratiquement impossible.L'objectif principal de la thèse est de développer des algorithmes a complexité réduite, pour les codes LDPC non-binaires qui démontrent un rendement excellent et qui soient implémentable. Pour optimiser les performances de décodage, non seulement l'algorithme de décodage est important, mais aussi la structure du code joue un rôle important. Avec cet objectif à l'esprit, une nouvelle famille de codes appelés codes cluster-NB-LDPC a été élaboré et des améliorations spécifiques du décodeur NB pour les codes de cluster-NB-LDPC ont été proposés. Notre principal résultat est que nous étions en mesure de proposer des décodeurs de codes cluster-NB-LDPC avec une complexité réduite par rapport à décodeurs d'habitude pour les codes LDPC-NB sur les corps de Galois, sans aucune perte de performance en matière de la capacité de correction d'erreur. / In this thesis we present our work in the domain of non-binary decoding algorithm for general classes of non-binary LDPC codes. Low-Density Parity-Check (LDPC) codes were originally presented by Gallager in 1963, and after some fundamental theoretical advancements, they were considered in standards like DVB-S2, WI-MAX, DSL, W-LAN etc. Later on, non-binary LDPC (NB-LDPC)codes were proposed in the litterature, and showed better performance for small lengths or when used on non-binary channels. However, the advantages of using NB-LDPC codes comes with the consequence of an heavily increased decoding complexity. For a code defined in GF(q), the complexity is of the order O(q^2). Similarly, the memory required for storing messages is of order O(q). Consequently, the implementation of an LDPC-decoder defined over a field order q > 64 becomes practically impossible.The main objective of the thesis is to develop reduced complexity algorithms for non-binary LDPC codes that exhibit excellent performance and is practically im-plementable. For better decoding performance, not only the decoding algorithm is important, but also the structure of the code plays an important role. With this goal in mind, a new family of codes called cluster-NB-LDPC codes was developped and specific improvements of the NB decoder for cluster-NB-LDPC codes were proposed. Our principal result is that we were able to propose decoders for cluster-NB-LDPC codes with reduced complexity compared to usual decoders for NB-LDPC codes on fields, without any performance loss in error correction capability.
|
183 |
Sur les tests de type diagnostic dans la validation des hypothèses de bruit blanc et de non corrélationSango, Joel 09 1900 (has links)
Dans la modélisation statistique, nous sommes le plus souvent amené à supposer que le phénomène étudié est généré par une structure pouvant s’ajuster aux données observées. Cette structure fait apparaître une partie principale qui représente le mieux possible le phénomène étudié et qui devrait expliquer les données et une partie supposée négligeable appelée erreur ou innovation. Cette structure complexe est communément appelée un modèle, dont la forme peut être plus ou moins complexe. Afin de simplifier la structure, il est souvent supposé qu’elle repose sur un nombre fini de valeurs, appelées paramètres. Basé sur les données, ces paramètres sont estimés avec ce que l’on appelle des estimateurs. La qualité du modèle pour les données à notre disposition est également fonction des estimateurs et de leurs propriétés, par exemple, est-ce que les estimateurs sont raisonnablement proches des valeurs idéales, c’est-à-dire les vraies valeurs. Des questions d’importance portent sur la qualité de l’ajustement d’un modèle aux données, ce qui se fait par l’étude des propriétés probabilistes et statistiques du terme d’erreur. Aussi, l’étude des relations ou l’absence de ces dernières entre les phénomènes sous des hypothèses complexes sont aussi d’intérêt. Des approches possibles pour cerner ce genre de questions consistent dans l’utilisation des tests portemanteaux, dits également tests de diagnostic.
La thèse est présentée sous forme de trois projets. Le premier projet est rédigé en langue anglaise. Il s’agit en fait d’un article actuellement soumis dans une revue avec comité de lecture. Dans ce projet, nous étudions le modèle vectoriel à erreurs multiplicatives (vMEM) pour lequel nous utilisons les propriétés des estimateurs des paramètres du modèle selon la méthode des moments généralisés (GMM) afin d’établir la distribution asymptotique des autocovariances résiduelles. Ceci nous permet de proposer des nouveaux tests diagnostiques pour ce type de modèle. Sous l’hypothèse nulle d’adéquation du modèle, nous montrons que la statistique usuelle de Hosking-Ljung-Box converge vers une somme pondérée de lois de khi-carré indépendantes à un degré de liberté. Un test généralisé de Hosking-Ljung-Box est aussi obtenu en comparant la densité spectrale des résidus de l’estimation et celle présumée sous l’hypothèse
nulle. Un avantage des tests spectraux est qu’ils nécessitent des estimateurs qui convergent à la vitesse n−1/2 où n est la taille de l’échantillon, et leur utilisation n’est pas restreinte à une technique particulière, comme par exemple la méthode
des moments généralisés. Dans le deuxième projet, nous établissons la distribution asymptotique sous l’hypothèse de faible dépendance des covariances croisées de deux processus stationnaires en covariance. La faible dépendance ici est définie en terme de l’effet limité d’une observation donnée sur les observations futures. Nous utilisons la notion de stabilité et le concept de contraction géométrique des moments. Ces conditions sont plus générales que celles de l’invariance des moments conditionnels d’ordre un à quatre utilisée jusque là par plusieurs auteurs. Un test statistique
basé sur les covariances croisées et la matrice des variances et covariances de leur distribution asymptotique est alors proposé et sa distribution asymptotique établie. Dans l’implémentation du test, la matrice des variances et covariances des covariances croisées est estimée à l’aide d’une procédure autorégressive vectorielle robuste à l’autocorrélation et à l’hétéroscédasticité. Des simulations sont ensuite effectuées pour étudier les propriétés du test proposé. Dans le troisième projet, nous considérons un modèle périodique multivarié et cointégré. La présence de cointégration entraîne l’existence de combinaisons linéaires périodiquement stationnaires des composantes du processus étudié. Le nombre de ces combinaisons linéaires linéairement indépendantes est appelé rang de cointégration. Une méthode d’estimation en deux étapes est considérée. La première méthode est appelée estimation de plein rang. Dans cette approche, le
rang de cointégration est ignoré. La seconde méthode est appelée estimation de rang réduit. Elle tient compte du rang de cointégration. Cette dernière est une approche non linéaire basée sur des itérations dont la valeur initiale est l’estimateur
de plein rang. Les propriétés asymptotiques de ces estimateurs sont aussi établies. Afin de vérifier l’adéquation du modèle, des statistiques de test de type portemanteau sont considérées et leurs distributions asymptotiques sont étudiées. Des simulations sont par la suite présentées afin d’illustrer le comportement du test proposé. / In statistical modeling, we assume that the phenomenon of interest is generated by a model that can be fitted to the observed data. The part of the phenomenon not explained by the model is called error or innovation. There are two parts in the model. The main part is supposed to explain the observed data, while the unexplained part which is supposed to be negligible is also called error or innovation. In order to simplify the structures, the model are often assumed to rely on a finite set of parameters. The quality of a model depends also on the parameter estimators and their properties. For example, are the estimators relatively close to the true parameters ? Some questions also address the goodness-of-fit of
the model to the observed data. This question is answered by studying the statistical and probabilistic properties of the innovations. On the other hand, it is also of interest to evaluate the presence or the absence of relationships between the
observed data. Portmanteau or diagnostic type tests are useful to address such issue. The thesis is presented in the form of three projects. The first project is written in English as a scientific paper. It was recently submitted for publication. In that project, we study the class of vector multiplicative error models (vMEM). We use the properties of the Generalized Method of Moments to derive the asymptotic distribution of sample autocovariance function. This allows us to propose a new test statistic. Under the null hypothesis of adequacy, the asymptotic distributions of the popular Hosking-Ljung-Box (HLB) test
statistics are found to converge in distribution to weighted sums of independent chi-squared random variables. A generalized HLB test statistic is motivated by comparing a vector spectral density estimator of the residuals with the spectral density calculated under the null hypothesis. In the second project, we derive the asymptotic distribution under weak dependence of cross covariances of covariance stationary processes. The weak dependence is defined in term of the limited effect of a given information on future observations. This recalls the notion of stability and geometric moment contraction. These conditions of weak dependence defined here are more general than the invariance of conditional moments used by many authors. A test statistic based on cross covariances is proposed and its asymptotic distribution is established. In the elaboration of the test statistics, the covariance matrix of the cross covariances is obtained from a vector autoregressive procedure robust to autocorrelation and heteroskedasticity. Simulations are also carried on to study the properties of the proposed test and also to compare it to existing tests. In the third project, we consider a cointegrated periodic model. Periodic models are present in the domain of meteorology, hydrology and economics. When modelling many processes, it can happen that the processes are just driven by a common trend. This situation leads to spurious regressions when the series are integrated but have some linear combinations that are stationary. This is called cointegration. The number of stationary linear combinations that are linearly independent is called cointegration rank. So, to model the real relationship between the processes, it is necessary to take into account the cointegration rank. In the
presence of periodic time series, it is called periodic cointegration. It occurs when time series are periodically integrated but have some linear combinations that are periodically stationary. A two step estimation method is considered. The first
step is the full rank estimation method that ignores the cointegration rank. It provides initial estimators to the second step estimation which is the reduced rank estimation. It is non linear and iterative. Asymptotic properties of the estimators
are also established. In order to check for model adequacy, portmanteau type tests and their asymptotic distributions are also derived and their asymptotic distribution are studied. Simulation results are also presented to show the behaviour of the proposed test.
|
184 |
Approche cognitive en didactique des langues : analyse et interprétation d'erreurs écrites prototypiques en français langue étrangère par des apprenants chinois et remédiation / A cognitive approach to language learning : an analysis and interpretation of chinese learners’ writing prototypical errors in french as a foreign language and remedial work / 认知角度的语言教学 : 从中国学生法语学习的典型错误分析及对策出发Ying, Xiaohua 14 June 2013 (has links)
Notre thèse est une thèse de linguistique française. Elle a pour but d’analyser et d’interpréter les erreurs à l’écrit en FLE par des apprenants chinois aux niveaux débutant et intermédiaire, de proposer un processus de remédiation aux erreurs récurrentes ayant un certain degré de prototypie et de procurer une meilleure méthodologie en didactique du FLE en Chine. L’erreur n’est pas un item à corriger qui implique le remplacement par une forme correcte, mais un révélateur significatif qui nous permet d’entrevoir le processus d’apprentissage chez l’apprenant. Notre analyse d’erreurs adopte donc une dimension cognitive. Du point de vue théorique, elle porte sur l’analyse linguistique des erreurs ; du point de vue pratique, elle porte sur la remédiation envisageable comprenant à la fois une micro-remédiation qui recherche la motivation linguistique permettant de faciliter l’apprentissage des points langue et une macro-remédiation qui vise à promouvoir une approche cognitive en didactique du FLE afin de doter l’apprenant d’une compétence métacognitive et de le transformer en sujet de l’apprentissage. / This is a PhD dissertation in French linguistics. The main purpose of this dissertation is to analyse and interpret the error made by Chinese primary or intermediate learners, to propose some remedial measures for those recurring and prototypical errors, and to provide a better teaching methodology in teaching French as a foreign language in China. An error is not only an item to be replaced by a correct form, but a significant revealer which allows us to glimpse the learning process of learners. This thesis is to adopt a cognitive approach. From a theoretical point of view, it concerns the linguistic analysis of errors; from a practical point of view, it concerns feasible remedial measures which comprise a micro-remediation and a macro-remediation. The former studies the language motivation in order to make language learning easier and the latter seeks to promote a cognitive approach in teaching in order to train the metacognitive learner and to transform the learner into the subject of learning. / 本论文是一篇法语语言学方向的博士论文,旨在分析和阐释中国法语学习者语言错误,对学习者常犯的、具有典型性的错误寻求解决对策,并找到适合中国学生法语学习的教学法。我们的研究以初级和中级水平的法语学习者的写作错误为对象。错误不是一个只需用正确形式代替或“订正”的内容,它为我们探究学习过程提供了可能,具有重要意义。论文从认知角度对错误进行分析和阐述,并寻找错误解决的可行性对策,具有理论和实践的双重意义。对错误的对策研究从微观和宏观两方面展开:前者针对学习者的主要错误,寻找相关语言点的语言理据,力求降低学习难度;后者提倡在法语外语教学中推行认知教学法,培养学习者的元认知能力,使学习者转变为学习过程的主体。
|
185 |
Analyse matricielle définitoire : outil linguistique au service de la conception d’un programme de traduction pour des étudiants de langues étrangères / Defining Matrix Analysis : A language tool used to design a translation programme for foreign language studentsSello, Kagiso Jacob 05 March 2013 (has links)
Notre constat de départ est que malgré un intérêt croissant des institutions enseignant les langues étrangères pour l’enseignement de la traduction, il n’existe à notre connaissance aucune étude portant sur la conception d’un programme de traduction professionnelle adapté à des apprenants de langues étrangères qui leur permettrait d’acquérir la compétence traductionnelle, c’est-à-dire les savoirs et savoir-faire nécessaires au traducteur en contexte professionnel. Ces institutions confondent souvent l’enseignement de la traduction et la traduction utilisée comme outil d’enseignement des langues étrangères. Le programme de traduction de l’université du Botswana ne fait pas exception, et nous proposons donc de le reconceptualiser afin qu’il réponde aux exigences de la profession. Par la mise à l’épreuve du modèle de l’analyse matricielle définitoire, outil linguistique destiné à interpréter et comparer la manière dont les langues naturelles construisent le sens, la présente thèse se propose de déceler les paramètres de l’environnement d’apprentissage sur lesquels une intervention est requise pour améliorer la qualité du programme et le rendre plus efficace. Pour ce faire, nous analyserons les erreurs de traduction commises par les étudiants qui suivent ce programme en vue d’en identifier les sources et de prendre les mesures destinées à en réduire la probabilité d’occurrence par la définition d’objectifs d’apprentissage adaptés à ce public, accompagnés des bases d’une solide assise théorique à destination de l’enseignant. / Our initial observation is that, in spite of the growing interest in teaching translation in institutions offering foreign language programmes, no study, to our knowledge, has been done on the designing of a professional translation programme appropriate for foreign language learners which could allow them to acquire translation competence, that is, knowledge and skills required by translators in a professional setting. These institutions often confuse teaching of translation and use of translation as a foreign language teaching tool. The translation programme of the University of Botswana is no exception, and we therefore propose to redesign it so that it can respond to the requirements of the profession. By putting to test the Defining Matrix Analysis model, a linguistic tool intended to interpret and compare the way natural languages construct sense, this thesis proposes to find the parameters of the learning environment on which an intervention is required in order to improve the quality and the efficiency of this programme. To achieve this goal, we are going to analyse translation errors made by students who are pursuing this translation programme with the aim of identifying their sources and taking measures destined to reduce their probability of occurrence by defining learning objectives adapted to this group of learners, accompanied by a solid theoretical basis for teachers.
|
186 |
Réseaux de neurones profonds appliqués à la compréhension de la parole / Deep learning applied to spoken langage understandingSimonnet, Edwin 12 February 2019 (has links)
Cette thèse s'inscrit dans le cadre de l'émergence de l'apprentissage profond et aborde la compréhension de la parole assimilée à l'extraction et à la représentation automatique du sens contenu dans les mots d'une phrase parlée. Nous étudions une tâche d'étiquetage en concepts sémantiques dans un contexte de dialogue oral évaluée sur le corpus français MEDIA. Depuis une dizaine d'années, les modèles neuronaux prennent l'ascendant dans de nombreuses tâches de traitement du langage naturel grâce à des avancées algorithmiques ou à la mise à disposition d'outils de calcul puissants comme les processeurs graphiques. De nombreux obstacles rendent la compréhension complexe, comme l'interprétation difficile des transcriptions automatiques de la parole étant donné que de nombreuses erreurs sont introduites par le processus de reconnaissance automatique en amont du module de compréhension. Nous présentons un état de l'art décrivant la compréhension de la parole puis les méthodes d'apprentissage automatique supervisé pour la résoudre en commençant par des systèmes classiques pour finir avec des techniques d'apprentissage profond. Les contributions sont ensuite exposées suivant trois axes. Premièrement, nous développons une architecture neuronale efficace consistant en un réseau récurent bidirectionnel encodeur-décodeur avec mécanisme d’attention. Puis nous abordons la gestion des erreurs de reconnaissance automatique et des solutions pour limiter leur impact sur nos performances. Enfin, nous envisageons une désambiguïsation de la tâche de compréhension permettant de rendre notre système plus performant. / This thesis is a part of the emergence of deep learning and focuses on spoken language understanding assimilated to the automatic extraction and representation of the meaning supported by the words in a spoken utterance. We study a semantic concept tagging task used in a spoken dialogue system and evaluated with the French corpus MEDIA. For the past decade, neural models have emerged in many natural language processing tasks through algorithmic advances or powerful computing tools such as graphics processors. Many obstacles make the understanding task complex, such as the difficult interpretation of automatic speech transcriptions, as many errors are introduced by the automatic recognition process upstream of the comprehension module. We present a state of the art describing spoken language understanding and then supervised automatic learning methods to solve it, starting with classical systems and finishing with deep learning techniques. The contributions are then presented along three axes. First, we develop an efficient neural architecture consisting of a bidirectional recurrent network encoder-decoder with attention mechanism. Then we study the management of automatic recognition errors and solutions to limit their impact on our performances. Finally, we envisage a disambiguation of the comprehension task making the systems more efficient.
|
187 |
Systèmes de numérisation hautes performances – Architectures robustes adaptées à la radio cognitive. / High performance digitization systems - robust architecture adapted to the cognitive radioSong, Zhiguo 17 December 2010 (has links)
Les futures applications de radio cognitive requièrent des systèmes de numérisation capables de convertir alternativement ou simultanément soit une bande très large avec une faible résolution soit une bande plus étroite avec une meilleure résolution, ceci de manière versatile (i.e. par contrôle logiciel). Pour cela, les systèmes de numérisation basés sur les Bancs de Filtres Hybrides (BFH) sont une solution attractive. Ils se composent d'un banc de filtres analogiques, un banc de convertisseurs analogique-numérique et un banc de filtres numériques. Cependant, ils sont très sensibles aux imperfections analogiques. L'objectif de cette thèse était de proposer et d’étudier une méthode de calibration qui permette de corriger les erreurs analogiques dans la partie numérique. De plus, la méthode devait être implémentable dans un système embarqué. Ce travail a abouti à une nouvelle méthode de calibration de BFH utilisant une technique d'Égalisation Adaptative Multi-Voies (EAMV) qui ajuste les coefficients des filtres numériques par rapport aux filtres analogiques réels. Cette méthode requiert d'injecter un signal de test connu à l'entrée du BFH et d'adapter la partie numérique afin de reconstruire le signal de référence correspondant. Selon le type de reconstruction souhaité (d’une large-bande, d’une sous-bande ou d’une bande étroite particulière), nous avons proposé plusieurs signaux de test et de référence. Ces signaux ont été validés en calculant les filtres numériques optimaux par la méthode de Wiener-Hopf et en évaluant leurs performances de ces derniers dans le domaine fréquentiel. Afin d’approcher les filtres numériques optimaux avec une complexité calculatoire minimum, nous avons implémenté un algorithme du gradient stochastique. La robustesse de la méthode a été évaluée en présence de bruit dans la partie analogique et de en tenant compte de la quantification dans la partie numérique. Un signal de test plus robuste au bruit analogique a été proposé. Les nombres de bits nécessaires pour coder les différentes données dans la partie numérique ont été dimensionnés pour atteindre les performances visées (à savoir 14 bits de résolution). Ce travail de thèse a permis d'avancer vers la réalisation des futurs systèmes de numérisation basés sur les BFH. / The future applications of cognitive radio require digitization systems being capable to perform a flexible conversion in terms of bandwidth and Resolution. The digitization systems based on Hybrid Filter Bancs (HFB) provide an attractive solution for achieving this purpose. The HFBs consist of a bank of analog filters, a bank of analog/digital converters and a bank of digital filters. However, they are so sensitive that the presence of analog errors renders them impossible to carry out. Therefore, the goal of the thesis was to propose and study a calibration method for the analog errors to be corrected in the digital part. Furthermore, the proposed method had to be implementable in an embedded system. Based on Multichannel Adaptive Equalization (MCAE), we proposed a new calibration method. The digital filter coefficients are adjusted according to the real analog filters. To perform this calibration process, a known test signal is injected into the HFB which output is compared to a linked desired signal, their difference is used to adjust the digital part iteratively until the goal is achieved. For different reconstruction goals (wideband, subband or a particular narrow band), we proposed two ways to generate the test and desired signals. With the filters achieved by using method Wiener-Hopf, these signals have been validated by the evaluation of the reconstruction performances. In order to approach the optimal coefficients with a minimal computational complexity, we have implemented an algorithm of stochastic gradient. The robustness of the MCAE method has been studied both in presence of the thermal noise in the analog part and in presence of quantization errors in the digital part. A more robust test signal against the analog noise has been proposed. According to our analytical expressions, for the reconstruction goal (i.e. resolution of 14 bits), the numbers of bits needed for coding the different data of the digital part can be indicated. This thesis is a step forward for realizing future digitization systems based on HFBs.
|
188 |
Les stratégies de scripteurs avancés dans la révision de phrases complexes : description et implications didactiquesRoussel, Katrine 04 1900 (has links)
No description available.
|
189 |
Fiscal policy, income inequality and inclusive growth in developing countries / Politique budgétaire, inégalité de revenu et croissance inclusive dans les pays en développementTraore, Mohamed 11 January 2019 (has links)
La question du développement inclusif dans les pays en développement est au cœur de cette thèse. Cette dernière s'articule autour de quatre chapitres sur les questions de politique fiscale et les questions liées à la croissance inclusive. Le chapitre 1 explore comment la politique fiscale de l’Etat affecte l'inclusivité de la croissance dans les pays en développement. Nous observons que la politique fiscale affecte la croissance inclusive de manière significative si et seulement si les pays ont de fortes qualités institutionnelles. En outre, notre résultat montre qu'il existe un seuil optimal au-delà duquel toute augmentation du taux d'imposition négativement la croissance inclusive. Le chapitre 2 examine les effets des composantes des dépenses publiques sur l'équité et la croissance dans les pays d’Afrique subsaharienne, notamment s'il est possible de concevoir des dépenses publiques en vue de promouvoir une société plus équitable sans sacrifier la croissance économique. Notre étude a permis de montrer que l’investissement en infrastructure a contribué à une croissance plus inclusive en Afrique subsaharienne que d'autres dépenses publiques. Ces résultats suggèrent que des programmes temporaires et bien ciblés devraient être mis en place pour aider ceux qui sont laissés pour compte par le processus de croissance. Le chapitre 3 cherche à savoir si les problèmes d’inégalités de revenus se sont posés ou non dans les périodes d'ajustement budgétaire en Côte d'Ivoire au cours de la période 1980-2014. Nos résultats montrent une amélioration de la performance de croissance après les épisodes de consolidation budgétaire, mais aussi des diminutions de l'écart de revenu dans les périodes suivantes les années d’ajustements budgétaires. Enfin, le chapitre 4 évalue la crédibilité des prévisions budgétaires et leurs effets sur le bien-être social dans les pays de la CEMAC et de l'UEMOA. Nous sommes aboutis aux résultats que l'inefficacité des prévisions budgétaires se produit dans la plupart des cas parce que les erreurs de prévisions sont proportionnelles à la prévision elle-même, mais aussi parce que les erreurs passées sont répétées dans le temps. En outre, une partie des erreurs de prévision des recettes peut s'expliquer par des chocs aléatoires survenus dans l'économie. Par conséquent, ces erreurs dans les prévisions de revenus considérées comme des chocs de politique budgétaire ont un effet négatif sur la croissance inclusive. / The issue of inclusive development in developing countries is at the heart of this thesis. The latter revolves around four chapters on fiscal policy issues and inclusive growth-related matters. Chapter 1 explores how government tax policy affects the inclusiveness of growth in developing countries. Evidence is shown that tax policy affects significantly inclusive growth if and only if the countries have a strong institution quality like low corruption and a good bureaucratic policy. In addition, our result shows that there is an optimal tax beyond which, any increase in the personal income tax rate should have negative impact on inclusive growth. The Chapter 2 examines the effects of government expenditure components on both equity and growth in sub-Saharan countries, especially whether it is possible to design public spending to promote a more equitable society without sacrificing economic growth. We find that investment in infrastructure contributed to more inclusive growth in Sub-sub Saharan African economies than others government spending. These results suggest that temporary and well-targeted programs should be implemented to help those being left out by the growth process. The Chapter 3 investigates whether income inequality matters in the periods of fiscal adjustments in Côte d’Ivoire over the period 1980-2014. The results show an improvement in growth performance after fiscal consolidations episodes, but also income gap decreases in the periods ahead fiscal adjustments. Lastly, Chapter 4 assesses the credibility of fiscal forecasts and their social effects in CEMAC and WAEMU countries. We obtain evidence that the inefficiency of fiscal forecast occurs in most time because the forecast deviation is proportional to the forecast itself, but also because the past errors are repeated in the present. Furthermore, a part of revenue forecast errors can be explained by random shocks to the economy. Therefore, these errors in revenue forecast considered as fiscal policy shocks has a detrimental effect on inclusive growth.
|
190 |
Trois essais en macroéconomie internationale : le phénomène de préférence pour les titres nationaux et l'énigme de la quantité revisitésCoën, Alain 19 December 2008 (has links) (PDF)
Le premier chapitre étudie les implications d'un modèle à générations imbriquées avec coûts de transaction sur la diversification internationale des portefeuilles. Nos résultats montrent que l'introduction de très petits coûts de transaction permet de reproduire le phénomène de préférence pour les titres financiers nationaux. Le second chapitre est consacré à l'analyse des relations entre le phénomène de préférence pour les titres nationaux, les prévisions des analystes financiers et l'opacité des bénéfices. En utilisant des données de haute qualité sur la composition des portefeuilles et en introduisant un estimateur de moments d'ordre supérieur, nous confirmons, améliorons et généralisons les résultats obtenus récemment par Ahearne et al. (2004). Premièrement, nous montrons que la précision des prévisions des analystes financiers peut contribuer à expliquer le manque de diversification observé dans la composition des portefeuilles américains. Deuxièmement, nous mettons en évidence la relation entre les mesures d'opacité et le phénomène de préférence pour les titres nationaux. Dans le troisième chapitre, nous revisitons l'énigme de la quantité en développant un modèle international de cycles avec management délégué. Dans chaque pays les actionnaires embauchent des managers et leur délèguent les décisions d'embauche et d'investissement. Nous montrons que les managers prennent des décisions intertemporelles dans leur propre intérêt et notamment des décisions d'investissement, qui ont des conséquences importantes sur l'énigme de la quantité. Le modèle permet de répliquer les principaux faits stylisés des fluctuations internationales.
|
Page generated in 0.037 seconds