• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 327
  • 163
  • 35
  • 1
  • Tagged with
  • 517
  • 265
  • 108
  • 94
  • 92
  • 84
  • 80
  • 79
  • 75
  • 74
  • 61
  • 59
  • 58
  • 56
  • 56
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
501

Gouvernance bancaire et prise de risque des banques islamiques / Banking Governance and Risk Taking of Islamic Banks

Trad, Naama 26 June 2018 (has links)
Par rapport au système financier conventionnel qui a vécu ces dernières années des épisodes de forte instabilité liés en partie à une mauvaise gouvernance, le système financier islamique a montré des signes de robustesse et de pérennité. Sa capacité à surmonter les événements défavorables a incité plusieurs parties prenantes à proposer la finance islamique comme solutionaux déficits financiers et substitut potentiel au système bancaire actuel. Les partisans de cette finance ont fait valoir que la récente crise financière aurait pu être évitée si la finance islamique avec une bonne gouvernance et un cadre réglementaire solide avait été introduite au lieu de la finance conventionnelle. Pour ces raisons, l’objectif de cette thèse est d’une part d’examiner si la finance islamique pourrait garantir la stabilité en période de crise et être une alternative au système financier traditionnel, et d’autre part d’évaluer l’effet des mécanismes internes et externes de gouvernance bancaire sur le risque des banques islamiques par rapport à leurs homologues conventionnelles. Pour y arriver, nous avons élaboré trois chapitres avec desévidences empiriques en utilisant un échantillon de 95 banques islamiques et 130 banques conventionnelles (38 banques dont 14 banques islamiques sont exclues dans le dernier chapitre) dans 18 pays des régions MENAP et Asie du Sud-Est, durant la période 2006-2013. Le premier chapitre porte sur les spécificités et le risque de la banque dans un système financier islamiquepar rapport au système conventionnel. Les résultats trouvés indiquent que la taille et le capital de la banque ainsi que la croissance du PIB sont des facteurs clés de la solidité des deux systèmes bancaires de tous les pays étudiés, notamment des pays du Golfe. Cependant, d’autres résultats ne sont pas assez robustes pour savoir si les banques islamiques sont plus ou moins risquées que les banques conventionnelles. Par conséquent, nous concluons que le système bancaire islamique ne peut pas se substituer au système traditionnel, mais il est plutôt un complément financier qui a ses propres limites. Le deuxième chapitre examine l’effet des mécanismes internes de gouvernance bancaire, à savoir le conseil d’administration et le conseilde surveillance de la charia comme un organe de contrôle spécifique, sur le risque des banques conventionnelles par rapport aux banques islamiques. Les résultats ne montrent pas de différence significative entre les deux groupes bancaires,sauf pour les banques islamiques des pays du Golfe qui font preuve d’une plus grande solidité financière, grâce notamment auxcompétences de spécialistes en finance et en droit islamique, et au recrutement des administrateurs étrangers. En outre, nous trouvons que, dans les pays du Golfe en particulier, l'effet indésirable d'une taille importante du conseil d'administration et celui de la dualité des fonctions sur les risques des banques conventionnelles, disparaissent avec la présence d'un nombre élevé d’administrateurs indépendants. En traitant la question de la dimension externe de gouvernance bancaire dans le dernier chapitre, l’accent est mis sur l’effet probable des récentes réformes bancaires relatives aux banques conventionnelles et aux banques islamiques, à la lumière de Bâle III et du CSFI-12/15, sur le risque de ces banques. Les résultats trouvés montrent que si les exigences réglementaires de ces deux normes internationales de solvabilité avaient été appliquées durant notre période d'étude, elles auraient probablement amélioré la stabilité des deux systèmes bancaires des pays étudiés. Cependant, cet effet n’est pas uniforme pour toutes les banques, en particulier pour les banques conventionnelles des pays d’Asie du Sud-Est qui semblent moins stables et plus exposées au risque de crédit que le reste des banques.L’ensemble de ces résultats apporte une nouvelle dimension de la recherche en gouvernance dans une perspective islamique ... / Compared to the conventional financial system, which has experienced periods of high volatility in recent years partly due to poor governance, the Islamic financial system has shown signs of robustness and sustainability. Its ability to overcome the unfavorable events has encouraged several stakeholders to propose Islamic finance as a solution to financial deficits and as a potential alternative to the current banking system. The supporters of this finance argued that the recent financial crisis could have been avoided if Islamic finance with good governance and a solid regulatory framework had been introduced instead of conventional finance. For these reasons, the purpose of this thesis is twofold. First, we examine whether Islamic finance could guarantee stability in times of crisis and be a substitute for the traditional financial system. Second, we assess the effect of internal and external mechanisms of banking governance on the risk of Islamic banks compared to their conventional counterparts. To this end, we have developed three chapters with empirical evidence using a sample of 95 Islamic banks and 130 conventional banks (38 banks including 14 Islamic banks are excluded at the last chapter) in 18 MENAP and Southeast Asian countries, during the period 2006-2013. The first chapter analyzes the specificities and the risk of the bank in an Islamic financial system compared to conventional system. The results indicate that the size and capital of the bank as well as the GDP growth are crucial factors for the soundness of the two banking systems of all surveyed countries, especially of the Gulf region. However, other results are not strong enough to answer whether Islamic banks are more or less risky than their conventional counterparts. We therefore conclude that the Islamic banking system cannot replace the traditional system, but is, rather, a financial supplement that has its own limitations. The second chapter examines the effect of internal mechanisms of banking governance, such as the board of directors and the sharia supervisory board as a control organ specific to Islamic banks, on the risk of conventional banks compared to their Islamic counterparts. The findings show no significant difference between the two banking systems, except for the Islamic banks of Gulf countries, which demonstrate greater financial solidity thanks particularly to the skills of the specialists in finance and Islamic law, and the recruitment of foreign directors. In addition, we find especiallyin Gulf countries that the harmful effect of a large board size and dual functions on the risks of conventional banks disappear with the presence of a significant number of independent directors. In investigating the issue of the external dimension of banking governance, the focus is on the probable effect of recent banking reforms relating to conventional and Islamic banks, in light of Basel III and IFSB-12/15, on the risk of the two banking systems. Our findings support that if the regulatory requirements of these two international solvency standards had been applied during our sampling period, they would probably have improved the stability of the two banking systems of the surveyed countries. However, this effect is not uniform for all banks. In particular, conventional banks of Southeast Asian countries seem less stable and more exposed to credit risk than the other ones. All of these results bring a new dimension of governance research from an Islamic perspective, which could be a valuable source ofknowledge for both bankers and regulators in the banking sector.
502

L'impact des variables sémantiques sur le traitement des mots

Chedid, Georges 11 1900 (has links)
Au cours de la dernière décennie, plusieurs études ont montré que le traitement des mots est influencé par leurs caractéristiques orthographiques, lexicales et sémantiques. Les valeurs élevées des variables sémantiques, telles que la familiarité conceptuelle, l’imageabilité, la concrétude et l’expérience sensorielle, sont généralement associées à un traitement plus rapide et plus précis des mots lors d’une tâche de décision lexicale sur présentation écrite. Cependant, les normes relatives à l’une des variables sémantiques cruciales, comme la familiarité conceptuelle, et à une autre nouvelle variable, celle de la force perceptuelle d’une modalité spécifique, ne sont pas disponibles pour une large base de données francophones. Cette thèse présente des normes de familiarité conceptuelle, de force perceptuelle visuelle et auditive pour 3 596 mots en français. Ces normes ont été collectées auprès de 313 participants franco-canadiens, âgés entre 18 et 35 ans. Des statistiques descriptives et des analyses corrélationnelles ont été conduites sur ces normes et sur d’autres variables subjectives déjà publiées (âge d’acquisition, imageabilité, concrétude) et objectives (nombre de lettres, fréquence objective). Les analyses de corrélation ont révélé la nature sémantique de nos variables. Plus spécifiquement, les estimations de la force perceptuelle visuelle et auditive ont montré une relation forte avec les variables sémantiques, d’où l’importance du rôle de l’expérience perceptuelle dans la représentation conceptuelle des mots. Nous avons ensuite démontré l'utilité de ces nouvelles normes, de familiarité conceptuelle et de force perceptuelle, en évaluant leur contribution aux temps de réponse dans une tâche de décision lexicale. En utilisant des analyses de régression par étapes, nous avons démontré l’apport indépendant de la familiarité conceptuelle et de la force perceptuelle au-delà d’autres variables psycholinguistiques bien connues, telles que la longueur des mots, la fréquence, l’imageabilité, l’âge d’acquisition et la concrétude. Nos résultats procurent des données probantes en français sur la connaissance des caractéristiques psycholinguistiques et leurs impacts dans le traitement des mots. Les banques de données développées dans ces études constituent un apport significatif sur les études futures qui éclaireront davantage l'interaction entre les systèmes linguistique, sémantique et perceptuel. Ces études aideront les chercheurs à sélectionner des stimuli en français avec des caractéristiques psycholinguistiques spécifiques pour des expériences dans lesquelles la familiarité conceptuelle et la force perceptuelle doivent être prises en compte. Ces normes auront également un large domaine d’utilisation, comme la recherche sur les sciences humaines de la santé et la création de matériel didactique et des tests d’évaluation du langage. / Over the past decade, research has shown that word processing is influenced by the orthographic, lexical, and semantic features of words. High values of semantic variables, such as conceptual familiarity, imageability, concreteness and sensory experience, are usually associated with faster and more accurate word processing as, for instance, measured with a written lexical decision task. However, norms for crucial semantic variables, such as conceptual familiarity, and another new variable of modality specific perceptual strength, are not available for a large set of French words. This thesis presents norms for conceptual familiarity, visual and auditory perceptual strength for 3,596 French words. We collected these norms from approximately 300 healthy participants, all French-Canadian native speakers, between 18 and 35 years of age. Descriptive statistics and correlational analyses were conducted on these norms and on other known subjective variables (age of acquisition, imageability, concreteness) and objective variables (number of letters, objective frequency). Correlation analyzes revealed the semantic nature of our variables. More specifically, values of visual and auditory perceptual strength have shown a strong relationship with semantic variables. This highlights the importance of the role of perceptual experience in the conceptual representation of words. We then demonstrated the usefulness of these new norms of conceptual familiarity and perceptual strength by evaluating their impact on latencies in a written lexical decision task. Using stepwise regression models, conceptual familiarity and perceptual strength demonstrated independent contribution to latencies, beyond the contribution of other well-known psycholinguistic variables, such as word length, frequency, imageability, age of acquisition and concreteness. The databases developed in these studies are a meaningful contribution to future studies that will shed further light on the interaction between the linguistic, semantic and perceptual systems. These studies will help researchers to select French stimuli with specific psycholinguistic characteristics for experiments in which conceptual familiarity and perceptual strength must be taken into account. These norms will also have a broad area of use, such as research in human health sciences and the creation of teaching materials and language assessment tests.
503

Régression non-paramétrique pour variables fonctionnelles / Non parametric regression for functional data

Elamine, Abdallah Bacar 23 March 2010 (has links)
Cette thèse se décompose en quatre parties auxquelles s'ajoute une présentation. Dans un premier temps, on expose les outils mathématiques essentiels à la compréhension des prochains chapitres. Dans un deuxième temps, on s'intéresse à la régression non paramétrique locale pour des données fonctionnelles appartenant à un espace de Hilbert. On propose, tout d'abord, un estimateur de l'opérateur de régression. La construction de cet estimateur est liée à la résolution d'un problème inverse linéaire. On établit des bornes de l'erreur quadratique moyenne (EQM) de l'estimateur de l'opérateur de régression en utilisant une décomposition classique. Cette EQM dépend de la fonction de petite boule de probabilité du régresseur au sujet de laquelle des hypothèses de type Gamma-variation sont posées. Dans le chapitre suivant, on reprend le travail élaboré dans le précédent chapitre en se plaçant dans le cadre de données fonctionnelles appartenant à un espace semi-normé. On établit des bornes de l'EQM de l'estimateur de l'opérateur de régression. Cette EQM peut être vue comme une fonction de la fonction de petite boule de probabilité. Dans le dernier chapitre, on s'intéresse à l'estimation de la fonction auxiliaire associée à la fonction de petite boule de probabilité. D'abord, on propose un estimateur de cette fonction auxiliare. Ensuite, on établit la convergence en moyenne quadratique et la normalité asymptotique de cet estimateur. Enfin, par des simulations, on étudie le comportement de de cet estimateur au voisinage de zéro. / This thesis is divided in four sections with an additionnal presentation. In the first section, We expose the essential mathematics skills for the comprehension of the next sections. In the second section, we adress the problem of local non parametric with functional inputs. First, we propose an estimator of the unknown regression function. The construction of this estimator is related to the resolution of a linear inverse problem. Using a classical method of decomposition, we establish a bound for the mean square error (MSE). This bound depends on the small ball probability of the regressor which is assumed to belong to the class of Gamma varying functions. In the third section, we take again the work done in the preceding section by being situated in the frame of data belonging to a semi-normed space with infinite dimension. We establish bound for the MSE of the regression operator. This MSE can be seen as a function of the small ball probability function. In the last section, we interest to the estimation of the auxiliary function. Then, we establish the convergence in mean square and the asymptotic normality of the estimator. At last, by simulations, we study the bahavour of this estimator in a neighborhood of zero.
504

Estimations non paramétriques par noyaux associés multivariés et applications / Nonparametric estimation by multivariate associated kernels and applications

Somé, Sobom Matthieu 16 November 2015 (has links)
Dans ce travail, l'approche non-paramétrique par noyaux associés mixtes multivariés est présentée pour les fonctions de densités, de masse de probabilité et de régressions à supports partiellement ou totalement discrets et continus. Pour cela, quelques aspects essentiels des notions d'estimation par noyaux continus (dits classiques) multivariés et par noyaux associés univariés (discrets et continus) sont d'abord rappelés. Les problèmes de supports sont alors révisés ainsi qu'une résolution des effets de bords dans les cas des noyaux associés univariés. Le noyau associé multivarié est ensuite défini et une méthode de leur construction dite mode-dispersion multivarié est proposée. Il s'ensuit une illustration dans le cas continu utilisant le noyau bêta bivarié avec ou sans structure de corrélation de type Sarmanov. Les propriétés des estimateurs telles que les biais, les variances et les erreurs quadratiques moyennes sont également étudiées. Un algorithme de réduction du biais est alors proposé et illustré sur ce même noyau avec structure de corrélation. Des études par simulations et applications avec le noyau bêta bivarié avec structure de corrélation sont aussi présentées. Trois formes de matrices des fenêtres, à savoir, pleine, Scott et diagonale, y sont utilisées puis leurs performances relatives sont discutées. De plus, des noyaux associés multiples ont été efficaces dans le cadre de l'analyse discriminante. Pour cela, on a utilisé les noyaux univariés binomial, catégoriel, triangulaire discret, gamma et bêta. Par la suite, les noyaux associés avec ou sans structure de corrélation ont été étudiés dans le cadre de la régression multiple. En plus des noyaux univariés ci-dessus, les noyaux bivariés avec ou sans structure de corrélation ont été aussi pris en compte. Les études par simulations montrent l'importance et les bonnes performances du choix des noyaux associés multivariés à matrice de lissage pleine ou diagonale. Puis, les noyaux associés continus et discrets sont combinés pour définir les noyaux associés mixtes univariés. Les travaux ont aussi donné lieu à la création d'un package R pour l'estimation de fonctions univariés de densités, de masse de probabilité et de régression. Plusieurs méthodes de sélections de fenêtres optimales y sont implémentées avec une interface facile d'utilisation. Tout au long de ce travail, la sélection des matrices de lissage se fait généralement par validation croisée et parfois par les méthodes bayésiennes. Enfin, des compléments sur les constantes de normalisations des estimateurs à noyaux associés des fonctions de densité et de masse de probabilité sont présentés. / This work is about nonparametric approach using multivariate mixed associated kernels for densities, probability mass functions and regressions estimation having supports partially or totally discrete and continuous. Some key aspects of kernel estimation using multivariate continuous (classical) and (discrete and continuous) univariate associated kernels are recalled. Problem of supports are also revised as well as a resolution of boundary effects for univariate associated kernels. The multivariate associated kernel is then defined and a construction by multivariate mode-dispersion method is provided. This leads to an illustration on the bivariate beta kernel with Sarmanov's correlation structure in continuous case. Properties of these estimators are studied, such as the bias, variances and mean squared errors. An algorithm for reducing the bias is proposed and illustrated on this bivariate beta kernel. Simulations studies and applications are then performed with bivariate beta kernel. Three types of bandwidth matrices, namely, full, Scott and diagonal are used. Furthermore, appropriated multiple associated kernels are used in a practical discriminant analysis task. These are the binomial, categorical, discrete triangular, gamma and beta. Thereafter, associated kernels with or without correlation structure are used in multiple regression. In addition to the previous univariate associated kernels, bivariate beta kernels with or without correlation structure are taken into account. Simulations studies show the performance of the choice of associated kernels with full or diagonal bandwidth matrices. Then, (discrete and continuous) associated kernels are combined to define mixed univariate associated kernels. Using the tools of unification of discrete and continuous analysis, the properties of the mixed associated kernel estimators are shown. This is followed by an R package, created in univariate case, for densities, probability mass functions and regressions estimations. Several smoothing parameter selections are implemented via an easy-to-use interface. Throughout the paper, bandwidth matrix selections are generally obtained using cross-validation and sometimes Bayesian methods. Finally, some additionnal informations on normalizing constants of associated kernel estimators are presented for densities or probability mass functions.
505

Interethnic conjugal unions among 1.5 and 2nd generations of Arab Canadians

Hassin, Fatima 12 1900 (has links)
Dans cette étude, j’examine la propension à former une union interethnique parmi les Canadiens arabes de seconde génération et de génération 1.5 en utilisant les données du recensement canadien de 2016. L’analyse descriptive montre que les unions interethniques sont fréquentes au sein de cette population. Environ la moitié des hommes (56%) et des femmes (49%) sont dans une union interethnique avec une personne non-Arabe d’origine immigrante ou un(e) Canadien(ne) de troisième génération ou des générations suivantes. La régression logistique multinomiale révèle que les hommes et les femmes avec un niveau d’éducation plus élevé, une ascendance partiellement arabe et un statut d’immigrant de deuxième génération sont significativement plus enclins à être en union interethnique qu’à être en union intraethnique avec un immigrant de première génération. Conformément à la théorie de l’assimilation segmentée, ces résultats suggèrent que l’intégration socioéconomique et l’acculturation contribuent à la propension des descendants arabes à former des unions avec des individus non-arabes. La propension des descendants arabes à être en union intraethnique avec des immigrants de première génération ou des descendants est aussi une problématique dont je discute. / In this study, I examine the propensity to form interethnic unions among the 1.5 and second generations of Arab Canadians using the 2016 Canadian census data. The descriptive analysis shows that interethnic unions are common within this population. About half the men (56%) and the women (49%) are in an interethnic union with a non-Arab person with an immigrant background or a Canadian of third generation or subsequent generations. The multinomial logistic regression reveals that men and women with higher educational attainment, part Arab ancestry and second-generation immigrant status are significantly more prone to be in an interethnic union than in an intraethnic union with a first-generation immigrant. In accordance with the segmented assimilation theory, these results suggest that socioeconomic integration and acculturation contribute to the propensity of Arab descendants to form unions with non-Arab individuals. The propensity of Arab descendants to be in intraethnic unions with first generation-immigrants or with descendants of immigrants (1.5 and second generations) is also discussed in this thesis.
506

Apprentissage basé sur le Qini pour la prédiction de l’effet causal conditionnel

Belbahri, Mouloud-Beallah 08 1900 (has links)
Les modèles uplift (levier en français) traitent de l'inférence de cause à effet pour un facteur spécifique, comme une intervention de marketing. En pratique, ces modèles sont construits sur des données individuelles issues d'expériences randomisées. Un groupe traitement comprend des individus qui font l'objet d'une action; un groupe témoin sert de comparaison. La modélisation uplift est utilisée pour ordonner les individus par rapport à la valeur d'un effet causal, par exemple, positif, neutre ou négatif. Dans un premier temps, nous proposons une nouvelle façon d'effectuer la sélection de modèles pour la régression uplift. Notre méthodologie est basée sur la maximisation du coefficient Qini. Étant donné que la sélection du modèle correspond à la sélection des variables, la tâche est difficile si elle est effectuée de manière directe lorsque le nombre de variables à prendre en compte est grand. Pour rechercher de manière réaliste un bon modèle, nous avons conçu une méthode de recherche basée sur une exploration efficace de l'espace des coefficients de régression combinée à une pénalisation de type lasso de la log-vraisemblance. Il n'y a pas d'expression analytique explicite pour la surface Qini, donc la dévoiler n'est pas facile. Notre idée est de découvrir progressivement la surface Qini comparable à l'optimisation sans dérivée. Le but est de trouver un maximum local raisonnable du Qini en explorant la surface près des valeurs optimales des coefficients pénalisés. Nous partageons ouvertement nos codes à travers la librairie R tools4uplift. Bien qu'il existe des méthodes de calcul disponibles pour la modélisation uplift, la plupart d'entre elles excluent les modèles de régression statistique. Notre librairie entend combler cette lacune. Cette librairie comprend des outils pour: i) la discrétisation, ii) la visualisation, iii) la sélection de variables, iv) l'estimation des paramètres et v) la validation du modèle. Cette librairie permet aux praticiens d'utiliser nos méthodes avec aise et de se référer aux articles méthodologiques afin de lire les détails. L'uplift est un cas particulier d'inférence causale. L'inférence causale essaie de répondre à des questions telle que « Quel serait le résultat si nous donnions à ce patient un traitement A au lieu du traitement B? ». La réponse à cette question est ensuite utilisée comme prédiction pour un nouveau patient. Dans la deuxième partie de la thèse, c’est sur la prédiction que nous avons davantage insisté. La plupart des approches existantes sont des adaptations de forêts aléatoires pour le cas de l'uplift. Plusieurs critères de segmentation ont été proposés dans la littérature, tous reposant sur la maximisation de l'hétérogénéité. Cependant, dans la pratique, ces approches sont sujettes au sur-ajustement. Nous apportons une nouvelle vision pour améliorer la prédiction de l'uplift. Nous proposons une nouvelle fonction de perte définie en tirant parti d'un lien avec l'interprétation bayésienne du risque relatif. Notre solution est développée pour une architecture de réseau de neurones jumeaux spécifique permettant d'optimiser conjointement les probabilités marginales de succès pour les individus traités et non-traités. Nous montrons que ce modèle est une généralisation du modèle d'interaction logistique de l'uplift. Nous modifions également l'algorithme de descente de gradient stochastique pour permettre des solutions parcimonieuses structurées. Cela aide dans une large mesure à ajuster nos modèles uplift. Nous partageons ouvertement nos codes Python pour les praticiens désireux d'utiliser nos algorithmes. Nous avons eu la rare opportunité de collaborer avec l'industrie afin d'avoir accès à des données provenant de campagnes de marketing à grande échelle favorables à l'application de nos méthodes. Nous montrons empiriquement que nos méthodes sont compétitives avec l'état de l'art sur les données réelles ainsi qu'à travers plusieurs scénarios de simulations. / Uplift models deal with cause-and-effect inference for a specific factor, such as a marketing intervention. In practice, these models are built on individual data from randomized experiments. A targeted group contains individuals who are subject to an action; a control group serves for comparison. Uplift modeling is used to order the individuals with respect to the value of a causal effect, e.g., positive, neutral, or negative. First, we propose a new way to perform model selection in uplift regression models. Our methodology is based on the maximization of the Qini coefficient. Because model selection corresponds to variable selection, the task is haunting and intractable if done in a straightforward manner when the number of variables to consider is large. To realistically search for a good model, we conceived a searching method based on an efficient exploration of the regression coefficients space combined with a lasso penalization of the log-likelihood. There is no explicit analytical expression for the Qini surface, so unveiling it is not easy. Our idea is to gradually uncover the Qini surface in a manner inspired by surface response designs. The goal is to find a reasonable local maximum of the Qini by exploring the surface near optimal values of the penalized coefficients. We openly share our codes through the R Package tools4uplift. Though there are some computational methods available for uplift modeling, most of them exclude statistical regression models. Our package intends to fill this gap. This package comprises tools for: i) quantization, ii) visualization, iii) variable selection, iv) parameters estimation and v) model validation. This library allows practitioners to use our methods with ease and to refer to methodological papers in order to read the details. Uplift is a particular case of causal inference. Causal inference tries to answer questions such as ``What would be the result if we gave this patient treatment A instead of treatment B?" . The answer to this question is then used as a prediction for a new patient. In the second part of the thesis, it is on the prediction that we have placed more emphasis. Most existing approaches are adaptations of random forests for the uplift case. Several split criteria have been proposed in the literature, all relying on maximizing heterogeneity. However, in practice, these approaches are prone to overfitting. In this work, we bring a new vision to uplift modeling. We propose a new loss function defined by leveraging a connection with the Bayesian interpretation of the relative risk. Our solution is developed for a specific twin neural network architecture allowing to jointly optimize the marginal probabilities of success for treated and control individuals. We show that this model is a generalization of the uplift logistic interaction model. We modify the stochastic gradient descent algorithm to allow for structured sparse solutions. This helps fitting our uplift models to a great extent. We openly share our Python codes for practitioners wishing to use our algorithms. We had the rare opportunity to collaborate with industry to get access to data from large-scale marketing campaigns favorable to the application of our methods. We show empirically that our methods are competitive with the state of the art on real data and through several simulation setting scenarios.
507

Analysis of the human corneal shape with machine learning

Bouazizi, Hala 01 1900 (has links)
Cette thèse cherche à examiner les conditions optimales dans lesquelles les surfaces cornéennes antérieures peuvent être efficacement pré-traitées, classifiées et prédites en utilisant des techniques de modélisation géométriques (MG) et d’apprentissage automatiques (AU). La première étude (Chapitre 2) examine les conditions dans lesquelles la modélisation géométrique peut être utilisée pour réduire la dimensionnalité des données utilisées dans un projet d’apprentissage automatique. Quatre modèles géométriques ont été testés pour leur précision et leur rapidité de traitement : deux modèles polynomiaux (P) – polynômes de Zernike (PZ) et harmoniques sphériques (PHS) – et deux modèles de fonctions rationnelles (R) : fonctions rationnelles de Zernike (RZ) et fonctions rationnelles d’harmoniques sphériques (RSH). Il est connu que les modèles PHS et RZ sont plus précis que les modèles PZ pour un même nombre de coefficients (J), mais on ignore si les modèles PHS performent mieux que les modèles RZ, et si, de manière plus générale, les modèles SH sont plus précis que les modèles R, ou l’inverse. Et prenant en compte leur temps de traitement, est-ce que les modèles les plus précis demeurent les plus avantageux? Considérant des valeurs de J (nombre de coefficients du modèle) relativement basses pour respecter les contraintes de dimensionnalité propres aux taches d’apprentissage automatique, nous avons établi que les modèles HS (PHS et RHS) étaient tous deux plus précis que les modèles Z correspondants (PZ et RR), et que l’avantage de précision conféré par les modèles HS était plus important que celui octroyé par les modèles R. Par ailleurs, les courbes de temps de traitement en fonction de J démontrent qu’alors que les modèles P sont traités en temps quasi-linéaires, les modèles R le sont en temps polynomiaux. Ainsi, le modèle SHR est le plus précis, mais aussi le plus lent (un problème qui peut en partie être remédié en appliquant une procédure de pré-optimisation). Le modèle ZP était de loin le plus rapide, et il demeure une option intéressante pour le développement de projets. SHP constitue le meilleur compromis entre la précision et la rapidité. La classification des cornées selon des paramètres cliniques a une longue tradition, mais la visualisation des effets moyens de ces paramètres sur la forme de la cornée par des cartes topographiques est plus récente. Dans la seconde étude (Chapitre 3), nous avons construit un atlas de cartes d’élévations moyennes pour différentes variables cliniques qui pourrait s’avérer utile pour l’évaluation et l’interprétation des données d’entrée (bases de données) et de sortie (prédictions, clusters, etc.) dans des tâches d’apprentissage automatique, entre autres. Une base de données constituée de plusieurs milliers de surfaces cornéennes antérieures normales enregistrées sous forme de matrices d’élévation de 101 by 101 points a d’abord été traitée par modélisation géométrique pour réduire sa dimensionnalité à un nombre de coefficients optimal dans une optique d’apprentissage automatique. Les surfaces ainsi modélisées ont été regroupées en fonction de variables cliniques de forme, de réfraction et de démographie. Puis, pour chaque groupe de chaque variable clinique, une surface moyenne a été calculée et représentée sous forme de carte d’élévations faisant référence à sa SMA (sphère la mieux ajustée). Après avoir validé la conformité de la base de donnée avec la littérature par des tests statistiques (ANOVA), l’atlas a été vérifié cliniquement en examinant si les transformations de formes cornéennes présentées dans les cartes pour chaque variable étaient conformes à la littérature. C’était le cas. Les applications possibles d’un tel atlas sont discutées. La troisième étude (Chapitre 4) traite de la classification non-supervisée (clustering) de surfaces cornéennes antérieures normales. Le clustering cornéen un domaine récent en ophtalmologie. La plupart des études font appel aux techniques d’extraction des caractéristiques pour réduire la dimensionnalité de la base de données cornéennes. Le but est généralement d’automatiser le processus de diagnostique cornéen, en particulier en ce qui a trait à la distinction entre les cornées normales et les cornées irrégulières (kératocones, Fuch, etc.), et dans certains cas, de distinguer différentes sous-classes de cornées irrégulières. L’étude de clustering proposée ici se concentre plutôt sur les cornées normales afin de mettre en relief leurs regroupements naturels. Elle a recours à la modélisation géométrique pour réduire la dimensionnalité de la base de données, utilisant des polynômes de Zernike, connus pour leur interprétativité transparente (chaque terme polynomial est associé à une caractéristique cornéenne particulière) et leur bonne précision pour les cornées normales. Des méthodes de différents types ont été testées lors de prétests (méthodes de clustering dur (hard) ou souple (soft), linéaires or non-linéaires. Ces méthodes ont été testées sur des surfaces modélisées naturelles (non-normalisées) ou normalisées avec ou sans traitement d’extraction de traits, à l’aide de différents outils d’évaluation (scores de séparabilité et d’homogénéité, représentations par cluster des coefficients de modélisation et des surfaces modélisées, comparaisons statistiques des clusters sur différents paramètres cliniques). Les résultats obtenus par la meilleure méthode identifiée, k-means sans extraction de traits, montrent que les clusters produits à partir de surfaces cornéennes naturelles se distinguent essentiellement en fonction de la courbure de la cornée, alors que ceux produits à partir de surfaces normalisées se distinguent en fonction de l’axe cornéen. La dernière étude présentée dans cette thèse (Chapitre 5) explore différentes techniques d’apprentissage automatique pour prédire la forme de la cornée à partir de données cliniques. La base de données cornéennes a d’abord été traitée par modélisation géométrique (polynômes de Zernike) pour réduire sa dimensionnalité à de courts vecteurs de 12 à 20 coefficients, une fourchette de valeurs potentiellement optimales pour effectuer de bonnes prédictions selon des prétests. Différentes méthodes de régression non-linéaires, tirées de la bibliothèque scikit-learn, ont été testées, incluant gradient boosting, Gaussian process, kernel ridge, random forest, k-nearest neighbors, bagging, et multi-layer perceptron. Les prédicteurs proviennent des variables cliniques disponibles dans la base de données, incluant des variables géométriques (diamètre horizontal de la cornée, profondeur de la chambre cornéenne, côté de l’œil), des variables de réfraction (cylindre, sphère et axe) et des variables démographiques (âge, genre). Un test de régression a été effectué pour chaque modèle de régression, défini comme la sélection d’une des 256 combinaisons possibles de variables cliniques (les prédicteurs), d’une méthode de régression, et d’un vecteur de coefficients de Zernike d’une certaine taille (entre 12 et 20 coefficients, les cibles). Tous les modèles de régression testés ont été évalués à l’aide de score de RMSE établissant la distance entre les surfaces cornéennes prédites (les prédictions) et vraies (les topographies corn¬éennes brutes). Les meilleurs d’entre eux ont été validés sur l’ensemble de données randomisé 20 fois pour déterminer avec plus de précision lequel d’entre eux est le plus performant. Il s’agit de gradient boosting utilisant toutes les variables cliniques comme prédicteurs et 16 coefficients de Zernike comme cibles. Les prédictions de ce modèle ont été évaluées qualitativement à l’aide d’un atlas de cartes d’élévations moyennes élaborées à partir des variables cliniques ayant servi de prédicteurs, qui permet de visualiser les transformations moyennes d’en groupe à l’autre pour chaque variables. Cet atlas a permis d’établir que les cornées prédites moyennes sont remarquablement similaires aux vraies cornées moyennes pour toutes les variables cliniques à l’étude. / This thesis aims to investigate the best conditions in which the anterior corneal surface of normal corneas can be preprocessed, classified and predicted using geometric modeling (GM) and machine learning (ML) techniques. The focus is on the anterior corneal surface, which is the main responsible of the refractive power of the cornea. Dealing with preprocessing, the first study (Chapter 2) examines the conditions in which GM can best be applied to reduce the dimensionality of a dataset of corneal surfaces to be used in ML projects. Four types of geometric models of corneal shape were tested regarding their accuracy and processing time: two polynomial (P) models – Zernike polynomial (ZP) and spherical harmonic polynomial (SHP) models – and two corresponding rational function (R) models – Zernike rational function (ZR) and spherical harmonic rational function (SHR) models. SHP and ZR are both known to be more accurate than ZP as corneal shape models for the same number of coefficients, but which type of model is the most accurate between SHP and ZR? And is an SHR model, which is both an SH model and an R model, even more accurate? Also, does modeling accuracy comes at the cost of the processing time, an important issue for testing large datasets as required in ML projects? Focusing on low J values (number of model coefficients) to address these issues in consideration of dimensionality constraints that apply in ML tasks, it was found, based on a number of evaluation tools, that SH models were both more accurate than their Z counterparts, that R models were both more accurate than their P counterparts and that the SH advantage was more important than the R advantage. Processing time curves as a function of J showed that P models were processed in quasilinear time, R models in polynomial time, and that Z models were fastest than SH models. Therefore, while SHR was the most accurate geometric model, it was the slowest (a problem that can partly be remedied by applying a preoptimization procedure). ZP was the fastest model, and with normal corneas, it remains an interesting option for testing and development, especially for clustering tasks due to its transparent interpretability. The best compromise between accuracy and speed for ML preprocessing is SHP. The classification of corneal shapes with clinical parameters has a long tradition, but the visualization of their effects on the corneal shape with group maps (average elevation maps, standard deviation maps, average difference maps, etc.) is relatively recent. In the second study (Chapter 3), we constructed an atlas of average elevation maps for different clinical variables (including geometric, refraction and demographic variables) that can be instrumental in the evaluation of ML task inputs (datasets) and outputs (predictions, clusters, etc.). A large dataset of normal adult anterior corneal surface topographies recorded in the form of 101×101 elevation matrices was first preprocessed by geometric modeling to reduce the dimensionality of the dataset to a small number of Zernike coefficients found to be optimal for ML tasks. The modeled corneal surfaces of the dataset were then grouped in accordance with the clinical variables available in the dataset transformed into categorical variables. An average elevation map was constructed for each group of corneal surfaces of each clinical variable in their natural (non-normalized) state and in their normalized state by averaging their modeling coefficients to get an average surface and by representing this average surface in reference to the best-fit sphere in a topographic elevation map. To validate the atlas thus constructed in both its natural and normalized modalities, ANOVA tests were conducted for each clinical variable of the dataset to verify their statistical consistency with the literature before verifying whether the corneal shape transformations displayed in the maps were themselves visually consistent. This was the case. The possible uses of such an atlas are discussed. The third study (Chapter 4) is concerned with the use of a dataset of geometrically modeled corneal surfaces in an ML task of clustering. The unsupervised classification of corneal surfaces is recent in ophthalmology. Most of the few existing studies on corneal clustering resort to feature extraction (as opposed to geometric modeling) to achieve the dimensionality reduction of the dataset. The goal is usually to automate the process of corneal diagnosis, for instance by distinguishing irregular corneal surfaces (keratoconus, Fuch, etc.) from normal surfaces and, in some cases, by classifying irregular surfaces into subtypes. Complementary to these corneal clustering studies, the proposed study resorts mainly to geometric modeling to achieve dimensionality reduction and focuses on normal adult corneas in an attempt to identify their natural groupings, possibly in combination with feature extraction methods. Geometric modeling was based on Zernike polynomials, known for their interpretative transparency and sufficiently accurate for normal corneas. Different types of clustering methods were evaluated in pretests to identify the most effective at producing neatly delimitated clusters that are clearly interpretable. Their evaluation was based on clustering scores (to identify the best number of clusters), polar charts and scatter plots (to visualize the modeling coefficients involved in each cluster), average elevation maps and average profile cuts (to visualize the average corneal surface of each cluster), and statistical cluster comparisons on different clinical parameters (to validate the findings in reference to the clinical literature). K-means, applied to geometrically modeled surfaces without feature extraction, produced the best clusters, both for natural and normalized surfaces. While the clusters produced with natural corneal surfaces were based on the corneal curvature, those produced with normalized surfaces were based on the corneal axis. In each case, the best number of clusters was four. The importance of curvature and axis as grouping criteria in corneal data distribution is discussed. The fourth study presented in this thesis (Chapter 5) explores the ML paradigm to verify whether accurate predictions of normal corneal shapes can be made from clinical data, and how. The database of normal adult corneal surfaces was first preprocessed by geometric modeling to reduce its dimensionality into short vectors of 12 to 20 Zernike coefficients, found to be in the range of appropriate numbers to achieve optimal predictions. The nonlinear regression methods examined from the scikit-learn library were gradient boosting, Gaussian process, kernel ridge, random forest, k-nearest neighbors, bagging, and multilayer perceptron. The predictors were based on the clinical variables available in the database, including geometric variables (best-fit sphere radius, white-towhite diameter, anterior chamber depth, corneal side), refraction variables (sphere, cylinder, axis) and demographic variables (age, gender). Each possible combination of regression method, set of clinical variables (used as predictors) and number of Zernike coefficients (used as targets) defined a regression model in a prediction test. All the regression models were evaluated based on their mean RMSE score (establishing the distance between the predicted corneal surfaces and the raw topographic true surfaces). The best model identified was further qualitatively assessed based on an atlas of predicted and true average elevation maps by which the predicted surfaces could be visually compared to the true surfaces on each of the clinical variables used as predictors. It was found that the best regression model was gradient boosting using all available clinical variables as predictors and 16 Zernike coefficients as targets. The most explicative predictor was the best-fit sphere radius, followed by the side and refractive variables. The average elevation maps of the true anterior corneal surfaces and the predicted surfaces based on this model were remarkably similar for each clinical variable.
508

Evolución de la confianza en las instituciones en América Latina entre 1995 y 2021, un análisis transnacional, multinivel y longitudinal

Pena Ibarra, Luis Patricio 09 1900 (has links)
Depuis le retour de la démocratie l’Amérique Latine a expérimenté une série de transformations importantes. Les premières, furent économiques et se caractérisent principalement par une grande vague de libéralisation économique qui a signifié entre d’autres choses, un type de changement fluctuant, des réductions des dépenses publiques, ainsi que, la privatisation des entreprises et des services de l’État qui ont fini pour réduire considérablement leur rôle. Les secondes, furent politiques et ont été marquées par l’arrivée des partis de gauche au pouvoir et la mise en œuvre d’une série de politiques sociales visant à réduire la pauvreté et les inégalités, qui ont permis d’améliorer significativement les conditions de vie de millions de Latino-américains. Tous ces changements, en plus de la fréquente alternance entre l’autoritarisme et la démocratie vécue durant les dernières années ont inévitablement eu un effet sur la confiance que les individus ont envers les institutions. Dans ce sens, comment le niveau de confiance institutionnelle en l’Amérique Latine a-t-il évolué au cours des dernières années? Spécifiquement, comment l’alternance au pouvoir des partis de gauche et de droite qui ont gouverné en Amérique Latine durant les derniers trente ans, a-t-il impacté sur les niveaux de confiance que les Latino-américains ont envers leurs institutions? Utilisant un modèle statistique multiniveau longitudinale de mesures répétées, cette recherche a comme premier objectif, de comprendre l’évolution historique du niveau de confiance institutionnelle en Amérique Latine entre 1995 et 2021, à partir de la combinaison des données incluses dans les sondages réalisées par Latinobarómetro, LAPOP et l’Enquête Mondiale des Valeurs (WVS), et comme deuxième objectif, d’estimer l’impact de l’orientation idéologique des individus et des partis au pouvoir sur le niveau de confiance institutionnelle. Les résultats montrent que quand le parti au pouvoir est de gauche, le niveau de confiance moyen envers les institutions est significativement plus élevé. Ils montrent également que la confiance institutionnelle se renforce positivement chez ceux qui déclarent avoir la même orientation que le parti au pouvoir. L’évolution de la confiance institutionnelle dans la région s’explique donc en partie, par l’orientation idéologique des individus et du parti au pouvoir. / Desde el retorno de la democracia América Latina ha experimentado una serie de importantes transformaciones. Las primeras, fueron económicas y se caracterizaron principalmente por una gran ola de liberalización económica que significó, entre otras cosas, un tipo de cambio fluctuante, recortes en el gasto público, la privatización de las empresas y servicios públicos que terminaron por reducir considerablemente el papel del Estado. Las segundas, fueron políticas y estuvieron marcadas por la llegada de los partidos de izquierda al poder y la implementación de una serie de políticas sociales dirigidas a reducir la pobreza y la desigualdad que permitieron mejorar significativamente las condiciones de vida de millones de latinoamericanos. Todas estas experiencias más la frecuente alternancia entre el autoritarismo y la democracia vivida durante los últimos años inevitablemente han ejercido un efecto en la confianza que los individuos tienen sobre las instituciones. En este sentido, ¿Cómo ha evolucionado el nivel de confianza institucional en América Latina los últimos años? Específicamente, ¿Cómo la alternancia en el poder de partidos de izquierda y de derecha que han gobernado en América Latina durante los últimos treinta años, ha impactado en los niveles de confianza que los latinoamericanos tienen de sus instituciones? A través de un modelo estadístico multinivel longitudinal de medidas repetidas, esta investigación tiene como objetivo en primer lugar, comprender la evolución histórica del nivel de confianza institucional en América Latina entre 1995 y 2021, a partir de la combinación de datos incluidos en las encuestas realizadas por Latinobarómetro, LAPOP y la Encuesta Mundial de Valores (WVS), y en segundo lugar, estimar el impacto de la orientación ideológica de los individuos y de los partidos gobernantes sobre el nivel de confianza institucional. Los resultados muestran que cuando el partido gobernante es de izquierda, el nivel de confianza medio hacia las instituciones es significativamente más alto. Por otra parte, muestran que la confianza hacia las instituciones se refuerza positivamente en aquellas personas que declaran tener la misma orientación que el partido gobernante. Por lo tanto, la evolución de la confianza institucional en América Latina se explica en parte, por la orientación ideológica de los individuos y del partido en el poder. / Since the return of democracy, Latin America has experienced a series of important transformations. The first, were economic and were mainly characterized by a big wave of economic liberalization that meant, among other things, a fluctuating exchange rate, curs in public spending, the privatization of public organizations and services that ended up considerably reducing the role of the State. The second, were politics and were marked by the arrival of left-wing parties to power and the implementation of a series of social policies aimed at reducing poverty and inequality that allowed to significantly improved millions of Latin Americans’ life conditions. All those experiences, plus the frequent alternance between authoritarianism and democracy in recent years, have inevitably had an effect on the trust that individuals have in institutions. Therefore, how has the level of institutional trust evolved in Latin America in recent years? Specifically, how has the alternance in power of left and right parties that have governed in Latin America during the last thirty years, had an impact on the levels of trust that Latin Americans have in their institutions? Through a longitudinal multilevel statistical model of repeated measures, this research aims, first, at understanding the historical evolution of the level of institutional trust in Latin America between 1995 and 2021, from the combination of data included in the surveys carried out by Latinobarómetro, LAPOP and the World Values Survey (WVS), and secondly, to estimate the impact of the ideological orientation of individuals and of the ruling parties on the level of institutional trust. The results show that when the ruling party is from the left, the average level of trust towards the institutions is significantly higher. They also show that trust in institutions is positively reinforced in those people who declare that they have the same orientation as the ruling party. Therefore, the evolution of institutional trust in Latin America is explained in part by the ideological orientation of individuals and the party in power.
509

Dynamiques de connectivité cérébrale fonctionnelle associées aux fluctuations journalières des états affectifs

Racicot, Jeanne 12 1900 (has links)
Les affects, émotions et humeurs sont des processus complexes dont le fonctionnement précis échappe toujours à la neuroscience affective. Un récent mouvement des études IRMf s’est tourné vers la recherche d’effets aux niveaux inter- et intra-individuels en raison du manque d’applicabilité individuelle des résultats provenant de moyennes de groupes basées sur des données transversales. En particulier, la recherche intra-individuelle permet l’étude de liens directs entre l’affectivité et la connectivité chez de mêmes individus à travers le temps. De précédentes études en IRMf rapportent ce type associations chez un unique participant, notre objectif a été d’étudier les effets intra-individuels communs pour un groupe d’individus. Nous avons utilisé le jeu de données Day2day, composé de 40 à 50 sessions pour 6 participants, chaque session incluant des données d’IRMf au repos ainsi que d’auto-évaluations des états affectifs. Nous avons analysé la relation entre l’affectivité et la connectivité fonctionnelle entre des régions cérébrales précédemment liées aux émotions et affects à l’aide de régressions linéaires mixtes multivariées. Nos modèles ont isolé des patrons de connectivité communs et généralisables liés aux variations intra-individuelles de l’affectivité observées au cours de plusieurs semaines et mois. Ces modèles impliquaient particulièrement l’amygdale et l’insula. Nos résultats ouvrent la possibilité de reproduire de tels modèles sur des jeux de données plus larges ainsi qu’à évaluer l’hétérogénéité entre sujets au-delà des effets moyens. La caractérisation de tels processus neurobiologiques pourrait être d’une grande utilité en clinique comme biomarqueur transdiagnostique de l’état affectif ou potentielle cible thérapeutique. / Affects, emotions and moods are complex processes, the precise functioning of which still eludes affective neuroscience. A recent movement in fMRI has turned to research of effects at the inter- and intra-individual level in response to the lack of individual-level applicability of results from cross-sectional group mean studies. In particular, intra-individual research enables the study of direct links between affective states and underlying connectivity in individuals across time. Previous fMRI studies have described these associations in a single participant, our objective was to find shared intraindividual effects across multiple subjects. We have used the Day2day dataset, comprising 40 to 50 sessions for six participants, each session including data from resting-state fMRI scans and self-report measures of state affectivity. We have investigated the relationship between affectivity and connectivity in brain regions linked to emotions and affects using multivariate mixed linear analysis. Our models have isolated common and generalizable patterns of connectivity linked to variations in affectivity observed over multiple weeks and months. These models involved mainly the amygdala and insula. Our results incentivize the re-creation of such modelsin larger datasets, and to assess heterogeneity beyond group mean effects. The characterization of such neurobiological processes could be of great use in a clinical setting as a transdiagnostic biomarker or as a potential therapeutic target.
510

Exchange rates policy and productivity / politique de taux de change et productivité

Diallo, Ibrahima Amadou 22 November 2013 (has links)
Cette thèse étudie comment le taux de change effectif réel (TCER) et ses mesures associées (volatilité du TCER et désalignement du TCER) affectent la croissance de la productivité totale des facteurs (CPTF). Elle analyse également les canaux par lesquels le TCER et ses mesures associées agissent sur la productivité totale des facteurs (PTF). La première partie étudie comment le TCER lui-Même, d'une part, et la volatilité du TCER, d'autre part, influencent la productivité. Une analyse du lien entre le niveau du TCER et la PTF dans le chapitre 1 indique qu'une appréciation de taux de change cause une augmentation de la PTF. Mais cet impact est également non- inéaire: en-Dessous du seuil, le TCER influence négativement la productivité tandis qu'au-Dessus du seuil il agit positivement. Les résultats du chapitre 2 illustrent que la volatilité du TCER affecte négativement la CPTF. Nous avons également constaté que la volatilité du TCER agit sur PTF selon le niveau du développement financier. Pour les pays modérément financièrement développés, la volatilité du TCER réagit négativement sur la productivité et n'a aucun effet sur la productivité pour les niveaux très bas et très élevés du développement financier. La deuxième partie examine les canaux par lesquels le TCER et ses mesures associées influencent la productivité. Les résultats du chapitre 3 illustrent que la volatilité du TCER a un impact négatif élevé sur l'investissement. Ces résultats sont robustes dans les pays à faible revenu et les pays à revenu moyens, et en employant une mesure alternative de volatilité du TCER. Le chapitre 4 montre que le désalignement du taux de change réel et la volatilité du taux de change réel affectent négativement les exportations. Il démontre également que la volatilité du taux de change réel est plus nocive aux exportations que le désalignement. Ces résultats sont corroborés par des résultats sur des sous-Échantillons de pays à bas revenu et à revenu moyen. / This dissertation investigates how the real effective exchange rate (REER) and its associated asurements (REER volatility and REER misalignment) affect total factor productivity growth (TFPG). It also analyzes the channels through which the REER and its associated measurements act on total factor productivity (TFP). The first part studies how the REER itself, on the one hand, and the REER volatility, on the other hand, influence productivity. An analysis of the link between the level of REER and TFP in chapter 1 reveals that an exchange rate appreciation causes an increase of TFP. But this impact is also nonlinear: below the threshold, real exchange rate influences negatively productivity while above the threshold it acts positively. The results of chapter 2 illustrate that REER volatility affects negatively TFPG. We also found that REER volatility acts on TFP according to the level of financial development. For moderately financially developed countries, REER volatility reacts negatively on productivity and has no effect on productivity for very low and very high levels of financial development. The second part examines the channels through which the REER and its associated measurements influence productivity. The results of chapter 3 illustrate that the exchange rate volatility has a strong negative impact on investment. This outcome is robust in low income and middle income countries, and by using an alternative measurement of exchange rate volatility. Chapter 4 show that both real exchange rate misalignment and real exchange rate volatility affect negatively exports. It also demonstrates that real exchange rate volatility is more harmful to exports than misalignment. These outcomes are corroborated by estimations on subsamples of Low- ncome and Middle-Income countries

Page generated in 0.0971 seconds