Spelling suggestions: "subject:"prédiction"" "subject:"prédictions""
11 |
Conjurer la malédiction de la dimension dans le calcul du noyau de viabilité à l'aide de parallélisation sur carte graphique et de la théorie de la fiabilité : application à des dynamiques environnementales / Dispel the dimensionality curse in viability kernel computation with the help of GPGPU and reliability theory : application to environmental dynamicsBrias, Antoine 15 December 2016 (has links)
La théorie de la viabilité propose des outils permettant de contrôler un système dynamique afin de le maintenir dans un domaine de contraintes. Le concept central de cette théorie est le noyau de viabilité, qui est l’ensemble des états initiaux à partir desquels il existe au moins une trajectoire contrôlée restant dans le domaine de contraintes. Cependant, le temps et l’espace nécessaires au calcul du noyau de viabilité augmentent exponentiellement avec le nombre de dimensions du problème considéré. C’est la malédiction de la dimension. Elle est d’autant plus présente dans le cas de systèmes incorporant des incertitudes. Dans ce cas-là, le noyau de viabilité devient l’ensemble des états pour lesquels il existe une stratégie de contrôle permettant de rester dans le domaine de contraintes avec au moins une certaine probabilité jusqu’à l’horizon de temps donné. L’objectif de cette thèse est d’étudier et de développer des approches afin de combattre cette malédiction de la dimension. Pour ce faire, nous avons proposé deux axes de recherche : la parallélisation des calculs et l’utilisation de la théorie de la fiabilité. Les résultats sont illustrés par plusieurs applications. Le premier axe explore l’utilisation de calcul parallèle sur carte graphique. La version du programme utilisant la carte graphique est jusqu’à 20 fois plus rapide que la version séquentielle, traitant des problèmes jusqu’en dimension 7. Outre ces gains en temps de calcul, nos travaux montrent que la majeure partie des ressources est utilisée pour le calcul des probabilités de transition du système. Cette observation fait le lien avec le deuxième axe de recherche qui propose un algorithme calculant une approximation de noyaux de viabilité stochastiques utilisant des méthodes fiabilistes calculant les probabilités de transition. L’espace-mémoire requis par cet algorithme est une fonction linéaire du nombre d’états de la grille utilisée, contrairement à l’espace-mémoire requis par l’algorithme de programmation dynamique classique qui dépend quadratiquement du nombre d’états. Ces approches permettent d’envisager l’application de la théorie de la viabilité à des systèmes de plus grande dimension. Ainsi nous l’avons appliquée à un modèle de dynamique du phosphore dans le cadre de la gestion de l’eutrophisation des lacs, préalablement calibré sur les données du lac du Bourget. De plus, les liens entre fiabilité et viabilité sont mis en valeur avec une application du calcul de noyau de viabilité stochastique, autrement appelé noyau de fiabilité, en conception fiable dans le cas d’une poutre corrodée. / Viability theory provides tools to maintain a dynamical system in a constraint domain. The main concept of this theory is the viability kernel, which is the set of initial states from which there is at least one controlled trajectory remaining in the constraint domain. However, the time and space needed to calculate the viability kernel increases exponentially with the number of dimensions of the problem. This issue is known as “the curse of dimensionality”. This curse is even more present when applying the viability theory to uncertain systems. In this case, the viability kernel is the set of states for which there is at least a control strategy to stay in the constraint domain with some probability until the time horizon. The objective of this thesis is to study and develop approaches to beat back the curse of dimensionality. We propose two lines of research: the parallel computing and the use of reliability theory tools. The results are illustrated by several applications. The first line explores the use of parallel computing on graphics card. The version of the program using the graphics card is up to 20 times faster than the sequential version, dealing with problems until dimension 7. In addition to the gains in calculation time, our work shows that the majority of the resources is used to the calculation of transition probabilities. This observation makes the link with the second line of research which proposes an algorithm calculating a stochastic approximation of viability kernels by using reliability methods in order to compute the transition probabilities. The memory space required by this algorithm is a linear function of the number of states of the grid, unlike the memory space required by conventional dynamic programming algorithm which quadratically depends on the number of states. These approaches may enable the use of the viability theory in the case of high-dimension systems. So we applied it to a phosphorus dynamics for the management of Lake Bourget eutrophication, previously calibrated from experimental data. In addition the relationship between reliability and viability is highlighted with an application of stochastic viability kernel computation, otherwise known as reliability kernel, in reliable design in the case of a corroded beam.
|
12 |
Migrations, cohabitations et visions du développement régional dans la Baie-des-Chaleurs : étude des représentations sociales chez les jeunes adultes natifs, nouvellement arrivés ou de retourRoy, Nicolas 13 December 2024 (has links)
Depuis plusieurs décennies, les régions de l’Est-du-Québec connaissent un vieillissement démographique et un dépeuplement accélérés par les migrations des jeunes vers les principaux centres métropolitains de la province de Québec (Mathews 1996 ; Morin, 2013). Or, depuis 2002, les MRC gaspésiennes d’Avignon et de Bonaventure ont connu une diminution de leur déficit démographique annuel, culminant pour la période 2008-2012 par des gains migratoires et une croissance de population (ISQ, 2016). Dans la foulée des travaux sur le développement des régions du Québec (Jean, 1997 ; Polèse, 2009 ; Proulx, 2011), ce mémoire jette un regard original sur de nouvelles tendances dans l’occupation d’un territoire « rural », « périphérique » et « ressource ». Ce mémoire présente une étude des représentations sociales (Abric, 2001) des migrations, de l’intégration et du développement régional chez de jeunes natifs d’Avignon et de Bonaventure qui sont demeurés dans leur milieu d’origine, chez d’autres qui sont de retour d’une migration et chez de nouveaux arrivants provenant des régions métropolitaines. Les résultats de l’analyse suggèrent que l’expérience métropolitaine (Simmel, 2013) et le partage de la mémoire sociale du lieu (Halbwachs, 1970) sont déterminants dans la construction des représentations. Les représentations qui se dégagent du discours des migrants sont celles d’un milieu enrichi d’une urbanité distincte de celle des villes, d’une intégration confrontée à l’interconnaissance de la communauté d’accueil et d’un optimisme inquiet du développement, suscité par les projets du secteur primaire qui détériorent le territoire idéalisé de leur projet migratoire. Leurs représentations de la vie dans les deux MRC ont été comparées à celles d’un groupe de jeunes natifs pour qui cet espace est jugé en déclin et tributaire d’une économie des ressources naturelles. Cette étude met en lumière la cohabitation de groupes qui partagent désormais un même espace sans nécessairement s’y rencontrer et partager les mêmes aspirations pour son avenir. Ce phénomène participe à l’accroissement de la mixité sociale dans le milieu ainsi qu’à une « métropolisation » de ce sous-ensemble régional. / For several decades, the Eastern Quebec regions have been experiencing accelerated population aging and depopulation through youth migration to Quebec’s major metropolitan centers (Mathews 1996, Morin, 2013). However, since 2002, the MRC of Avignon and Bonaventure on the Gaspé Coast have experienced a reduction in their annual population deficit, culminating for the 2008-2012 period by migratory gains and population growth (ISQ, 2016). In the wake of work on the development of the regions of Quebec (Jean, 1997, Polèse, 2009, Proulx, 2011), this memoir takes an original look at new trends in the occupation of a "rural", "peripheral" and "resource" territory. This master thesis presents a study of social representations (Abric, 2001) of migration, integration and regional development among young natives of Avignon and Bonaventure who have remained in their home environment, among others who have returned from migration and newcomers from metropolitan areas. The results of the analysis suggests that the metropolitan experience (Simmel, 2013) and the sharing of the social memory (Halbwachs, 1970) of the place are decisive in the construction of representations. The representations that emerge from the migrants' discourse are those of an environment enriched by urbanity distinct from that of the cities, of an integration confronted with the mutual acquaintance of the host community and of a worried optimism of development, prompted by projects in the primary sector that deteriorate the idealized territory of their migration project. Their representations of life in the two MRC’s were compared to those of a native youth group for whom this space is judged to be declining and dependent on a natural resource economy. This study highlights the cohabitation of groups that now share the same space without necessarily meeting and sharing the same aspirations for its future. This phenomenon contributes to the increase of a social mix in the environment and to a "metropolisation" of this regional subassembly.
|
13 |
Essays on Economic Development in Commodity-Dependent Economies / Essais sur le développement économique des économies dépendantes aux matières premièresHenry, Alexandre 06 September 2019 (has links)
La dépendance aux ressources naturelles entraîne de nombreux défis pour les décideurs publics. Fort de ce constat, se pose avec acuité la question suivante: dans quelle mesure les gouvernements des pays d’Afrique sub-Saharienne sont à même d’employer leurs leviers de politiques fiscales et monétaires afin de limiter les effets négatifs de la dépendance aux ressources naturelles et d’entraîner un cercle économique vertueux? Le second chapitre de la thèse distingue les mécanismes de court terme et de long terme de la dépendance aux ressources naturelles en utilisant une approche en deux temps: d’abord les variables explicatives sont cointégrées pour établir les relations de long terme puis un modèle à correction d’erreur est estimé pour capter les relations de court terme de retour à l’équilibre.Sur le long terme, l’effet négatif de la dépendance est confirmé. Cependant, les pays dotés d’institutions de mauvaise qualité sont plus vulnérables car non seulement ils subissent l’impact de long terme mais la dépendance aux ressources affecte négativement le processus de retour à l’équilibre sur le court terme. Enfin, les résultats montrent que dans le cadre d’institutions de qualité supérieure, la dépendance aux ressources naturelles peut avoir un impact positif sur la reprise économique. Dans un troisième chapitre, un modèle pvar compare les intéractions macro-économiques dans la zone monétaire franc CFA, ancré à l’euro, par rapport aux pays comparables hors zone franc CFA. En prenant en compte la forte présence de matières premières dans leurs exportations, les résultats montrent que la zone franc CFA ne subit pas de perte de compétitivité de par son appartenance à une zone monétaire. En revanche, les investissements directs de l’étranger n’entraînent pas des effets positifs sur la croissance de la même ampleur que ceux observés hors de la zone franc CFA. Le quatrième chapitre contribue à la littérature associée à la gestion optimale des ressources fiscales, notamment dans le cadre d’un boom des matières premières. Les résultats montrent que dans le cadre d’un accès réduit aux marchés de capitaux, les périodes de boom de matières premières sont des opportunités capitales pour stimuler la croissance via l’investissement public, alors que les contraintes fiscales sont temporairement relâchées. Toutefois, l’efficacité de ces accroissements d’investissement est conditionnelle à un niveau d’endettement public soutenable. / This thesis belongs to the literature on natural resource dependence and brings a new perspective by focusing on the sub-Saharan African region. This dependence introduces numerous challenges for policy makers both in terms of fiscal and monetary policy. The main research question explored in this thesis is the following : to which extent sub- Saharan African governments can rely on fiscal and monetary policies to mitigate the adverse impacts of commodity dependence and trigger positive spillover and achieve sustainable growth? The second chapter of the thesis unfolds short-term versus long-term mechanisms of the resource curse by using a two-step analysis: an error-correction model is performed after co-integrating the explana- tory variables. Main findings highlight the crucial role of institutions. On the long run, the negative impact of the dependence is confirmed independently of the institution quality. However, countries with weak institutions are more vulnerable to the curse because the re- source dependence not only negatively impacts long-term growth but also adversely impacts the recovery process. Finally, in a strong in- stitutional environment, results points to a potential positive impact of natural resources during recovery process. In the third chapter, a panel vector auto-regressive model compares macro-economic interactions in the pegged CFA monetary union versus a comparable sample. Considering their export structure dominated by raw commodities, results suggests that the CFA zone members do not suffer from a loss of competitiveness from belonging to the monetary union. However, foreign direct investments fail to generate the same spillover effect in the CFA zone compared to non-CFA countries. The forth chapter provides insights on the optimal management of fiscal resources, especially during a windfall period. Growth elasticities of different government choices regarding revenue allocation is performed. Results show that in a con- text of limited access to capital, resource windfall are considered as a crucial opportunity to scale up investment. In fact, below a level of public capital stock (estimated around 750 USD per capita), public investment during a boom has a four-fold higher impact on growth than above the threshold. This scaling up is conditional on low levels of public debt: countries featuring unsustainable public debt levels should prioritize the restoration of stronger foreign reserves
|
14 |
Essays on the economics of corruption / Essais sur l'économie de la corruptionWadho, Waqar ahmed 22 June 2011 (has links)
Cette thèse est composée de trois essais; dans le premier essai je traite les questions de la détermination, de la variance et des répercussions de la corruption. J’ai montré que la corruption est déterminée par la part des travailleurs non qualifiés sur la population. Si cette part est large alors il existe une corruption, si elle est faible la corruption est inexistante, et pour des niveaux intermédiaires, il existe une multiplicité d’équilibres. La corruption augmente les inégalités salariales entre travailleurs qualifiés et non qualifiés, et une perte de bien-être. Dans le deuxième essai je traite la question de lutte contre la corruption à travers l’incitation salariale. Avec une technologie de contrôle endogène, je montre que le gouvernement peut mieux accepter la corruption lorsqu’il est coûteux de contrôler. Lorsqu’il est optimal de combattre alors le gouvernement peut le faire soit à travers des salaires d’efficience ou soit par le contrôle. Néanmoins le rôle des salaires d’efficience dans la lutte contre la corruption est moindre dans les sociétés avec un niveau de malhonnêteté élevé. Le troisième essai traite la malédiction des ressources naturelles. Je montre que l'éducation et la corruption sont déterminées conjointement ; les ressources naturelles affectent l’incitation à investir en éducation et en ‘rent-seeking’ ce qui en retour affecte la croissance. En outre, la relation entre une abondance et la malédiction des ressources naturelles n’est pas monotone. Pour un niveau d’inégalité d’accès à l’éducation faible et un coût élevé de participation dans la vie politique, un niveau de croissance élevé et la trappe à la pauvreté coexistent. / This dissertation consists of three essays. The topics cover determination, variance and repercussions of corruption (essay one), corruption deterrence through wage incentives (essay two), and natural resource curse (essay three). In the first essay, I show that for a larger population of unskilled labor, there is a widespread corruption and for a smaller population there is no corruption. For the intermediate levels there are multiple equilibria. On its consequences, corruption increases wage inequality between skilled and unskilled workers, and results in output and welfare losses. In the second essay, I argue that deterring corruption through efficiency wage may become prohibitively expensive. With endogenous monitoring technology that allows capturing the dual role of auditing, as a complement with and as a substitute for wage incentives, I find that the government is better-off accepting corruption when it is costly to monitor. When it is optimal to deter bribery, the government can do it either through efficiency wages or monitoring. The role of efficiency wages decreases in societies with higher level of dishonesty. In the third essay, I build a theory explaining a resource curse. In contrast to the existing literature which generally considers low education, corruption and natural resources separately, I combine three strands of literature. Natural resources affect incentives to invest in education and rent seeking that in turn affects growth. Second, the relationship between resource-abundance and resource-curse is non-monotonic. For low inequality in access to education and high cost of political participation, high-growth and poverty-trap equilibria co-exist.
|
15 |
Moralité et responsabilité : cas de la pratique des quimboiseurs et des prêtres catholiques martiniquaisLacroix, Geneviève 13 April 2018 (has links)
Ce mémoire vise à identifier et analyser les définitions populaires des Martiniquais sur les notions de moralité et de responsabilité pour ensuite les transposer dans le contexte plus précis des pratiques de soins de santé. La société martiniquaise, par ses croyances et pratiques particulières, préconise certaines valeurs morales et condamne certains comportements. Ces normes établies seront à la base des règles qui régissent les rapports entre les thérapeutes {quimboiseurs, prêtres catholiques) et leurs patients. Le concept de responsabilisation permet quant à lui de déterminer l'origine de maladies ou d'infortunes que subit un individu. Il est alors important d'explorer les différents schèmes de responsabilisation ou de déresponsabilisation existant à la Martinique afin de mieux comprendre comment et à qui sont attribuées les causes des problèmes que peuvent subir les Martiniquais. Cette dernière analyse permettra également de comprendre de quelle façon, dans le contexte de soins de santé, sont traduites et sanctionnées les pratiques immorales des thérapeutes.
|
16 |
Efficient estimation using the characteristic function : theory and applications with high frequency dataKotchoni, Rachidi 05 1900 (has links)
The attached file is created with Scientific Workplace Latex / Nous abordons deux sujets distincts dans cette thèse: l'estimation de la volatilité des prix d'actifs financiers à partir des données à haute fréquence, et l'estimation des paramétres d'un processus aléatoire à partir de sa fonction caractéristique.
Le chapitre 1 s'intéresse à l'estimation de la volatilité des prix d'actifs. Nous supposons que les données à haute fréquence disponibles sont entachées de bruit de microstructure. Les propriétés que l'on prête au bruit sont déterminantes dans le choix de l'estimateur de la volatilité. Dans ce chapitre, nous spécifions un nouveau modèle dynamique pour le bruit de microstructure qui intègre trois propriétés importantes: (i) le bruit peut être autocorrélé, (ii) le retard maximal au delà duquel l'autocorrélation est nulle peut être une fonction croissante de la fréquence journalière d'observations; (iii) le bruit peut avoir une composante correlée avec le rendement efficient. Cette dernière composante est alors dite endogène. Ce modèle se différencie de ceux existant en ceci qu'il implique que l'autocorrélation d'ordre 1 du bruit converge vers 1 lorsque la fréquence journalière d'observation tend vers l'infini.
Nous utilisons le cadre semi-paramétrique ainsi défini pour dériver un nouvel estimateur de la volatilité intégrée baptisée "estimateur shrinkage". Cet estimateur se présente sous la forme d'une combinaison linéaire optimale de deux estimateurs aux propriétés différentes, l'optimalité étant défini en termes de minimisation de la variance. Les simulations indiquent que l'estimateur shrinkage a une variance plus petite que le meilleur des deux estimateurs initiaux. Des estimateurs sont également proposés pour les paramètres du modèle de microstructure. Nous clôturons ce chapitre par une application empirique basée sur des actifs du Dow Jones Industrials. Les résultats indiquent qu'il est pertinent de tenir compte de la dépendance temporelle du bruit de microstructure dans le processus d'estimation de la volatilité.
Les chapitres 2, 3 et 4 s'inscrivent dans la littérature économétrique qui traite de la méthode des moments généralisés. En effet, on rencontre en finance des modèles dont la fonction de vraisemblance n'est pas connue. On peut citer en guise d'exemple la loi stable ainsi que les modèles de diffusion observés en temps discrets. Les méthodes d'inférence basées sur la fonction caractéristique peuvent être envisagées dans ces cas. Typiquement, on spécifie une condition de moment basée sur la différence entre la fonction caractéristique (conditionnelle) théorique et sa contrepartie empirique. Le défit ici est d'exploiter au mieux le continuum de conditions de moment ainsi spécifié pour atteindre la même efficacité que le maximum de vraisemblance dans les inférences.
Ce défit a été relevé par Carrasco et Florens (2000) qui ont proposé la procédure CGMM (continuum GMM). La fonction objectif que ces auteurs proposent est une forme quadratique hilbertienne qui fait intervenir l'opérateur inverse de covariance associé au continuum de condition de moments. Cet opérateur inverse est régularisé à la Tikhonov pour en assurer l'existence globale et la continuité. Carrasco et Florens (2000) ont montré que l'estimateur obtenu en minimisant cette forme quadratique est asymptotiquement aussi efficace que l'estimateur du maximum de vraisemblance si le paramètre de régularisation (α) tend vers zéro lorsque la taille de l'échatillon tend vers l'infini. La nature de la fonction objectif du CGMM soulève deux questions importantes. La première est celle de la calibration de α en pratique, et la seconde est liée à la présence d'intégrales multiples dans l'expression de la fonction objectif. C'est à ces deux problématiques qu'essayent de répondent les trois derniers chapitres de la présente thèse.
Dans le chapitre 2, nous proposons une méthode de calibration de α basée sur la minimisation de l'erreur quadratique moyenne (EQM) de l'estimateur. Nous suivons une approche similaire à celle de Newey et Smith (2004) pour calculer un développement d'ordre supérieur de l'EQM de l'estimateur CGMM de sorte à pouvoir examiner sa dépendance en α en échantillon fini. Nous proposons ensuite deux méthodes pour choisir α en pratique. La première se base sur le développement de l'EQM, et la seconde se base sur des simulations Monte Carlo. Nous montrons que la méthode Monte Carlo délivre un estimateur convergent de α optimal. Nos simulations confirment la pertinence de la calibration de α en pratique.
Le chapitre 3 essaye de vulgariser la théorie du chapitre 2 pour les modèles univariés ou bivariés. Nous commençons par passer en revue les propriétés de convergence et de normalité asymptotique de l'estimateur CGMM. Nous proposons ensuite des recettes numériques pour l'implémentation. Enfin, nous conduisons des simulations Monte Carlo basée sur la loi stable. Ces simulations démontrent que le CGMM est une méthode fiable d'inférence. En guise d'application empirique, nous estimons par CGMM un modèle de variance autorégressif Gamma. Les résultats d'estimation confirment un résultat bien connu en finance: le rendement est positivement corrélé au risque espéré et négativement corrélé au choc sur la volatilité.
Lorsqu'on implémente le CGMM, une difficulté majeure réside dans l'évaluation numérique itérative des intégrales multiples présentes dans la fonction objectif. Les méthodes de quadrature sont en principe parmi les plus précises que l'on puisse utiliser dans le présent contexte. Malheureusement, le nombre de points de quadrature augmente exponentiellement en fonction de la dimensionalité (d) des intégrales. L'utilisation du CGMM devient pratiquement impossible dans les modèles multivariés et non markoviens où d≥3. Dans le chapitre 4, nous proposons une procédure alternative baptisée "reéchantillonnage dans le domaine fréquentielle" qui consiste à fabriquer des échantillons univariés en prenant une combinaison linéaire des éléments du vecteur initial, les poids de la combinaison linéaire étant tirés aléatoirement dans un sous-espace normalisé de ℝ^{d}. Chaque échantillon ainsi généré est utilisé pour produire un estimateur du paramètre d'intérêt. L'estimateur final que nous proposons est une combinaison linéaire optimale de tous les estimateurs ainsi obtenus. Finalement, nous proposons une étude par simulation et une application empirique basées sur des modèles autorégressifs Gamma.
Dans l'ensemble, nous faisons une utilisation intensive du bootstrap, une technique selon laquelle les propriétés statistiques d'une distribution inconnue peuvent être estimées à partir d'un estimé de cette distribution. Nos résultats empiriques peuvent donc en principe être améliorés en faisant appel aux connaissances les plus récentes dans le domaine du bootstrap. / In estimating the integrated volatility of financial assets using noisy high frequency data, the time series properties assumed for the microstructure noise determines the proper choice of the volatility estimator. In the first chapter of the current thesis, we propose a new model for the microstructure noise with three important features. First of all, our model assumes that the noise is L-dependent. Secondly, the memory lag L is allowed to increase with the sampling frequency. And thirdly, the noise may include an endogenous part, that is, a piece that is correlated with the latent returns. The main difference between this microstructure model and existing ones is that it implies a first order autocorrelation that converges to 1 as the sampling frequency goes to infinity.
We use this semi-parametric model to derive a new shrinkage estimator for the integrated volatility. The proposed estimator makes an optimal signal-to-noise trade-off by combining a consistent estimators with an inconsistent one. Simulation results show that the shrinkage estimator behaves better than the best of the two combined ones. We also propose some estimators for the parameters of the noise model. An empirical study based on stocks listed in the Dow Jones Industrials shows the relevance of accounting for possible time dependence in the noise process.
Chapters 2, 3 and 4 pertain to the generalized method of moments based on the characteristic function. In fact, the likelihood functions of many financial econometrics models are not known in close form. For example, this is the case for the stable distribution and a discretely observed continuous time model. In these cases, one may estimate the parameter of interest by specifying a moment condition based on the difference between the theoretical (conditional) characteristic function and its empirical counterpart. The challenge is then to exploit the whole continuum of moment conditions hence defined to achieve the maximum likelihood efficiency.
This problem has been solved in Carrasco and Florens (2000) who propose the CGMM procedure. The objective function of the CGMM is a quadrqtic form on the Hilbert space defined by the moment function. That objective function depends on a Tikhonov-type regularized inverse of the covariance operator associated with the moment function. Carrasco and Florens (2000) have shown that the estimator obtained by minimizing the proposed objective function is asymptotically as efficient as the maximum likelihood estimator provided that the regularization parameter (α) converges to zero as the sample size goes to infinity. However, the nature of this objective function raises two important questions. First of all, how do we select α in practice? And secondly, how do we implement the CGMM when the multiplicity (d) of the integrals embedded in the objective-function d is large. These questions are tackled in the last three chapters of the thesis.
In Chapter 2, we propose to choose α by minimizing the approximate mean square error (MSE) of the estimator. Following an approach similar to Newey and Smith (2004), we derive a higher-order expansion of the estimator from which we characterize the finite sample dependence of the MSE on α. We provide two data-driven methods for selecting the regularization parameter in practice. The first one relies on the higher-order expansion of the MSE whereas the second one uses only simulations. We show that our simulation technique delivers a consistent estimator of α. Our Monte Carlo simulations confirm the importance of the optimal selection of α.
The goal of Chapter 3 is to illustrate how to efficiently implement the CGMM for d≤2. To start with, we review the consistency and asymptotic normality properties of the CGMM estimator. Next we suggest some numerical recipes for its implementation. Finally, we carry out a simulation study with the stable distribution that confirms the accuracy of the CGMM as an inference method. An empirical application based on the autoregressive variance Gamma model led to a well-known conclusion: investors require a positive premium for bearing the expected risk while a negative premium is attached to the unexpected risk.
In implementing the characteristic function based CGMM, a major difficulty lies in the evaluation of the multiple integrals embedded in the objective function. Numerical quadratures are among the most accurate methods that can be used in the present context. Unfortunately, the number of quadrature points grows exponentially with d. When the data generating process is Markov or dependent, the accurate implementation of the CGMM becomes roughly unfeasible when d≥3. In Chapter 4, we propose a strategy that consists in creating univariate samples by taking a linear combination of the elements of the original vector process. The weights of the linear combinations are drawn from a normalized set of ℝ^{d}. Each univariate index generated in this way is called a frequency domain bootstrap sample that can be used to compute an estimator of the parameter of interest. Finally, all the possible estimators obtained in this fashion can be aggregated to obtain the final estimator. The optimal aggregation rule is discussed in the paper. The overall method is illustrated by a simulation study and an empirical application based on autoregressive Gamma models.
This thesis makes an extensive use of the bootstrap, a technique according to which the statistical properties of an unknown distribution can be estimated from an estimate of that distribution. It is thus possible to improve our simulations and empirical results by using the state-of-the-art refinements of the bootstrap methodology.
|
17 |
Apprentissage machine efficace : théorie et pratiqueDelalleau, Olivier 03 1900 (has links)
Malgré des progrès constants en termes de capacité de calcul, mémoire et quantité de données disponibles, les algorithmes d'apprentissage machine doivent se montrer efficaces dans l'utilisation de ces ressources. La minimisation des coûts est évidemment un facteur important, mais une autre motivation est la recherche de mécanismes d'apprentissage capables de reproduire le comportement d'êtres intelligents. Cette thèse aborde le problème de l'efficacité à travers plusieurs articles traitant d'algorithmes d'apprentissage variés : ce problème est vu non seulement du point de vue de l'efficacité computationnelle (temps de calcul et mémoire utilisés), mais aussi de celui de l'efficacité statistique (nombre d'exemples requis pour accomplir une tâche donnée).
Une première contribution apportée par cette thèse est la mise en lumière d'inefficacités statistiques dans des algorithmes existants. Nous montrons ainsi que les arbres de décision généralisent mal pour certains types de tâches (chapitre 3), de même que les algorithmes classiques d'apprentissage semi-supervisé à base de graphe (chapitre 5), chacun étant affecté par une forme particulière de la malédiction de la dimensionalité. Pour une certaine classe de réseaux de neurones, appelés réseaux sommes-produits, nous montrons qu'il peut être exponentiellement moins efficace de représenter certaines fonctions par des réseaux à une seule couche cachée, comparé à des réseaux profonds (chapitre 4). Nos analyses permettent de mieux comprendre certains problèmes intrinsèques liés à ces algorithmes, et d'orienter la recherche dans des directions qui pourraient permettre de les résoudre.
Nous identifions également des inefficacités computationnelles dans les algorithmes d'apprentissage semi-supervisé à base de graphe (chapitre 5), et dans l'apprentissage de mélanges de Gaussiennes en présence de valeurs manquantes (chapitre 6). Dans les deux cas, nous proposons de nouveaux algorithmes capables de traiter des ensembles de données significativement plus grands. Les deux derniers chapitres traitent de l'efficacité computationnelle sous un angle différent. Dans le chapitre 7, nous analysons de manière théorique un algorithme existant pour l'apprentissage efficace dans les machines de Boltzmann restreintes (la divergence contrastive), afin de mieux comprendre les raisons qui expliquent le succès de cet algorithme. Finalement, dans le chapitre 8 nous présentons une application de l'apprentissage machine dans le domaine des jeux vidéo, pour laquelle le problème de l'efficacité computationnelle est relié à des considérations d'ingénierie logicielle et matérielle, souvent ignorées en recherche mais ô combien importantes en pratique. / Despite constant progress in terms of available computational power, memory and amount of data, machine learning algorithms need to be efficient in how they use them. Although minimizing cost is an obvious major concern, another motivation is to attempt to design algorithms that can learn as efficiently as intelligent species. This thesis tackles the problem of efficient learning through various papers dealing with a wide range of machine learning algorithms: this topic is seen both from the point of view of computational efficiency (processing power and memory required by the algorithms) and of statistical efficiency (n
umber of samples necessary to solve a given learning task).The first contribution of this thesis is in shedding light on various statistical inefficiencies in existing algorithms. Indeed, we show that decision trees do not generalize well on tasks with some particular properties (chapter 3), and that a similar flaw affects typical graph-based semi-supervised learning algorithms (chapter 5). This flaw is a form of curse of dimensionality that is specific to each of these algorithms. For a subclass of neural networks, called sum-product networks, we prove that using networks with a single hidden layer can be exponentially less efficient than when using deep networks (chapter 4). Our analyses help better understand some inherent flaws found in these algorithms, and steer research towards approaches that may potentially overcome them.
We also exhibit computational inefficiencies in popular graph-based semi-supervised learning algorithms (chapter 5) as well as in the learning of mixtures of Gaussians with missing data (chapter 6). In both cases we propose new algorithms that make it possible to scale to much larger datasets. The last two chapters also deal with computational efficiency, but in different ways. Chapter 7 presents a new view on the contrastive divergence algorithm (which has been used for efficient training of restricted Boltzmann machines). It provides additional insight on the reasons why this algorithm has been so successful. Finally, in chapter 8 we describe an application of machine learning to video games, where computational efficiency is tied to software and hardware engineering constraints which, although often ignored in research papers, are ubiquitous in practice.
|
18 |
La mesure économique de la dépréciation du capital minier au Pérou / Measuring the Peruvian mineral depletionCantuarias-Villessuzanne, Carmen Amalia 07 June 2012 (has links)
Le Pérou, extrêmement riche en minerais, connaît depuis les années 2000 une forte croissance économique. Àla question de savoir si sa richesse minérale condamne le Pérou à la malédiction des ressources naturelles, nousrépondons que ce n’est pas le cas à l’heure actuelle, mais nous mettons en évidence une forte dépendance vis-à-visde l’activité minière. La question centrale est celle du développement durable de l’activité minière. La mesure dela dépréciation du capital minier (dcm) est l’indicateur fondamental pour évaluer la situation. Diverses méthodesd’estimation existent, mais notre analyse microéconomique basée sur la règle de Hotelling fournit une valeurd’environ 7 % du pib sur la période 2000–2008, soit le double de l’approximation donnée par la Banque Mondiale.Nous proposons d’intégrer la dcm aux indicateurs macroéconomiques traditionnels, ce qui permet de mettreen évidence la surestimation de la croissance économique. Conformément à la règle de Hartwick, il apparaîtclairement que le développement péruvien n’est pas durable ; les revenus miniers ne compensent pas la dcmet ne sont pas réinvestis en faveur du développement du pays. Il faudrait donc taxer les entreprises minières àhauteur de la dcm, et créer un fonds de ressources naturelles. Nos résultats montrent qu’épargner seulement 8 %de la dcm permettrait d’atteindre un revenu durable pour les générations futures. La création d’un tel fonds deressources naturelles aurait également pour avantage de réduire l’instabilité macroéconomique et de promouvoirune meilleure gouvernabilité. / Since the 2000s, Peru, a country extremely rich in minerals has experienced strong economic growth. WouldPeru be condemned to the resource curse because of its mineral wealth? For now this is not the case; howeverwe point up a strong dependence upon the mining sector. The main question relates to the sustainability of themining industry. The mineral depletion rate is a fundamental indicator to assess the situation. To calculate this,there are many forecasting methods available ; our microeconomic analysis based on the Hotelling rule providesa value of around 7 % of gdp for the period between 2000 and 2008, which represents double the estimation ofthe World Bank.We recommend the mineral depletion be taken into account when calculating traditional macroeconomic indicators;it would highlight the overestimation of economic growth. According to the Hartwick rule, it is clearthat Peruvian development is not sustainable; mining revenues do not offset the mineral depletion and are notreinvested in the development of the country. Therefore, the solution should be to tax mining companies at alevel equivalent to that of depletion and, with the new income, to create a natural resource fund. Saving only8 % of the mineral depletion would suffice to generate sustainable rent for futures generations. In addition, thecreation of a natural resource fund would reduce macroeconomic instability and enforce better governance.
|
19 |
Apprentissage machine efficace : théorie et pratiqueDelalleau, Olivier 03 1900 (has links)
Malgré des progrès constants en termes de capacité de calcul, mémoire et quantité de données disponibles, les algorithmes d'apprentissage machine doivent se montrer efficaces dans l'utilisation de ces ressources. La minimisation des coûts est évidemment un facteur important, mais une autre motivation est la recherche de mécanismes d'apprentissage capables de reproduire le comportement d'êtres intelligents. Cette thèse aborde le problème de l'efficacité à travers plusieurs articles traitant d'algorithmes d'apprentissage variés : ce problème est vu non seulement du point de vue de l'efficacité computationnelle (temps de calcul et mémoire utilisés), mais aussi de celui de l'efficacité statistique (nombre d'exemples requis pour accomplir une tâche donnée).
Une première contribution apportée par cette thèse est la mise en lumière d'inefficacités statistiques dans des algorithmes existants. Nous montrons ainsi que les arbres de décision généralisent mal pour certains types de tâches (chapitre 3), de même que les algorithmes classiques d'apprentissage semi-supervisé à base de graphe (chapitre 5), chacun étant affecté par une forme particulière de la malédiction de la dimensionalité. Pour une certaine classe de réseaux de neurones, appelés réseaux sommes-produits, nous montrons qu'il peut être exponentiellement moins efficace de représenter certaines fonctions par des réseaux à une seule couche cachée, comparé à des réseaux profonds (chapitre 4). Nos analyses permettent de mieux comprendre certains problèmes intrinsèques liés à ces algorithmes, et d'orienter la recherche dans des directions qui pourraient permettre de les résoudre.
Nous identifions également des inefficacités computationnelles dans les algorithmes d'apprentissage semi-supervisé à base de graphe (chapitre 5), et dans l'apprentissage de mélanges de Gaussiennes en présence de valeurs manquantes (chapitre 6). Dans les deux cas, nous proposons de nouveaux algorithmes capables de traiter des ensembles de données significativement plus grands. Les deux derniers chapitres traitent de l'efficacité computationnelle sous un angle différent. Dans le chapitre 7, nous analysons de manière théorique un algorithme existant pour l'apprentissage efficace dans les machines de Boltzmann restreintes (la divergence contrastive), afin de mieux comprendre les raisons qui expliquent le succès de cet algorithme. Finalement, dans le chapitre 8 nous présentons une application de l'apprentissage machine dans le domaine des jeux vidéo, pour laquelle le problème de l'efficacité computationnelle est relié à des considérations d'ingénierie logicielle et matérielle, souvent ignorées en recherche mais ô combien importantes en pratique. / Despite constant progress in terms of available computational power, memory and amount of data, machine learning algorithms need to be efficient in how they use them. Although minimizing cost is an obvious major concern, another motivation is to attempt to design algorithms that can learn as efficiently as intelligent species. This thesis tackles the problem of efficient learning through various papers dealing with a wide range of machine learning algorithms: this topic is seen both from the point of view of computational efficiency (processing power and memory required by the algorithms) and of statistical efficiency (n
umber of samples necessary to solve a given learning task).The first contribution of this thesis is in shedding light on various statistical inefficiencies in existing algorithms. Indeed, we show that decision trees do not generalize well on tasks with some particular properties (chapter 3), and that a similar flaw affects typical graph-based semi-supervised learning algorithms (chapter 5). This flaw is a form of curse of dimensionality that is specific to each of these algorithms. For a subclass of neural networks, called sum-product networks, we prove that using networks with a single hidden layer can be exponentially less efficient than when using deep networks (chapter 4). Our analyses help better understand some inherent flaws found in these algorithms, and steer research towards approaches that may potentially overcome them.
We also exhibit computational inefficiencies in popular graph-based semi-supervised learning algorithms (chapter 5) as well as in the learning of mixtures of Gaussians with missing data (chapter 6). In both cases we propose new algorithms that make it possible to scale to much larger datasets. The last two chapters also deal with computational efficiency, but in different ways. Chapter 7 presents a new view on the contrastive divergence algorithm (which has been used for efficient training of restricted Boltzmann machines). It provides additional insight on the reasons why this algorithm has been so successful. Finally, in chapter 8 we describe an application of machine learning to video games, where computational efficiency is tied to software and hardware engineering constraints which, although often ignored in research papers, are ubiquitous in practice.
|
20 |
Efficient estimation using the characteristic function : theory and applications with high frequency dataKotchoni, Rachidi 05 1900 (has links)
Nous abordons deux sujets distincts dans cette thèse: l'estimation de la volatilité des prix d'actifs financiers à partir des données à haute fréquence, et l'estimation des paramétres d'un processus aléatoire à partir de sa fonction caractéristique.
Le chapitre 1 s'intéresse à l'estimation de la volatilité des prix d'actifs. Nous supposons que les données à haute fréquence disponibles sont entachées de bruit de microstructure. Les propriétés que l'on prête au bruit sont déterminantes dans le choix de l'estimateur de la volatilité. Dans ce chapitre, nous spécifions un nouveau modèle dynamique pour le bruit de microstructure qui intègre trois propriétés importantes: (i) le bruit peut être autocorrélé, (ii) le retard maximal au delà duquel l'autocorrélation est nulle peut être une fonction croissante de la fréquence journalière d'observations; (iii) le bruit peut avoir une composante correlée avec le rendement efficient. Cette dernière composante est alors dite endogène. Ce modèle se différencie de ceux existant en ceci qu'il implique que l'autocorrélation d'ordre 1 du bruit converge vers 1 lorsque la fréquence journalière d'observation tend vers l'infini.
Nous utilisons le cadre semi-paramétrique ainsi défini pour dériver un nouvel estimateur de la volatilité intégrée baptisée "estimateur shrinkage". Cet estimateur se présente sous la forme d'une combinaison linéaire optimale de deux estimateurs aux propriétés différentes, l'optimalité étant défini en termes de minimisation de la variance. Les simulations indiquent que l'estimateur shrinkage a une variance plus petite que le meilleur des deux estimateurs initiaux. Des estimateurs sont également proposés pour les paramètres du modèle de microstructure. Nous clôturons ce chapitre par une application empirique basée sur des actifs du Dow Jones Industrials. Les résultats indiquent qu'il est pertinent de tenir compte de la dépendance temporelle du bruit de microstructure dans le processus d'estimation de la volatilité.
Les chapitres 2, 3 et 4 s'inscrivent dans la littérature économétrique qui traite de la méthode des moments généralisés. En effet, on rencontre en finance des modèles dont la fonction de vraisemblance n'est pas connue. On peut citer en guise d'exemple la loi stable ainsi que les modèles de diffusion observés en temps discrets. Les méthodes d'inférence basées sur la fonction caractéristique peuvent être envisagées dans ces cas. Typiquement, on spécifie une condition de moment basée sur la différence entre la fonction caractéristique (conditionnelle) théorique et sa contrepartie empirique. Le défit ici est d'exploiter au mieux le continuum de conditions de moment ainsi spécifié pour atteindre la même efficacité que le maximum de vraisemblance dans les inférences.
Ce défit a été relevé par Carrasco et Florens (2000) qui ont proposé la procédure CGMM (continuum GMM). La fonction objectif que ces auteurs proposent est une forme quadratique hilbertienne qui fait intervenir l'opérateur inverse de covariance associé au continuum de condition de moments. Cet opérateur inverse est régularisé à la Tikhonov pour en assurer l'existence globale et la continuité. Carrasco et Florens (2000) ont montré que l'estimateur obtenu en minimisant cette forme quadratique est asymptotiquement aussi efficace que l'estimateur du maximum de vraisemblance si le paramètre de régularisation (α) tend vers zéro lorsque la taille de l'échatillon tend vers l'infini. La nature de la fonction objectif du CGMM soulève deux questions importantes. La première est celle de la calibration de α en pratique, et la seconde est liée à la présence d'intégrales multiples dans l'expression de la fonction objectif. C'est à ces deux problématiques qu'essayent de répondent les trois derniers chapitres de la présente thèse.
Dans le chapitre 2, nous proposons une méthode de calibration de α basée sur la minimisation de l'erreur quadratique moyenne (EQM) de l'estimateur. Nous suivons une approche similaire à celle de Newey et Smith (2004) pour calculer un développement d'ordre supérieur de l'EQM de l'estimateur CGMM de sorte à pouvoir examiner sa dépendance en α en échantillon fini. Nous proposons ensuite deux méthodes pour choisir α en pratique. La première se base sur le développement de l'EQM, et la seconde se base sur des simulations Monte Carlo. Nous montrons que la méthode Monte Carlo délivre un estimateur convergent de α optimal. Nos simulations confirment la pertinence de la calibration de α en pratique.
Le chapitre 3 essaye de vulgariser la théorie du chapitre 2 pour les modèles univariés ou bivariés. Nous commençons par passer en revue les propriétés de convergence et de normalité asymptotique de l'estimateur CGMM. Nous proposons ensuite des recettes numériques pour l'implémentation. Enfin, nous conduisons des simulations Monte Carlo basée sur la loi stable. Ces simulations démontrent que le CGMM est une méthode fiable d'inférence. En guise d'application empirique, nous estimons par CGMM un modèle de variance autorégressif Gamma. Les résultats d'estimation confirment un résultat bien connu en finance: le rendement est positivement corrélé au risque espéré et négativement corrélé au choc sur la volatilité.
Lorsqu'on implémente le CGMM, une difficulté majeure réside dans l'évaluation numérique itérative des intégrales multiples présentes dans la fonction objectif. Les méthodes de quadrature sont en principe parmi les plus précises que l'on puisse utiliser dans le présent contexte. Malheureusement, le nombre de points de quadrature augmente exponentiellement en fonction de la dimensionalité (d) des intégrales. L'utilisation du CGMM devient pratiquement impossible dans les modèles multivariés et non markoviens où d≥3. Dans le chapitre 4, nous proposons une procédure alternative baptisée "reéchantillonnage dans le domaine fréquentielle" qui consiste à fabriquer des échantillons univariés en prenant une combinaison linéaire des éléments du vecteur initial, les poids de la combinaison linéaire étant tirés aléatoirement dans un sous-espace normalisé de ℝ^{d}. Chaque échantillon ainsi généré est utilisé pour produire un estimateur du paramètre d'intérêt. L'estimateur final que nous proposons est une combinaison linéaire optimale de tous les estimateurs ainsi obtenus. Finalement, nous proposons une étude par simulation et une application empirique basées sur des modèles autorégressifs Gamma.
Dans l'ensemble, nous faisons une utilisation intensive du bootstrap, une technique selon laquelle les propriétés statistiques d'une distribution inconnue peuvent être estimées à partir d'un estimé de cette distribution. Nos résultats empiriques peuvent donc en principe être améliorés en faisant appel aux connaissances les plus récentes dans le domaine du bootstrap. / In estimating the integrated volatility of financial assets using noisy high frequency data, the time series properties assumed for the microstructure noise determines the proper choice of the volatility estimator. In the first chapter of the current thesis, we propose a new model for the microstructure noise with three important features. First of all, our model assumes that the noise is L-dependent. Secondly, the memory lag L is allowed to increase with the sampling frequency. And thirdly, the noise may include an endogenous part, that is, a piece that is correlated with the latent returns. The main difference between this microstructure model and existing ones is that it implies a first order autocorrelation that converges to 1 as the sampling frequency goes to infinity.
We use this semi-parametric model to derive a new shrinkage estimator for the integrated volatility. The proposed estimator makes an optimal signal-to-noise trade-off by combining a consistent estimators with an inconsistent one. Simulation results show that the shrinkage estimator behaves better than the best of the two combined ones. We also propose some estimators for the parameters of the noise model. An empirical study based on stocks listed in the Dow Jones Industrials shows the relevance of accounting for possible time dependence in the noise process.
Chapters 2, 3 and 4 pertain to the generalized method of moments based on the characteristic function. In fact, the likelihood functions of many financial econometrics models are not known in close form. For example, this is the case for the stable distribution and a discretely observed continuous time model. In these cases, one may estimate the parameter of interest by specifying a moment condition based on the difference between the theoretical (conditional) characteristic function and its empirical counterpart. The challenge is then to exploit the whole continuum of moment conditions hence defined to achieve the maximum likelihood efficiency.
This problem has been solved in Carrasco and Florens (2000) who propose the CGMM procedure. The objective function of the CGMM is a quadrqtic form on the Hilbert space defined by the moment function. That objective function depends on a Tikhonov-type regularized inverse of the covariance operator associated with the moment function. Carrasco and Florens (2000) have shown that the estimator obtained by minimizing the proposed objective function is asymptotically as efficient as the maximum likelihood estimator provided that the regularization parameter (α) converges to zero as the sample size goes to infinity. However, the nature of this objective function raises two important questions. First of all, how do we select α in practice? And secondly, how do we implement the CGMM when the multiplicity (d) of the integrals embedded in the objective-function d is large. These questions are tackled in the last three chapters of the thesis.
In Chapter 2, we propose to choose α by minimizing the approximate mean square error (MSE) of the estimator. Following an approach similar to Newey and Smith (2004), we derive a higher-order expansion of the estimator from which we characterize the finite sample dependence of the MSE on α. We provide two data-driven methods for selecting the regularization parameter in practice. The first one relies on the higher-order expansion of the MSE whereas the second one uses only simulations. We show that our simulation technique delivers a consistent estimator of α. Our Monte Carlo simulations confirm the importance of the optimal selection of α.
The goal of Chapter 3 is to illustrate how to efficiently implement the CGMM for d≤2. To start with, we review the consistency and asymptotic normality properties of the CGMM estimator. Next we suggest some numerical recipes for its implementation. Finally, we carry out a simulation study with the stable distribution that confirms the accuracy of the CGMM as an inference method. An empirical application based on the autoregressive variance Gamma model led to a well-known conclusion: investors require a positive premium for bearing the expected risk while a negative premium is attached to the unexpected risk.
In implementing the characteristic function based CGMM, a major difficulty lies in the evaluation of the multiple integrals embedded in the objective function. Numerical quadratures are among the most accurate methods that can be used in the present context. Unfortunately, the number of quadrature points grows exponentially with d. When the data generating process is Markov or dependent, the accurate implementation of the CGMM becomes roughly unfeasible when d≥3. In Chapter 4, we propose a strategy that consists in creating univariate samples by taking a linear combination of the elements of the original vector process. The weights of the linear combinations are drawn from a normalized set of ℝ^{d}. Each univariate index generated in this way is called a frequency domain bootstrap sample that can be used to compute an estimator of the parameter of interest. Finally, all the possible estimators obtained in this fashion can be aggregated to obtain the final estimator. The optimal aggregation rule is discussed in the paper. The overall method is illustrated by a simulation study and an empirical application based on autoregressive Gamma models.
This thesis makes an extensive use of the bootstrap, a technique according to which the statistical properties of an unknown distribution can be estimated from an estimate of that distribution. It is thus possible to improve our simulations and empirical results by using the state-of-the-art refinements of the bootstrap methodology. / The attached file is created with Scientific Workplace Latex
|
Page generated in 0.0643 seconds