• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 295
  • 81
  • 18
  • 3
  • Tagged with
  • 409
  • 100
  • 94
  • 89
  • 82
  • 50
  • 49
  • 49
  • 45
  • 38
  • 36
  • 35
  • 31
  • 31
  • 30
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
281

Structural models for macroeconomics and forecasting

De Antonio Liedo, David 03 May 2010 (has links)
This Thesis is composed by three independent papers that investigate<p>central debates in empirical macroeconomic modeling.<p><p>Chapter 1, entitled “A Model for Real-Time Data Assessment with an Application to GDP Growth Rates”, provides a model for the data<p>revisions of macroeconomic variables that distinguishes between rational expectation updates and noise corrections. Thus, the model encompasses the two polar views regarding the publication process of statistical agencies: noise versus news. Most of the studies previous studies that analyze data revisions are based<p>on the classical noise and news regression approach introduced by Mankiew, Runkle and Shapiro (1984). The problem is that the statistical tests available do not formulate both extreme hypotheses as collectively exhaustive, as recognized by Aruoba (2008). That is, it would be possible to reject or accept both of them simultaneously. In turn, the model for the<p>DPP presented here allows for the simultaneous presence of both noise and news. While the “regression approach” followed by Faust et al. (2005), along the lines of Mankiew et al. (1984), identifies noise in the preliminary<p>figures, it is not possible for them to quantify it, as done by our model. <p><p>The second and third chapters acknowledge the possibility that macroeconomic data is measured with errors, but the approach followed to model the missmeasurement is extremely stylized and does not capture the complexity of the revision process that we describe in the first chapter.<p><p><p>Chapter 2, entitled “Revisiting the Success of the RBC model”, proposes the use of dynamic factor models as an alternative to the VAR based tools for the empirical validation of dynamic stochastic general equilibrium (DSGE) theories. Along the lines of Giannone et al. (2006), we use the state-space parameterisation of the factor models proposed by Forni et al. (2007) as a competitive benchmark that is able to capture weak statistical restrictions that DSGE models impose on the data. Our empirical illustration compares the out-of-sample forecasting performance of a simple RBC model augmented with a serially correlated noise component against several specifications belonging to classes of dynamic factor and VAR models. Although the performance of the RBC model is comparable<p>to that of the reduced form models, a formal test of predictive accuracy reveals that the weak restrictions are more useful at forecasting than the strong behavioral assumptions imposed by the microfoundations in the model economy.<p><p>The last chapter, “What are Shocks Capturing in DSGE modeling”, contributes to current debates on the use and interpretation of larger DSGE<p>models. Recent tendency in academic work and at central banks is to develop and estimate large DSGE models for policy analysis and forecasting. These models typically have many shocks (e.g. Smets and Wouters, 2003 and Adolfson, Laseen, Linde and Villani, 2005). On the other hand, empirical studies point out that few large shocks are sufficient to capture the covariance structure of macro data (Giannone, Reichlin and<p>Sala, 2005, Uhlig, 2004). In this Chapter, we propose to reconcile both views by considering an alternative DSGE estimation approach which<p>models explicitly the statistical agency along the lines of Sargent (1989). This enables us to distinguish whether the exogenous shocks in DSGE<p>modeling are structural or instead serve the purpose of fitting the data in presence of misspecification and measurement problems. When applied to the original Smets and Wouters (2007) model, we find that the explanatory power of the structural shocks decreases at high frequencies. This allows us to back out a smoother measure of the natural output gap than that<p>resulting from the original specification. / Doctorat en Sciences économiques et de gestion / info:eu-repo/semantics/nonPublished
282

Physical parameterisations for a high resolution operational numerical weather prediction model / Paramétrisations physiques pour un modèle opérationnel de prévision météorologique à haute résolution

Gerard, Luc 31 August 2001 (has links)
Les modèles de prévision opérationnelle du temps résolvent numériquement les équations de la mécanique des fluides en calculant l'évolution de champs (pression, température, humidité, vitesses) définis comme moyennes horizontales à l'échelle des mailles d'une grille (et à différents niveaux verticaux).<p><p>Les processus d'échelle inférieure à la maille jouent néanmoins un rôle essentiel dans les transferts et les bilans de chaleur, humidité et quantité de mouvement. Les paramétrisations physiques visent à évaluer les termes de source correspondant à ces phénomènes, et apparaissant dans les équations des champs moyens aux points de grille.<p><p>Lorsque l'on diminue la taille des mailles afin de représenter plus finement l'évolution des phénomènes atmosphériques, certaines hypothèses utilisées dans ces paramétrisations perdent leur validité. Le problème se pose surtout quand la taille des mailles passe en dessous d'une dizaine de kilomètres, se rapprochant de la taille des grands systèmes de nuages convectifs (systèmes orageux, lignes de grain).<p><p>Ce travail s'inscrit dans le cadre des développements du modèle à mailles fines ARPÈGE ALADIN, utilisé par une douzaine de pays pour l'élaboration de prévisions à courte échéance (jusque 48 heures).<p><p>Nous décrivons d'abord l'ensemble des paramétrisations physiques du modèle.<p>Suit une analyse détaillée de la paramétrisation actuelle de la convection profonde. Nous présentons également notre contribution personnelle à celle ci, concernant l'entraînement de la quantité de mouvement horizontale dans le nuage convectif.<p>Nous faisons ressortir les principaux points faibles ou hypothèses nécessitant des mailles de grandes dimensions, et dégageons les voies pour de nouveaux développements.<p>Nous approfondissons ensuite deux des aspects sortis de cette discussion: l'usage de variables pronostiques de l'activité convective, et la prise en compte de différences entre l'environnement immédiat du nuage et les valeurs des champs à grande échelle. Ceci nous conduit à la réalisation et la mise en œuvre d'un schéma pronostique de la convection profonde.<p>A ce schéma devraient encore s'ajouter une paramétrisation pronostique des phases condensées suspendues (actuellement en cours de développement par d'autres personnes) et quelques autres améliorations que nous proposons.<p>Des tests de validation et de comportement du schéma pronostique ont été effectués en modèle à aire limitée à différentes résolutions et en modèle global. Dans ce dernier cas l'effet du nouveau schéma sur les bilans globaux est également examiné.<p>Ces expériences apportent un éclairage supplémentaire sur le comportement du schéma convectif et les problèmes de partage entre la schéma de convection profonde et le schéma de précipitation de grande échelle.<p><p>La présente étude fait donc le point sur le statut actuel des différentes paramétrisations du modèle, et propose des solutions pratiques pour améliorer la qualité de la représentation des phénomènes convectifs.<p><p>L'utilisation de mailles plus petites que 5 km nécessite enfin de lever l'hypothèse hydrostatique dans les équations de grande échelle, et nous esquissons les raffinements supplémentaires de la paramétrisation possibles dans ce cas.<p><p> / Doctorat en sciences appliquées / info:eu-repo/semantics/nonPublished
283

Determination of end user power load profiles by parallel evolutionary computing / Détermination de profils de consommation électrique par évolution artificielle parallèle

Krüger, Frédéric 17 February 2014 (has links)
Il est primordial, pour un distributeur d’énergie électrique, d’obtenir des estimations précises de la demande en énergie de leurs réseaux. Des outils statistiques tels que des profils de consommation électrique offrent des estimations de qualité acceptable. Ces profils ne sont cependant généralement pas assez précis, car ils ne tiennent pas compte de l’influence de facteurs tels que la présence de chauffage électrique ou le type d’habitation. Il est néanmoins possible d’obtenir des profils précis en utilisant uniquement les historiques de consommations d’énergie des clients, les mesures desdéparts 20kV, et un algorithme génétique de séparation de sources. Un filtrage et un prétraitement des données a permis de proposer à l’algorithme génétique de séparation de sources des données adaptées. La séparation de sources particulièrement bruitées est résolue par un algorithme génétique complètement parallélisé sur une carte GPGPU. Les profils de consommation électrique obtenus correspondent aux attentes initiales, et démontrent une amélioration considérable de la précision des estimations de courbes de charge de départs 20kV et de postes de transformation moyenne tension-basse tension. / Precise estimations of the energy demand of a power network are paramount for electrical distribution companies. Statistical tools such as load profiles offer acceptable estimations. These load profiles are, however, usually not precise enough for network engineering at the local level, as they do not take into account factors such as the presence of electrical heating devices or the type of housing. It is however possible to obtain accurate load profiles with no more than end user energy consumption histories, 20kV feeder load measurements, a blind source separation and a genetic algorithm. Filtering and preliminary treatments performed on the data allowed the blind source separation to work with adequate information. The blind source separation presented in this document is successfully solved by a completely parallel genetic algorithm running on a GPGPU card. The power load profiles obtained match the requirements, and demonstrate a considerable improvement in the forecast of 20kV feeder as well as MV substation load curves.
284

Extraction des utilisations typiques à partir de données hétérogènes en vue d'optimiser la maintenance d'une flotte de véhicules / Critical usages extraction from historical and heterogénius data in order to optimize fleet maintenance

Ben Zakour, Asma 06 July 2012 (has links)
Le travail produit s'inscrit dans un cadre industriel piloté par la société 2MoRO Solutions. La réalisation présentée dans cette thèse doit servir à l'élaboration d'un service à haute valeur, permettant aux exploitants aéronautiques d'optimiser leurs actions de maintenance. Les résultats obtenus permettent d'intégrer et de regrouper les tâches de maintenance en vue de minimiser la durée d'immobilisation des aéronefs et d'en réduire les risques de panne.La méthode que nous proposons comporte trois étapes : (i) une étape de rationalisation des séquences afin de pouvoir les combiner [...] / The present work is part of an industrial project driven by 2MoRO Solutions company.It aims to develop a high value service enabling aircraft operators to optimize their maintenance actions.Given the large amount of data available around aircraft exploitation, we aim to analyse the historical events recorded with each aircraft in order to extract maintenance forecasting. Theresults are used to integrate and consolidate maintenance tasks in order to minimize aircraft downtime and risk of failure. The proposed method involves three steps : (i) streamlining information in order to combinethem, (ii) organizing this data for easy analysis and (iii) an extraction step of useful knowledgein the form of interesting sequences. [...]
285

Stochastic model of high-speed train dynamics for the prediction of long-time evolution of the track irregularities / Modèle stochastique de la dynamique des trains à grande vitesse pour la prévision de l'évolution à long terme des défauts de géométrie de la voie

Lestoille, Nicolas 16 October 2015 (has links)
Les voies ferrées sont de plus en plus sollicitées: le nombre de trains à grande vitesse, leur vitesse et leur charge ne cessent d'augmenter, ce qui contribue à la formation de défauts de géométrie sur la voie. En retour, ces défauts de géométrie influencent la réponse dynamique du train et dégradent les conditions de confort. Pour garantir de bonnes conditions de confort, les entreprises ferroviaires réalisent des opérations de maintenance de la voie, qui sont très coûteuses. Ces entreprises ont donc intérêt à prévoir l'évolution temporelle des défauts de géométrie de la voie pour anticiper les opérations de maintenance, et ainsi réduire les coûts de maintenance et améliorer les conditions de transport. Dans cette thèse, on analyse l'évolution temporelle d'une portion de voie par un indicateur vectoriel sur la dynamique du train. Pour la portion de voie choisie, on construit un modèle stochastique local des défauts de géométrie de la voie à partir d'un modèle global des défauts de géométrie et de big data de défauts mesurés par un train de mesure. Ce modèle stochastique local prend en compte la variabilité des défauts de géométrie de la voie et permet de générer des réalisations des défauts pour chaque temps de mesure. Après avoir validé le modèle numérique de la dynamique du train, les réponses dynamiques du train sur la portion de voie mesurée sont simulées numériquement en utilisant le modèle stochastique local des défauts de géométrie. Un indicateur dynamique, vectoriel et aléatoire, est introduit pour caractériser la réponse dynamique du train sur la portion de voie. Cet indicateur dynamique est construit de manière à prendre en compte les incertitudes de modèle dans le modèle numérique de la dynamique du train. Pour identifier le modèle stochastique des défauts de géométrie et pour caractériser les incertitudes de modèle, des méthodes stochastiques avancées, comme par exemple la décomposition en chaos polynomial ou le maximum de vraisemblance multidimensionnel, sont appliquées à des champs aléatoires non gaussiens et non stationnaires. Enfin, un modèle stochastique de prédiction est proposé pour prédire les quantités statistiques de l'indicateur dynamique, ce qui permet d'anticiper le besoin en maintenance. Ce modèle est construit en utilisant les résultats de la simulation de la dynamique du train et consiste à utiliser un modèle non stationnaire de type filtre de Kalman avec une condition initiale non gaussienne / Railways tracks are subjected to more and more constraints, because the number of high-speed trains using the high-speed lines, the trains speed, and the trains load keep increasing. These solicitations contribute to produce track irregularities. In return, track irregularities influence the train dynamic responses, inducing degradation of the comfort. To guarantee good conditions of comfort in the train, railways companies perform maintenance operations of the track, which are very costly. Consequently, there is a great interest for the railways companies to predict the long-time evolution of the track irregularities for a given track portion, in order to be able to anticipate the start off of the maintenance operations, and therefore to reduce the maintenance costs and to improve the running conditions. In this thesis, the long-time evolution of a given track portion is analyzed through a vector-valued indicator on the train dynamics. For this given track portion, a local stochastic model of the track irregularities is constructed using a global stochastic model of the track irregularities and using big data made up of experimental measurements of the track irregularities performed by a measuring train. This local stochastic model takes into account the variability of the track irregularities and allows for generating realizations of the track irregularities at each long time. After validating the computational model of the train dynamics, the train dynamic responses on the measured track portion are numerically simulated using the local stochastic model of the track irregularities. A vector-valued random dynamic indicator is defined to characterize the train dynamic responses on the given track portion. This dynamic indicator is constructed such that it takes into account the model uncertainties in the train dynamics computational model. For the identification of the track irregularities stochastic model and the characterization of the model uncertainties, advanced stochastic methods such as the polynomial chaos expansion and the multivariate maximum likelihood are applied to non-Gaussian and non-stationary random fields. Finally, a stochastic predictive model is proposed for predicting the statistical quantities of the random dynamic indicator, which allows for anticipating the need for track maintenance. This modeling is constructed using the results of the train dynamics simulation and consists in using a non-stationary Kalman-filter type model with a non-Gaussian initial condition. The proposed model is validated using experimental data for the French railways network for the high-speed trains
286

Mixed-Frequency Modeling and Economic Forecasting / De la modélisation multifréquentielle pour la prévision économique

Marsilli, Clément 06 May 2014 (has links)
La prévision macroéconomique à court terme est un exercice aussi complexe qu’essentiel pour la définition de la politique économique et monétaire. Les crises financières récentes ainsi que les récessions qu’ont endurées et qu’endurent aujourd’hui encore, en ce début d’année 2014, nombre de pays parmi les plus riches, témoignent de la difficulté d’anticiper les fluctuations économiques, même à des horizons proches. Les recherches effectuées dans le cadre de la thèse de doctorat qui est présentée dans ce manuscrit se sont attachées à étudier, analyser et développer des modélisations pour la prévision de croissance économique. L’ensemble d’informations à partir duquel construire une méthodologie prédictive est vaste mais également hétérogène. Celle-ci doit en effet concilier le mélange des fréquences d’échantillonnage des données et la parcimonie nécessaire à son estimation. Nous évoquons à cet effet dans un premier chapitre les éléments économétriques fondamentaux de la modélisation multi-fréquentielle. Le deuxième chapitre illustre l’apport prédictif macroéconomique que constitue l’utilisation de la volatilité des variables financières en période de retournement conjoncturel. Le troisième chapitre s’étend ensuite sur l’inférence bayésienne et nous présentons par ce biais un travail empirique issu de l’adjonction d’une volatilité stochastique à notre modèle. Enfin, le quatrième chapitre propose une étude des techniques de sélection de variables à fréquence multiple dans l’optique d’améliorer la capacité prédictive de nos modélisations. Diverses méthodologies sont à cet égard développées, leurs aptitudes empiriques sont comparées, et certains faits stylisés sont esquissés. / Economic downturn and recession that many countries experienced in the wake of the global financial crisis demonstrate how important but difficult it is to forecast macroeconomic fluctuations, especially within a short time horizon. The doctoral dissertation studies, analyses and develops models for economic growth forecasting. The set of information coming from economic activity is vast and disparate. In fact, time series coming from real and financial economy do not have the same characteristics, both in terms of sampling frequency and predictive power. Therefore short-term forecasting models should both allow the use of mixed-frequency data and parsimony. The first chapter is dedicated to time series econometrics within a mixed-frequency framework. The second chapter contains two empirical works that sheds light on macro-financial linkages by assessing the leading role of the daily financial volatility in macroeconomic prediction during the Great Recession. The third chapter extends mixed-frequency model into a Bayesian framework and presents an empirical study using a stochastic volatility augmented mixed data sampling model. The fourth chapter focuses on variable selection techniques in mixed-frequency models for short-term forecasting. We address the selection issue by developing mixed-frequency-based dimension reduction techniques in a cross-validation procedure that allows automatic in-sample selection based on recent forecasting performances. Our model succeeds in constructing an objective variable selection with broad applicability.
287

Contribution à la prévision des crues sur le bassin du Lez : modélisation de la relation pluie-débit en zone karstique et impact de l'assimilation de débits / Improving flood forecasting in the Lez Catchment : modeling the rainfall-runoff relationship in karstic regions and the impact of assimilating discharge data

Coustau, Mathieu 13 December 2011 (has links)
Les crues « éclair » parfois dévastatrices qui touchent les bassins versants méditerranéens du Sud de la France sont difficiles à anticiper. Leur prévision passe par l'utilisation de modèles pluie-débit, dont l'efficacité est encore limitée par les incertitudes liées notamment à la variabilité spatiale des pluies méditerranéennes et à la caractérisation de l'état hydrique initial des hydrosystèmes. Dans le cas de bassins karstiques, à ces incertitudes s'ajoutent celles liées à la dynamique des aquifères et à leur rôle sur la formation des crues. La première partie de ce travail de thèse propose un modèle pluie-débit horaire, distribué, événementiel et parcimonieux pour reproduire les crues « éclair » à l'exutoire du bassin karstique du Lez (Montpellier) de 114 km2. Le modèle est évalué non seulement sur la qualité des simulations de débits mais aussi sur la qualité de son initialisation obtenu grâce à une relation entre sa condition initiale et divers indicateurs de l'état hydrique de l'hydrosystème. Calibré sur 21 épisodes de crues, le modèle fournit des simulations satisfaisantes, et sa condition initiale est significativement corrélée à l'indice d'humidité Hu2 du modèle SIM de Météo-France ou à la piézométrie dans l'aquifère du Lez. Les pluies mesurées par radar en début d'automne sont de bonne qualité et conduisent à une amélioration des simulations de débit et de l'estimation de la condition initiale du modèle. En revanche, les pluies mesurées par radar en fin d'automne sont de moindre qualité et n'améliorent pas les simulations. Face aux incertitudes liées à la paramétrisation du modèle ou à l'estimation des pluies radar, la deuxième partie du travail de thèse analyse l'apport de l'assimilation des débits observés pour corriger en temps réel les paramètres les plus sensibles du modèle et notamment sa condition initiale ou les pluies radar en entrée du modèle. La procédure d'assimilation de données a été mise en place à l'aide du coupleur PALM, qui permet de relier modèle hydrologique à l'algorithme d'assimilation. La correction de la condition initiale du modèle permet généralement d'améliorer les prévisions (sous hypothèse de pluie future connue); la correction de la pluie a des effets similaires. Néanmoins les limites de cette correction sont atteintes dans le cas où le modèle ne reproduit pas de façon satisfaisante la partie initiale de montée des eaux, ce qui pourra être amélioré par la suite. Finalement, ce travail de thèse montre que la complexité d'un bassin karstique peut être représentée efficacement à l'aide d'un nombre réduit de paramètres, pour simuler les débits, et contribue à l'amélioration des outils opérationnels pour la prévision des crues. / The sometimes devastating flash floods which affect the Mediterranean watersheds of the South of France are difficult to anticipate. Flood forecasting requires the use of rainfall-runoff models which are limited in their efficiency by uncertainty related to the spatial variability of Mediterranean rainfall and the characterization of the initial hydric state of the system. In karstic catchments, these uncertainties are added to those due to aquifer dynamics and their role in flood genesis. The first part of this work will present a distributed event-based parsimonious hourly rainfall-runoff model in order to reconstruct flash flood events at the outlet of the 114 km2 Lez Catchment (Montpellier). The model is evaluated not only for the quality of the simulations produced, but for the quality of its parameter initialization obtained using a relationship between the initial condition and various hydric state indicators of the system. Calibrated using 21 flood episodes, the model produces satisfactory simulations and its initial condition is significantly correlated with the Hu2 soil humidity index of the Météo-France model or piezometers measuring the Lez aquifer. Radar rainfall data measured in early fall are of good quality and lead to improved discharge simulations and an improved estimation of the model initial condition. However, rainfall measured by radar in late fall are of poor quality and do not improve the simulations. Confronted with the uncertainty related to model parametrization or the estimation of radar rainfall, the second part of this dissertation analyzes improvements achieved by assimilating observed discharge measurements in order to perform real-time corrections to the most sensitive model parameters and notably the initial condition and the radar rainfall input to the model. The data assimilation procedure was implemented with the help of the PALM coupling software which allows for the linking of the hydrological model with the assimilation algorithm. Correcting the initial condition allowed for, on average, the improvement of forecasting (under a known future rainfall hypothesis); correcting the rainfall had similar effects. Nevertheless, the limits of this approach are reached when the model is unable to satisfactorily reproduce the rising limb of the hydrograph, a problem which may be addressed by future research. Finally, this body of work demonstrates that the complexity of a karstic catchment can be efficiently represented with a reduced number of parameters in order to simulate discharges and contribute to the improvement of operational tools for flood forecasting.
288

Estimation et sélection pour les modèles additifs et application à la prévision de la consommation électrique / Estimation and selection in additive models and application to load demand forecasting

Thouvenot, Vincent 17 December 2015 (has links)
L'électricité ne se stockant pas aisément, EDF a besoin d'outils de prévision de consommation et de production efficaces. Le développement de nouvelles méthodes automatiques de sélection et d'estimation de modèles de prévision est nécessaire. En effet, grâce au développement de nouvelles technologies, EDF peut étudier les mailles locales du réseau électrique, ce qui amène à un nombre important de séries chronologiques à étudier. De plus, avec les changements d'habitude de consommation et la crise économique, la consommation électrique en France évolue. Pour cette prévision, nous adoptons ici une méthode semi-paramétrique à base de modèles additifs. L'objectif de ce travail est de présenter des procédures automatiques de sélection et d'estimation de composantes d'un modèle additif avec des estimateurs en plusieurs étapes. Nous utilisons du Group LASSO, qui est, sous certaines conditions, consistant en sélection, et des P-Splines, qui sont consistantes en estimation. Nos résultats théoriques de consistance en sélection et en estimation sont obtenus sans nécessiter l'hypothèse classique que les normes des composantes non nulles du modèle additif soient bornées par une constante non nulle. En effet, nous autorisons cette norme à pouvoir converger vers 0 à une certaine vitesse. Les procédures sont illustrées sur des applications pratiques de prévision de consommation électrique nationale et locale.Mots-clés: Group LASSO, Estimateurs en plusieurs étapes, Modèle Additif, Prévision de charge électrique, P-Splines, Sélection de variables / French electricity load forecasting encounters major changes since the past decade. These changes are, among others things, due to the opening of electricity market (and economical crisis), which asks development of new automatic time adaptive prediction methods. The advent of innovating technologies also needs the development of some automatic methods, because we have to study thousands or tens of thousands time series. We adopt for time prediction a semi-parametric approach based on additive models. We present an automatic procedure for covariate selection in a additive model. We combine Group LASSO, which is selection consistent, with P-Splines, which are estimation consistent. Our estimation and model selection results are valid without assuming that the norm of each of the true non-zero components is bounded away from zero and need only that the norms of non-zero components converge to zero at a certain rate. Real applications on local and agregate load forecasting are provided.Keywords: Additive Model, Group LASSO, Load Forecasting, Multi-stage estimator, P-Splines, Variables selection
289

Réseau électrique intelligent pour les nouveaux usages / Smart grid for new uses

Duverger, Emilien 09 July 2019 (has links)
Avec la mutation du paysage énergétique due au développement des énergies renouvelables, des véhicules électriques ou encore des systèmes de stockage, le réseau électrique actuel a besoin de se moderniser. Le concept de microgrid est une solution prometteuse basée sur les technologies de l'information et de la communication pour améliorer la gestion et l'efficacité de la production, du transport, de la distribution et de la consommation de l'électricité. Cependant, les défis technico-économiques associés à leur déploiement sont encore élevés. Ces travaux de thèse ont pour but d’apporter des contributions sur plusieurs points clés : prévision de la production et de la consommation, modélisation des équipements, et optimisation de la gestion du microgrid.Rivesaltes-grid est un démonstrateur de microgrid à l'échelle d'un bâtiment industriel composé d'un champ photovoltaïque de 60 kWc, de batteries lithium-ion de 85 kWh et d'un véhicule électrique. Il a permis de développer un système de gestion de l'énergie (EMS) innovant pour optimiser l'efficacité énergétique du microgrid. Cet EMS, basé sur une gestion par commande prédictive et la résolution d'un problème d'optimisation avec contraintes, permet de réduire de 6,2% le coût de fonctionnement. Cette gestion du microgrid nécessite comme entrées : (1) la prévision de production basée sur un algorithme de forêt aléatoire et une modélisation du champ PV par modèle 1-diode, (2) la prévision de la consommation à partir de l'algorithme de partitionnement k-means++ et (3) la modélisation dynamique du système de stockage avec ses contraintes. / With the transformation of the energy landscape due to the development of renewable energies, electric vehicles and storage systems, the current grid needs to be modernized. Microgrid concept is a promising solution based on information and communication technologies to improve the management and efficiency of electricity generation, transmission, distribution and consumption. However, the technical and economic challenges associated with their deployment are numerous. The thesis aims to provide contributions on several key points: production and consumption forecasting, equipment modeling, and microgrid management optimization.Rivesaltes-grid is a microgrid demonstrator on the scale of an industrial building consisting of 60 kWp photovoltaic array, 85 kWh lithium-ion batteries and an electric vehicle. It has enabled the development of an innovative energy management system (EMS) to optimize the microgrids energy efficiency. This EMS, based on predictive control management and the resolution of a constrained optimization problem, reduces operation cost by 6.2%. This microgrid management requires as input: (1) the production prediction based on a random forest algorithm and a modeling of the PV field by 1-diode model, (2) the consumption prediction from partitioning algorithm k-means++ and (3) dynamic modeling of the storage system with its constraints.
290

Crises bancaires et défauts souverains : quels déterminants, quels liens ? / Banking crises and sovereign defaults : Which determinants, which links?

Jedidi, Ons 01 December 2015 (has links)
L’objectif de cette thèse est la mise en place d’un Système d’Alerte Précoce comme instrument de prévision de la survenance des crises bancaires et des crises de la dette souveraine dans 48 pays de 1977 à 2010. Il s’agit à la fois d’identifier les facteurs capables de prédire ces événements et ceux annonçant leurs interactions éventuelles. La présente étude propose une approche à la fois originale et robuste qui tient compte de l’incertitude des modèles et des paramètres par la méthode de combinaison bayésienne des modèles de régression ou Bayesian Model Averaging (BMA). Nos résultats montrent que les avoirs étrangers nets en pourcentage du total des actifs, la dette à court terme en pourcentage des réserves totales et enfin la dette publique en pourcentage du PIB ont un pouvoir prédictif élevé pour expliquer les crises de la dette souveraine pour plusieurs pays. De plus, la croissance de l’activité et du crédit bancaire, le degré de libéralisation financière et le poids de la dette extérieure sont des signaux décisifs des crises bancaires. Notre approche offre le meilleur compromis entre les épisodes manqués et les fausses alertes. Enfin, nous étudions le lien entre les crises bancaires et les crises de la dette souveraine pour 62 pays de 1970 à 2011, en développant une approche basée sur un modèle Vecteur Auto-Régressif (VAR). Nos estimations montrent une relation significative et bidirectionnelle entre les deux types d’évènements. / The main purpose of this thesis is the development of an Early Warning System to predict banking and sovereign debt crises in 48 countries from 1977 to 2010. We are interested in identifying both factors that predict these events and those announcing their possible interactions. In particular, our empirical works provide an original and robust approach accounting for model and parameter uncertainty by means of the Bayesian Model Averaging method. Our results show that: Net foreign assets to total assets, short term debt to total reserves, and public debt to GDP have a high predictive power to signal sovereign debt crises in many countries. Furthermore, the growth rates of economic activity and credit, financial liberalization, and the external indebtedness are decisive signals of banking crises. Our approach offers the best compromise between missed episodes and false alarms. Finally, we study the link between banking and sovereign debt crises for 62 countries from 1970 to 2011 by developing an approach based on a Vector Autoregressive model (VAR). Our estimates show a significant two-way relationship between the two types of events.

Page generated in 0.0463 seconds