• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 45
  • 20
  • 1
  • 1
  • 1
  • Tagged with
  • 66
  • 66
  • 44
  • 33
  • 12
  • 9
  • 8
  • 8
  • 8
  • 8
  • 7
  • 7
  • 7
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Modeles économétriques pour l'inflation : anticipations rationnelles et croyances adaptatives dans le cadre de la nouvelle courbe de philips keynesienne / Econometric models for the inflation : rational expectations and adaptive beliefs in the new keynesian phillips curve framework

Gbaguidi, David 25 October 2011 (has links)
Le premier chapitre consiste en une brève revue de littérature dont les éléments sont repris dans les différentes introductions des études empiriques proposées dans la suite de la thèse. L'objet de cet état des lieux est de fixer le cadre général des analyses macro-économétriques opérées dans la thèse. Ce cadre nous permet d'une part, d'envisager une adéquate intégration des anticipations des agents économiques dans le raisonnement ayant mené aux modèles keynésiens actuels et d'autre part, d'effectuer des estimations des principales versions de la courbe de Phillips introduites dans la littérature macro-économique post-seconde guerre mondiale. Dans cette optique, la thèse est constituée de trois études empiriques. Dans la première de ces études, nous nous plaçons au sein d'un cadre uni-varié et tentons de discriminer entre plusieurs spécifications, proposant différentes caractérisations économétriques de la dynamique du taux d'inflation U.S. Essentiellement, trois types de spécifications, théoriquement associés à trois évolutions possibles du taux d'inflation espéré (anticipé), sont mis à l'épreuve. Les résultats de cette première étude montrent que la dynamique du taux d'inflation peut être pertinemment décrite à l'aide d'un modèle à changements de (trois) régimes markoviens dans les dérives (Intercepts) d'un processus autorégressif (d'ordre deux), soit le modèle MSI(3)-AR(2). La deuxième étude s'opère dans le cadre multi-varié d'une Nouvelle Courbe de Phillips Keynésienne à Inflation tendancielle Positive (NKPC-PI). Au sein de ce cadre, la relation d'arbitrage Inflation/Activité réelle est estimée suivant une procédure en deux étapes. Dans la première, nous identifions des régimes distincts du taux d'inflation U.S. à l'aide d'un modèle à changements de (trois) régimes markoviens dans les dérives d'un processus vectoriel autorégressif (d'ordre deux), soit le modèle MSI(3)-VAR(2). Dans la seconde étape, nous estimons les paramètres structurels de cette économie keynésienne afin d'extraire la courbe de Phillips résultante des changements de régimes initialement identifiés. Les résultats de cette deuxième étude nous amènent à conclure à une non-négligeable instabilité de la courbe de Phillips au cours de la période post-seconde guerre mondiale. La troisième étude se présente comme un prolongement et/ou un approfondissement des deux premières. Aussi, dans sa première partie, nous revenons sur les dynamiques tendancielles individuelles des quatre variables intervenant dans le cadre de modélisation NKPC-PI. Les résultats issus de ces premières estimations en contextes uni-variés montrent que seule la dynamique du taux d'inflation et, dans une moindre mesure, celle du coût marginal réel semble obéir à des changements de régimes. La spécification retenue pour l'inflation est celle de la première étude (MSI(3)-AR(2)), tandis que la dynamique du coût marginal réel pourrait être approchée à l'aide d'un modèle à changements de (deux) régimes dans les dérives d'un processus autorégressif (d'ordre deux), soit le modèle MSI(2)-AR(2). Les dynamiques du taux d'actualisation nominal et du taux de croissance de l'output (les deux autres variables du modèle NKPC-PI) semblent, quant à elles, être assez bien caractérisées par des spécifications linéaires autorégressives à deux retards (AR(2)). Sur la base de ces premiers résultats, nous estimons, dans la deuxième partie de l'étude, la nouvelle courbe de Phillips keynésienne en considérant que les processus générateurs des quatre séries du modèle peuvent répondre à de possibles intégrations fractionnelles. Les résultats de ces dernières estimations montrent que la prise en compte simultanée des changements de régimes et de la longue mémoire dans les dynamiques des variables du modèle apporte certains éclairages sur l'évolution du débat mené autour de la relation d'arbitrage post-seconde guerre mondiale. / This PhD thesis proposes, through her three articles, a macro-econometric framework of integrating, in the most adequate way to our sense, the expectations of the economic agents in the reasoning having led to current New-Keynesian models. Upon this specified frame of analysis, we evaluate the effectiveness of various versions of the Phillips curve introduced into the macroeconomic literature. The first study of this thesis takes place in a univariate context and we seek to determine an econometric model leading to best characterize the U.S inflation rate dynamic. In order to achieve this, three types of specifications, associated with three possible evolutions of the expected rate are considered. The first allows an overall instability of the trend or the expected inflation rate. The second considers an alternative specification in which the expected inflation rate is unstable in periodic segments of the sample. Finally, the last specification allows instability of a "mixed type" in which the trend inflation rate is assumed to be random or subject to a probability schema. The results of our study indicate that this last specification is the one that gives the most adequate characterization of the inflation rate dynamic. The inflation rate then appears generated by a second order autoregressive process with, on the one hand, unchanging lag coefficients and, on the other, an unconditional mean which switch between three global regimes of different frequencies of accession. Based on these first results, we extend the analysis in a multivariate framework. The main topics of the second paper are to challenge the rational nature of the agents expectations and the structural effectiveness of the behaviorally micro-based New Keynesian Phillips Curve with a Positive steady state Inflation (NKPC-PI). We then model the trade-off between the U.S inflation rate and a Unit Labor Cost-based measure of the real activity through Markov Switching - Vectorial AutoRegressive (MS-VAR) specifications. These specifications allow to adequately capturing the rationality in the agents expectations process as they underlie a finite number of expected inflation rate regimes, which highlight the agents adaptive beliefs on the achievements of these regimes. Moreover, the results confirm the structural stability of the NKPC-PI over the inflation rate regimes as its deep parameters seem to be unaffected by the regimes switching (Cogley & Sbordone (2005) and Groen & Mumtaz (2008)). In the third study, we extend the analysis of the Phillips curve trade-off. First, we look at determining econometrics models leading to characterize the dynamics of all the variables underlying the trade-off in univariate contexts. As a result, it appears that an adequate way to characterize the agents expectations regarding the dynamics of these variables is to consider a combination of some fixed levels (regimes) in the variables evolutions with an agents adaptive beliefs notion. Finally, based on the implied expectations values of the variables, we show that the Phillips curve seems to disappear when the impact of the expected inflation rate on its current value converges to its long-term value.
42

Contrôle de la formation et du confinement variable dans le temps et entièrement distribué pour les systèmes multi-agents/ multi-robots / Fully Distributed Time-varying Formation and Containment Control for Multi-agent / Multi-robot Systems

Jiang, Wei 27 November 2018 (has links)
Cette thése traite du contrôle de la formation et du confinement variant dans le temps pour les systèmes multi-agents linéaires invariants avec hétérogénéité en tenant compte des délais d’entrée / sortie constants / variables dans le temps et des perturbations adaptées / incompatibles sous topologie de communication dirigée et fixe. De nouveaux formats de formes de formation variables dans le temps pour des systèmes homogènes et hétérogènes sont proposés. Les contrôleurs, conçus sur la base de techniques prédictives et adaptatives avec une technique d’observation, sont entièrement distribués et peuvent être appliqués à des systèmes à grande échelle. L’application sur les systèmes robotisés multi hétérogènes linéarisés est vérifiée. / This thesis deals with the time-varying formation and containment control for linear time-invariant multi-agent systems with heterogeneity considering constant / time-varying input / output delays and matched / mismatched disturbances under directed and fixed communication topology. New formats of time-varying formation shapes for homogeneous and heterogeneous systems are proposed. The controllers, which are designed based on predictive and adaptive techniques with observer technique, are fully distributed and can be applied to large-scale systems. The application on linearized heterogeneous multi mobile robot systems is verified.
43

Dynamics and disorder in quantum antiferromagnets / Dynamique et désordre dans des aimants quantiques

Dupont, Maxime 05 July 2018 (has links)
La physique de la matière condensée, et notamment les systèmes fortement corrélés, amènent à des problèmes parmi les plus stimulants et difficiles de la physique moderne. Dans ces systèmes, les interactions à plusieurs corps et les corrélations entre les particules quantiques ne peuvent être négligées, sinon, les modèles échoueraient simplement à capturer les mécanismes physiques en jeu et les phénomènes qui en découlent. En particulier, le travail présenté dans ce manuscrit traite du magnétisme quantique et aborde plusieurs questions distinctes à l'aide d'approches computationnelles et méthodes numériques à l'état de l'art. Les effets conjoints du désordre (i.e. impuretés) et des interactions sont étudiés concernant un matériau magnétique spécifique : plutôt qu'une phase de la matière dite localisée, attendue à fort champ magnétique, une phase ordonnée induite par le désordre lui-même est mise en lumière, avec une réapparition inattendue de la cohérence quantique dans ledit composé. Par ailleurs, la réponse dynamique d'aimants quantiques à une perturbation externe, comme celle mesurée dans des expériences de résonance magnétique nucléaire ou de diffusion inélastique de neutrons est étudiée. / Condensed matter physics, and especially strongly correlated systems provide some of the most challenging problems of modern physics. In these systems, the many-body interactions and correlations between quantum particles cannot be neglected; otherwise, the models would simply fail to capture the relevant physics at play and phenomena ensuing. In particular, the work presented in this manuscript deals with quantum magnetism and addresses several distinct questions through computational approaches and state-of-the-art numerical methods. The interplay between disorder (i.e. impurities) and interactions is studied regarding a specific magnetic compound, where instead of the expected many-body localized phase at high magnetic fields, a novel disorder-induced ordered state of matter is found, with a resurgence of quantum coherence. Furthermore, the dynamical response of quantum magnets to an external perturbation, such as it is accessed and measured in nuclear magnetic resonance and inelastic neutron scattering experiments is investigated.
44

Estimation de canal radio-mobile à évolution rapide dans les systèmes à modulation OFMD

Hijazi, Hussein 25 November 2008 (has links) (PDF)
Cette thèse s'inscrit dans le cadre des systèmes radiocommunications numériques pour des récepteurs mobiles basés sur la modulation multi-porteuse OFDM. L'objectif est de proposer des algorithmes d'estimation de canal et de suppression d'IEP pour les <br />récepteurs OFDM à grande mobilité en liaison descendante. Notre démarche est d'estimer les paramètres de propagation du canal physique tels que les retards et les variations temporelles des gains complexes du canal à trajet multiples, au lieu du canal discret équivalent. Nous avons développé une approximation à base de polynôme pour l'évolution des gains complexes d'un canal multi-trajet de type Rayleigh avec un spectre de Jakes. En se basant sur cette modélisation polynomiale, nous avons présenté une étude théorique sur les Bornes de Cramér-Rao Bayésiennes (BCRBs) pour l'estimation des gains complexes du canal, en supposant les délais des trajets connus. Enfin, nous avons développé et analysé trois algorithmes itératifs d'estimation des variations temporelles des gains complexes (à l'intérieur d'un symbole OFDM) et de suppression d'IEP pour des récepteurs à grande mobilité. Les deux premiers sont basés sur l'interpolation (passe-bas ou polynomiale) des valeurs moyennes estimées et sur un égaliseur SSI. Ils ont montré de bonnes performances pour des récepteurs à vitesses modérées (i.e., fd.T <= 0.1). Le troisième algorithme est basé sur une modélisation AR et un filtre de Kalman pour estimer les coefficients polynomiaux des gains complexes, et sur un égaliseur QR. Il a fait preuve de bonnes performances pour des récepteurs à vitesses très élevées (i.e. , fd.T> 0.1).
45

Contribution à la compensation active des vibrations des machines électriques

Granjon, Pierre 19 December 2000 (has links) (PDF)
Ce travail de recherche est consacré à l'élaboration d'une méthode de compensation active des vibrations d'une machine tournante électrique. Son originalité tient au fait que les enroulements statoriques sont alimentés par<br />des courants de commande additionnels afin d'engendrer des forces radiales sur le stator. Celui-ci répond alors par des vibrations additionnelles qui interagissent avec les vibrations naturelles de la machine. Le but de ce<br />système de contrôle actif est donc de calculer la valeur ”optimale” de ces courants, permettant de minimiser la puissance des signaux vibratoires au niveau de capteurs accéléromètriques fixés à la périphérie du stator.<br />Dans un premier temps, la modélisation du transfert situé entre les commandes et les contre-vibrations engendrées conduit à un système linéaire et variant périodiquement dans le temps (LVPT). La fréquence fondamentale de ses variations est alors proportionnelle à la fréquence de rotation de la machine.<br />Après avoir montré l'insuffisance des méthodes classiques de contrôle actif pour cette application, une étude théorique détaillée des systèmes LVPT est réalisée. Elle conduit à la définition d'une matrice de transfert, jouant le même rôle que la fonction de transfert classique employée pour les systèmes linéaires et invariants dans le temps. Cette matrice permet d'écrire simplement la relation entre les entrées et les sorties du système<br />considéré dans le domaine fréquentiel.<br />Finalement, les résultats précédents sont utilisés afin de déterminer l'expression optimale des courants de commande minimisant la puissance des signaux de vibrations mesurés. Un algorithme récursif permet également de converger vers cet optimum, et de prendre en compte d'éventuelles variations des perturbations vibratoires à éliminer. Divers résultats, obtenus sur des signaux synthétiques puis sur des signaux vibratoires réels, illustrent les performances obtenues par ce système de contrôle actif. Il permet une réduction significative des vibrations<br />synchrones au phénomène de rotation, sans pour autant modifier les caractéristiques des autres. Enfin, son implantation en temps-réel dans un processeur numérique de traitement de signal est discutée et réalisée.
46

Problèmes d'identification et d'observabilité du moteur à induction pour la variation de vitesse industrielle "sans capteur"

Malrait, François 07 February 2001 (has links) (PDF)
Pour améliorer les performances d'un variateur de vitesse ou pour rendre autonome le contrôle des moteurs à induction sans capteur mécanique, il faut que le variateur de vitesse connaisse de manière précise les paramètres des moteurs qui lui sont accouplés. Nous proposons une phase d'identication à l'arrêt. Celle-ci soulève la problématique de la modélisation du moteur à induction et de l'étage de puissance (modèle de saturation, chutes de tension dans les composants de l'étage de puissance, ...) dans une zone de fonctionnement inhabituelle pour un variateur de vitesse. La connaissance des paramètres électriques hors ligne n'est pourtant pas susante. Lors du fonctionnement normal, la dérive thermique des résistances introduit une erreur paramétrique qui peut créer des problèmes de blocage dans le domaine de la basse vitesse ou au moins baisser notablement les performances. Nous avons analysé la zone de fonctionnement basse vitesse. Cette zone de fonctionnement contient des propriétés intrinsèques au moteur à induction : instabilité, inobservabilité (au premier ordre). Nous proposons la synthèse d'un observateur du moteur à induction fondée sur la linéarisation du système autour d'une trajectoire. Pour ce faire, nous avons développer une méthode de construction pour générer un observateur non singulier pour un système variant dans le temps possédant des singularités d'observabilité. Ce résultat provient de notre étude sur les systèmes possédant des singularités de commandabilité pour les systèmes linéaires à coecients variant dans le temps. Nous proposons explicitement un bouclage exogène permettant de transformer le système d'origine en des chaînes d'intégrateurs sans singularités.
47

Factor models, VARMA processes and parameter instability with applications in macroeconomics

Stevanovic, Dalibor 05 1900 (has links)
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients. / As information technology improves, the availability of economic and finance time series grows in terms of both time and cross-section sizes. However, a large amount of information can lead to the curse of dimensionality problem when standard time series tools are used. Since most of these series are highly correlated, at least within some categories, their co-variability pattern and informational content can be approximated by a smaller number of (constructed) variables. A popular way to address this issue is the factor analysis. This framework has received a lot of attention since late 90's and is known today as the large dimensional approximate factor analysis. Given the availability of data and computational improvements, a number of empirical and theoretical questions arises. What are the effects and transmission of structural shocks in a data-rich environment? Does the information from a large number of economic indicators help in properly identifying the monetary policy shocks with respect to a number of empirical puzzles found using traditional small-scale models? Motivated by the recent financial turmoil, can we identify the financial market shocks and measure their effect on real economy? Can we improve the existing method and incorporate another reduction dimension approach such as the VARMA modeling? Does it help in forecasting macroeconomic aggregates and impulse response analysis? Finally, can we apply the same factor analysis reasoning to the time varying parameters? Is there only a small number of common sources of time instability in the coefficients of empirical macroeconomic models? This thesis concentrates on the structural factor analysis and VARMA modeling and answers these questions through five articles. The first two articles study the effects of monetary policy and credit shocks in a data-rich environment. The third article proposes a new framework that combines the factor analysis and VARMA modeling, while the fourth article applies this method to measure the effects of credit shocks in Canada. The contribution of the final chapter is to impose the factor structure on the time varying parameters in popular macroeconomic models, and show that there are few sources of this time instability. The first article analyzes the monetary transmission mechanism in Canada using a factor-augmented vector autoregression (FAVAR) model. For small open economies like Canada, uncovering the transmission mechanism of monetary policy using VARs has proven to be an especially challenging task. Such studies on Canadian data have often documented the presence of anomalies such as a price, exchange rate, delayed overshooting and uncovered interest rate parity puzzles. We estimate a FAVAR model using large sets of monthly and quarterly macroeconomic time series. We find that the information summarized by the factors is important to properly identify the monetary transmission mechanism and contributes to mitigate the puzzles mentioned above, suggesting that more information does help. Finally, the FAVAR framework allows us to check impulse responses for all series in the informational data set, and thus provides the most comprehensive picture to date of the effect of Canadian monetary policy. As the recent financial crisis and the ensuing global economic have illustrated, the financial sector plays an important role in generating and propagating shocks to the real economy. Financial variables thus contain information that can predict future economic conditions. In this paper we examine the dynamic effects and the propagation of credit shocks using a large data set of U.S. economic and financial indicators in a structural factor model. Identified credit shocks, interpreted as unexpected deteriorations of the credit market conditions, immediately increase credit spreads, decrease rates on Treasury securities and cause large and persistent downturns in the activity of many economic sectors. Such shocks are found to have important effects on real activity measures, aggregate prices, leading indicators and credit spreads. In contrast to other recent papers, our structural shock identification procedure does not require any timing restrictions between the financial and macroeconomic factors, and yields an interpretation of the estimated factors without relying on a constructed measure of credit market conditions from a large set of individual bond prices and financial series. In third article, we study the relationship between VARMA and factor representations of a vector stochastic process, and propose a new class of factor-augmented VARMA (FAVARMA) models. We start by observing that in general multivariate series and associated factors do not both follow a finite order VAR process. Indeed, we show that when the factors are obtained as linear combinations of observable series, their dynamic process is generally a VARMA and not a finite-order VAR as usually assumed in the literature. Second, we show that even if the factors follow a finite-order VAR process, this implies a VARMA representation for the observable series. As result, we propose the FAVARMA framework that combines two parsimonious methods to represent the dynamic interactions between a large number of time series: factor analysis and VARMA modeling. We apply our approach in two pseudo-out-of-sample forecasting exercises using large U.S. and Canadian monthly panels taken from Boivin, Giannoni and Stevanovic (2010, 2009) respectively. The results show that VARMA factors help in predicting several key macroeconomic aggregates relative to standard factor forecasting models. Finally, we estimate the effect of monetary policy using the data and the identification scheme as in Bernanke, Boivin and Eliasz (2005). We find that impulse responses from a parsimonious 6-factor FAVARMA(2,1) model give an accurate and comprehensive picture of the effect and the transmission of monetary policy in U.S.. To get similar responses from a standard FAVAR model, Akaike information criterion estimates the lag order of 14. Hence, only 84 coefficients governing the factors dynamics need to be estimated in the FAVARMA framework, compared to FAVAR model with 510 VAR parameters. In fourth article we are interested in identifying and measuring the effects of credit shocks in Canada in a data-rich environment. In order to incorporate information from a large number of economic and financial indicators, we use the structural factor-augmented VARMA model. In the theoretical framework of the financial accelerator, we approximate the external finance premium by credit spreads. On one hand, we find that an unanticipated increase in US external finance premium generates a significant and persistent economic slowdown in Canada; the Canadian external finance premium rises immediately while interest rates and credit measures decline. From the variance decomposition analysis, we observe that the credit shock has an important effect on several real activity measures, price indicators, leading indicators, and credit spreads. On the other hand, an unexpected increase in Canadian external finance premium shows no significant effect in Canada. Indeed, our results suggest that the effects of credit shocks in Canada are essentially caused by the unexpected changes in foreign credit market conditions. Finally, given the identification procedure, we find that our structural factors do have an economic interpretation. The behavior of economic agents and environment may vary over time (monetary policy strategy shifts, stochastic volatility) implying parameters' instability in reduced-form models. Standard time varying parameter (TVP) models usually assume independent stochastic processes for all TVPs. In the final article, I show that the number of underlying sources of parameters' time variation is likely to be small, and provide empirical evidence on factor structure among TVPs of popular macroeconomic models. To test for the presence of, and estimate low dimension sources of time variation in parameters, I apply the factor time varying parameter (Factor-TVP) model, proposed by Stevanovic (2010), to a standard monetary TVP-VAR model. I find that one factor explains most of the variability in VAR coefficients, while the stochastic volatility parameters vary in the idiosyncratic way. The common factor is highly and positively correlated to the unemployment rate. To incorporate the recent financial crisis, the same exercise is conducted with data updated to 2010Q3. The VAR parameters present an important change after 2007, and the procedure suggests two factors. When applied to a large-dimensional structural factor model, I find that four dynamic factors govern the time instability in almost 700 coefficients.
48

La décision conditionnelle en droit administratif français / The conditional decision in French Administrative law

Gallo, Carole 15 November 2017 (has links)
La décision conditionnelle constitue un objet délaissé de la recherche en droit administratif français. Injustement perçue comme une affaire privée de spécialistes du droit des actes administratifs unilatéraux, elle n’occupe les écrits des publicistes que dans la mesure où la réalisation de la condition porte atteinte à la garantie des droits acquis. Cette réserve explique pour partie la faible contribution de la doctrine à la construction d’une définition de la décision conditionnelle, autonome du droit civil des obligations, et les difficultés corrélatives à déterminer les contours de cette notion mal identifiée. Pourtant, les orientations prises par le juge administratif et, dernièrement, par le codificateur, rendent nécessaire la recherche d’une définition clarifiée de la décision conditionnelle en droit administratif français. Depuis longtemps, le juge administratif range la décision conditionnelle dans la catégorie des actes administratifs unilatéraux et met en œuvre les principes qui les gouvernent. Or, de son côté, la doctrine ne parvient pas à l’intégrer pleinement dans la catégorie de l’acte unilatéral ou du contrat.Le visage inhabituel qu’elle présente, aux yeux des juristes, force la réévaluation des classifications traditionnelles.La doctrine malmène ses catégories binaires, dans le but de souligner la particularité de cette décision unilatérale qui ressemble à s’y méprendre au contrat. Il en résulte une contradiction inévitable entre la présentation doctrinale de la décision conditionnelle et les données du droit positif. Pour la dénouer, il apparaît nécessaire de renouveler l’appareil théorique jusqu’alors mobilisé. En prenant appui sur les données pertinentes du droit positif, il a été possible de définir la condition comme une norme juridique à part entière, à la fois dépendante et distincte des autres dispositions de la décision, et dont la fonction se limite à moduler les effets dans le temps de la norme principale qu’elle prend pour objet. À travers ces éléments de définition, transparaît un régime juridique cohérent et unifié / Conditional decisions remain much overlooked in the legal scholarship on French administrative law. Wrongfully considered as the exclusive province of the specialist on unilateral administrative acts, conditional decisions have received the attention of public lawyers only in so far as they come to present a risk for the protection of aquired rights. This goes some way to explaining both the scarcity of doctrinal contributions to a definition of the concept of a conditional decision – autonomous from the paradigm of the obligations in French civil law –, and the difficulties encountered in trying to bring some clarity to the subject by attempting to determine precisely the boundaries of the notion. Nevertheless, recent turns taken by the administrative courts, and more recently by codifiers, do call for a clear and consistent definition. The case law has for long considered these legal acts as unilateral acts, thus subjecting conditional decisions to the corresponding legal principles. Despite this, the legal scholarship on the question has never managed to fully integrate conditional decisions in either branch of the main binary subdivision – contracts and unilateral acts –, ill-using both in order to stress the highly unusual character of the notion (for instance underlining the peculiar relevance of an analysis of this unilateral decision in contractual terms). This unusual object therefore forces us to reevaluate our traditional classifications, which otherwise systematically result in a severe inconsistency between substantive law and its doctrinal exposition. In order to do so, the theoretical tools and approaches used up to now must be renewed. This doctoral dissertation aims to reconcile the positive law and its doctrinal exposition, thus proposing a clear definition of the condition itself as a legal norm in its own right – both dependant on, and distinct from, the other provisions of the decision it is attached to – the function of which is to modulate the effects over time of the main decision. These proposed elements of definition come to reveal a unified and coherent legal status of the conditional decision in administrative law.
49

Approximation de modèles dynamiques de grande dimension sur intervalles de fréquences limités / Frequency-limited model approximation of large-scale dynamical models

Vuillemin, Pierre 24 November 2014 (has links)
Les systèmes physiques sont représentés par des modèles mathématiques qui peuvent être utilisés pour simuler, analyser ou contrôler ces systèmes. Selon la complexité du système qu’il est censé représenter, un modèle peut être plus ou moins complexe. Une complexité trop grande peut s’avérer problématique en pratique du fait des limitations de puissance de calcul et de mémoire des ordinateurs. L’une des façons de contourner ce problème consiste à utiliser l’approximation de modèles qui vise à remplacer le modèle complexe par un modèle simplifié dont le comportement est toujours représentatif de celui du système physique.Dans le cas des modèles dynamiques Linéaires et Invariants dans le Temps (LTI), la complexité se traduit par une dimension importante du vecteur d’état et on parle alors de modèles de grande dimension. L’approximation de modèle, encore appelée réduction de modèle dans ce cas, a pour but de trouver un modèle dont le vecteur d’état est plus petit que celui du modèle de grande dimension tel que les comportements entrée-sortie des deux modèles soient proches selon une certaine norme. La norme H2 a été largement considérée dans la littérature pour mesurer la qualité d’un modèle réduit. Cependant, la bande passante limitée des capteurs et des actionneurs ainsi que le fait qu’un modèle est généralement représentatif d’un système physique dans une certaine bande fréquentielle seulement, laissent penser qu’un modèle réduit dont le comportement est fidèle au modèle de grande dimension dans un intervalle de fréquences donné,peut être plus pertinent. C’est pourquoi, dans cette étude, la norme H2 limitée en fréquence,ou norme H2, Ω, qui est simplement la restriction de la norme H2 sur un intervalle de fréquences Ω, a été considérée. En particulier, le problème qui vise à trouver un modèle réduit minimisant la norme H2, Ω de l’erreur d’approximation avec le modèle de grande dimension a été traité.Deux approches ont été proposées dans cette optique. La première est une approche empirique basée sur la modification d’une méthode sous-optimale pour l’approximation H2. En pratique, ses performances s’avèrent intéressantes et rivalisent avec certaines méthodes connues pour l’approximation de modèles sur intervalles de fréquences limités.La seconde est une méthode d’optimisation basée sur la formulation pôles-résidus de la norme H2, Ω. Cette formulation généralise naturellement celle existante pour la norme H2 et permet également d’exprimer deux bornes supérieures sur la norme H∞ d’un modèle LTI, ce qui est particulièrement intéressant dans le cadre de la réduction de modèle. Les conditions d’optimalité du premier ordre pour le problème d’approximation optimale en norme H2, Ω ont été exprimées et utilisées pour créer un algorithme de descente visant à trouver un minimum local au problème d’approximation. Couplée aux bornes sur la norme H∞ de l’erreur d’approximation,cette méthode est utilisée pour le contrôle de modèle de grande dimension.D’un point de vue plus pratique, l’ensemble des méthodes proposées dans cette étude ont été appliquées, avec succès, dans un cadre industriel comme élément d’un processus global visant à contrôler un avion civil flexible. / Physical systems are represented by mathematical models in order to be simulated, analysed or controlled. Depending on the complexity of the physical system it is meant to represent and on the way it has been built, a model can be more or less complex. This complexity can become an issue in practice due to the limited computational power and memory of computers. One way to alleviate this issue consists in using model approximation which is aimed at finding a simpler model that still represents faithfully the physical system.In the case of Linear Time Invariant (LTI) dynamical models, complexity translates into a large dimension of the state vector and one talks about large-scale models. Model approximation is in this case also called model reduction and consists in finding a model with a smaller state vector such that the input-to-output behaviours of both models are close with respect to some measure. The H2-norm has been extensively used in the literature to evaluate the quality of a reduced-order model. Yet, due to the limited band width of actuators, sensors and the fact that models are generally representative on a bounded frequency interval only, a reduced-order model that faithfully reproduces the behaviour of the large-scale one over a bounded frequency interval only, may be morerelevant. That is why, in this study, the frequency-limited H2-norm, or H2,Ω-norm, which is the restriction of theH2-norm over a frequency interval, has been considered. In particular, the problem of finding a reduced-ordermodel that minimises the H2, Ω-norm of the approximation error with the large-scale model has been addressed here. For that purpose, two approaches have been developed. The first one is an empirical approach based on the modification of a sub-optimal H2 model approximation method. Its performances are interesting in practice and compete with some well-known frequency-limited approximation methods. The second one is an optimisationmethod relying on the poles-residues formulation of the H2,Ω-norm. This formulation naturally extends the oneexisting for the H2-norm and can also be used to derive two upper bounds on the H∞-norm of LTI dynamical models which is of particular interest in model reduction. The first-order optimality conditions of the optimal H2,Ω approximation problem are derived and used to built a complex-domain descent algorithm aimed at finding a local minimum of the problem. Together with the H∞ bounds on the approximation error, this approach isused to perform control of large-scale models. From a practical point of view, the methods proposed in this study have been successfully applied in an industrial context as a part of the global process aimed at controlling a flexible civilian aircraft.
50

L'assimilation juridique du statut personnel mahorais / Legal assimilation of the personal status applicable to Mayotte

Ali, Amir 05 February 2016 (has links)
L’étude a examiné la question de l’assimilation du statut personnel mahorais. Elle a permis surtout d’élucider le processus de la substitution des règles du Code civil aux institutions juridiques locales initialement d’essence islamique et coutumière. Certes, des avancées notables ont été réalisées durant la dernière décennie. Néanmoins, il subsiste des zones d’ombres qui exigent une intervention imminente du législateur afin que la lumière soit faite. En effet, le droit ne peut se satisfaire d’incertitudes. Pour son efficacité, il a besoin de l’énonciation de principes clairs. Les règles qu’il pose doivent être limpides pour écarter tout risque d’arbitraire. Il s’agit là d’un préalable, pour faciliter le travail du juge chargé s’en assurer l’observation. C’est aussi une armure avec laquelle chaque justiciable peut s’envelopper pour se sentir en sécurité. Le législateur doit être en mesure de garantir ces besoins élémentaires propres à fonder l’harmonie dans la société. Ce voyage dans les méandres de l’assimilation du statut personnel mahorais, a été également l’occasion de découvrir le renouveau de cette notion, et sillonner l’horizon qui se présente à elle. A charge maintenant pour le législateur, d’en explorer toutes les potentialités, et lui restituer son véritable sens / The study examined the question of assimilation status Mayotte staff. It allowed especially to elucidate the process of substitution of the Civil Code of rules to local legal institutions initially Islamic and customary gasoline. While significant progress has been made over the past decade. Nevertheless, there are still gray areas that require imminent legislative action so that light be shed.Indeed, the right can not be satisfied uncertainties. For efficiency, it requires the articulation of clear principles. The rules must be clear that it poses to rule out any risk of arbitrariness. This is a prerequisite to facilitate the work of the judge to ensure compliance. It is also an armor with which each individual can wrap himself to feel safe. The legislator must be able to guarantee these basic needs own to found harmony in society. This journey through the maze of assimilation status Mayotte staff, was also an opportunity to discover the revival of this concept, and crisscross the horizon that presents itself. A now supported for the legislature, to explore all potential and restore its true meaning

Page generated in 0.0463 seconds