• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 32
  • 11
  • 4
  • Tagged with
  • 47
  • 13
  • 12
  • 10
  • 8
  • 8
  • 7
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Trois essais en finance empirique / Three essays in empirical finance

Roger, Tristan 08 November 2013 (has links)
Cette thèse de doctorat comporte trois chapitres distincts. Dans le premier chapitre, nous étudions le comportement moutonnier d'investisseurs individuels français. Notre analyse empirique repose sur une base de données de presque 8 millions de transactions réalisées entre 1999 et 2006 par 87 373 investisseurs individuels français. Nous montrons que le comportement moutonnier persiste dans le temps et que la performance passée ainsi que le niveau de sophistication influencent ce comportement. Nous tentons également d'apporter une réponse à une question très peu abordée dans la littérature : adopter un comportement moutonnier est-il profitable pour l'investisseur individuel ? Notre analyse empirique indique que les investisseurs contrariants obtiennent des rendements plus extrêmes (positifs ou négatifs) que les investisseurs moutonniers. Dans le second chapitre, nous montrons que mesurer la précision d'une prévision du prix futur d'une action n'est pas suffisant pour évaluer la qualité de cette prévision car la prévisibilité des prix est susceptible d'évoluer dans le temps et dépend du titre considéré. Nous montrons que la persistance dans les différences individuelles de précision des prévisions d'analystes, mis en avant dans la littérature, ne constitue pas une preuve de différences de compétences entre analystes. Cette persistance est, en réalité, causée par une persistance de la volatilité de la rentabilité des titres. Nous introduisons une mesure de qualité des prévisions qui incorpore à la fois l'erreur de prévision et la prévisibilité du prix. La théorie des options nous fournit les éléments nécessaires à l'estimation de cette prévisibilité. Lorsque celle-ci est prise en compte, il n'y a plus de différences de compétences entre analystes. Dans le troisième chapitre, nous montrons que les analystes expérimentés et inexpérimentés ne couvrent pas le même type d'entreprises. Les analystes expérimentés couvrent des entreprises de type « blue chips » tandis que les analystes inexpérimentés couvrent des entreprises petites, jeunes et en croissance. Ces différences de couvertures impliquent que les analystes inexpérimentés émettent des prévisions de prix sur des entreprises dont les rendements sont plus volatils et donc moins prévisibles. En conséquence, la précision des prévisions n'est pas une bonne mesure pour évaluer si les analystes expérimentés sont meilleurs ou moins compétents que les analystes inexpérimentés. Lorsque ces différences de couvertures sont prises en compte, nous obtenons que les analystes expérimentés émettent néanmoins de meilleures prévisions. Bien que statistiquement significatif, l'impact économique de l'expérience des analystes est faible. / This dissertation is made of three distinct chapters. In the first chapter, we introduce a new measure of herding that allows for tracking dynamics of individual herding. Using a database of nearly 8 million trades executed between 1999 and 2006 by 87,373 individual investors, we show that individual herding is persistent over time and that past performance and the level of sophistication influence this behavior. We are also able to answer a question that was previously unaddressed in the literature: is herding profitable for investors? Our unique dataset reveals that the investors trading against the crowd tend to exhibit more extreme returns and poorer risk-adjusted performance than the herders. In the second chapter, we show that measuring the accuracy of a target price is not sufficient to assess its quality, because the forecast predictability (which depends on the stock return volatility and on the forecast horizon) is likely to vary across stocks and over time. We argue that the evidence of time persistent differences in analysts' target price accuracy, obtained in previous studies, cannot be interpreted as a proof of persistent differential abilities. Our analysis indicates that the persistence in accuracy is driven by persistence in stock return volatility. We introduce a measure of target price quality that considers both the forecast inaccuracy and the forecast predictability. Using elements from option-pricing theory, we provide a simple solution to the issue of estimating target price predictability. Our empirical analysis reveals that, when forecast predictability is taken into account, financial analysts do not exhibit significant persistent differential abilities to forecast future stock prices. In the third chapter, we show that experienced financial analysts tend to cover different firms than inexperienced analysts. Experienced analysts tend to follow blue chips (i.e., large, international, mature firms) while inexperienced analysts focus on small, young, growth-oriented firms. These differences in coverage decisions imply that inexperienced analysts issue target prices on firms for which stock returns are more volatile, and thus less predictable. As a consequence, the accuracy measure of target prices fails to evaluate differences in ability between experienced and inexperienced analysts. When taking into account these differences in coverage decisions, we still find that experienced analysts do a better job at forecasting stock prices. Our results on the influence of analysts' characteristics on target price quality are statistically significant but economically weak.
32

Caractérisation et prédiction probabiliste des variations brusques et importantes de la production éolienne / Characterization and probabilistic forecasting of wind power production ramps

Bossavy, Arthur 06 December 2012 (has links)
L'énergie éolienne est aujourd'hui la source d'énergie renouvelable en plus forte expansion. Le caractère variable et partiellement contrôlable de sa production complexifie la gestion du système électrique. L'utilisation dans divers processus de décision, de prédictions du niveau de production à des horizons de 2-3 jours, permet une meilleure intégration de cette ressource. Certaines situations donnent néanmoins lieu à des performances de prédiction insatisfaisantes. Des erreurs dans la prédiction de l'instant d'apparition de variations brusques et importantes de la production, peuvent être responsables d'importants déséquilibres énergétiques, et avoir un impact négatif sur la gestion du système électrique. L'objectif de cette thèse est de proposer des approches permettant d'une part de caractériser ces variations, et d'autre part de prédire et d'estimer l'incertitude dans l'instant de leur apparition. Dans un premier temps, nous étudions différentes formes de caractérisation de ces variations. Nous proposons un modèle de rupture permettant de représenter le caractère aléatoire dans la proximité des ruptures d'un signal, tout en tenant compte des aspects borné et non-stationnaire du processus de production. A partir de simulations issues de ce modèle, nous réalisons une étude paramétrique destinée à évaluer et comparer les performances de différents filtres et approches multi-échelles de détection. Dans un deuxième temps, nous proposons une approche de prédiction probabiliste de l'instant d'apparition d'une rupture, reposant sur l'utilisation de prévisions météorologiques ensemblistes. Leur conversion en puissance fournit différents scénarii de la production, à partir desquels sont agrégées les prédictions de l'instant d'apparition d'une rupture. L'incertitude associée est représentée à l'aide d'intervalles de confiance temporels et de probabilités estimées conditionnellement. Nous évaluons la fiabilité et la finesse de ces estimations sur la base de mesures de production provenant de différentes fermes éoliennes. / Today, wind energy is the fastest growing renewable energy source. The variable and partially controllable nature of wind power production causes difficulties in the management of power systems. Forecasts of wind power production 2-3 days ahead can facilitate its integration. Though, particular situations result in unsatisfactory prediction accuracy. Errors in forecasting the timing of large and sharp variations of wind power can result in large energy imbalances, with a negative impact on the management of a power system. The objective of this thesis is to propose approaches to characterize such variations, to forecast their timing, and to estimate the associated uncertainty. First, we study different alternatives in the characterization of wind power variations. We propose an edge model to represent the random nature of edge occurrence, along with representing appropriately the bounded and non-stationary aspects of the wind power production process. From simulations, we make a parametric study to evaluate and compare the performances of different filters and multi-scale edge detection approaches. Then, we propose a probabilistic forecasting approach of edge occurrence and timing, based on numerical weather prediction ensembles. Their conversion into power provides an ensemble of wind power scenarios from which the different forecast timings of an edge are combined. The associated uncertainty is represented through temporal confidence intervals with conditionally estimated probabilities of occurrence. We evaluate the reliability and resolution of those estimations based on power measurements from various real world case studies.
33

Prévision de la turbidité par apprentissage statistique : application au captage AEP d'Yport (Normandie) / Turbidity forecasting using neural network : case study of Yport drinking water pumping well (Normandy)

Savary, Michael 12 July 2018 (has links)
Près de 25% de la population mondiale est alimentée par de l’eau en provenance d’aquifères karstiques. La compréhension et la protection de ces derniers apparait donc comme essentielle dans le cadre d’une augmentation des besoins en eau potable. De plus, une contamination des forages d'alimentation en eau potable par une eau turbide peut s'avérer fortement dommageable car entrainant une possible contamination des populations desservies. Dans le cas de la Normandie, des coupures régulières son nécessaires afin de préserver la santé des habitants. La modélisation et la prédiction des augmentations de turbidité apparaissent comme un travail difficile du fait des nombreux phénomènes et paramètres régissant la turbidité ainsi que la non-linéarité de la réponse entre les précipitations et la turbidité. Peu de modèles à l'heure actuelle ont été proposés pour représenter la relation liant la turbidité avec les précipitations. C'est ainsi, en s'intéressant au forage AEP d'Yport responsable de l'alimentation en eau potable de la ville du Havre, que nous proposons une application des réseaux de neurones pour la prévision de la turbidité. Durant les travaux de thèse, nous avons mis en avant la nécessité d'effectuer des campagnes d'échantillonnages des produits phytosanitaires afin de permettre l'identification des éventuels proxies des produits phytosanitaires tel que la turbidité, les précipitations ou bien la conductivité. Par la suite, les travaux effectués dans cette thèse nous ont permis (i) de monter que les modèles par réseaux de neurones permettent de prévoir à 12h et 24h les variations de turbidité, (ii) de tester plusieurs voies d'amélioration de ces modèles, (iii) d'intégrer l'analyse multirésolution aux modèles par réseaux de neurones et pour finir (iiii) d'identifier un semi proxy des contaminations en produits phytosanitaires. / Approximately 25% of the world's population is supplied by water from karstic aquifers. The understanding and protection of these appears to be essential in the context of drinking water needs increasing. In addition, contamination of drinking water by turbid water can be highly damaging by resulting in possible contamination of the served populations. In the case of Normandy, regular drinking water cut-off are necessary to preserve the health of the inhabitants. The modeling and prediction of turbidity event appears as a challenging work because of the number of phenomenon and parameters involves in turbidity variation as well as the non-linearity of the link between rainfall and turbidity. Actually, few models have been proposed to represent the relationship between turbidity and rainfall. In this context, by focusing on Yport's pumping well which is responsible for Half of Le Havre city drinking water supply, we propose an application of neural networks for turbidity prediction. During this thesis work, we emphasized the need to carry out sampling campaigns for phytosanitary products to enable the identification of possible phytosanitary product proxies such as turbidity, rainfall or conductivity. Subsequently, the work carried out in this thesis enabled us to (i) designed neural network models allow to predict at 12h and 24h the turbidity variations, (ii) test several ways to improve these models, (iii) integrate multiresolution analysis into neural networks models and finally (iiii) identify a semi proxy for phytosanitary product contamination.
34

Medium-range probabilistic river streamflow predictions

Roulin, Emmannuel 30 June 2014 (has links)
River streamflow forecasting is traditionally based on real-time measurements of rainfall over catchments and discharge at the outlet and upstream. These data are processed in mathematical models of varying complexity and allow to obtain accurate predictions for short times. In order to extend the forecast horizon to a few days - to be able to issue early warning - it is necessary to take into account the weather forecasts. However, the latter display the property of sensitivity to initial conditions, and for appropriate risk management, forecasts should therefore be considered in probabilistic terms. Currently, ensemble predictions are made using a numerical weather prediction model with perturbed initial conditions and allow to assess uncertainty. <p><p>The research began by analyzing the meteorological predictions at the medium-range (up to 10-15 days) and their use in hydrological forecasting. Precipitation from the ensemble prediction system of the European Centre for Medium-Range Weather Forecasts (ECMWF) were used. A semi-distributed hydrological model was used to transform these precipitation forecasts into ensemble streamflow predictions. The performance of these forecasts was analyzed in probabilistic terms. A simple decision model also allowed to compare the relative economic value of hydrological ensemble predictions and some deterministic alternatives. <p><p>Numerical weather prediction models are imperfect. The ensemble forecasts are therefore affected by errors implying the presence of biases and the unreliability of probabilities derived from the ensembles. By comparing the results of these predictions to the corresponding observed data, a statistical model for the correction of forecasts, known as post-processing, has been adapted and shown to improve the performance of probabilistic forecasts of precipitation. This approach is based on retrospective forecasts made by the ECMWF for the past twenty years, providing a sufficient statistical sample. <p><p>Besides the errors related to meteorological forcing, hydrological forecasts also display errors related to initial conditions and to modeling errors (errors in the structure of the hydrological model and in the parameter values). The last stage of the research was therefore to investigate, using simple models, the impact of these different sources of error on the quality of hydrological predictions and to explore the possibility of using hydrological reforecasts for post-processing, themselves based on retrospective precipitation forecasts. <p>/<p>La prévision des débits des rivières se fait traditionnellement sur la base de mesures en temps réel des précipitations sur les bassins-versant et des débits à l'exutoire et en amont. Ces données sont traitées dans des modèles mathématiques de complexité variée et permettent d'obtenir des prévisions précises pour des temps courts. Pour prolonger l'horizon de prévision à quelques jours – afin d'être en mesure d'émettre des alertes précoces – il est nécessaire de prendre en compte les prévisions météorologiques. Cependant celles-ci présentent par nature une dynamique sensible aux erreurs sur les conditions initiales et, par conséquent, pour une gestion appropriée des risques, il faut considérer les prévisions en termes probabilistes. Actuellement, les prévisions d'ensemble sont effectuées à l'aide d'un modèle numérique de prévision du temps avec des conditions initiales perturbées et permettent d'évaluer l'incertitude.<p><p>La recherche a commencé par l'analyse des prévisions météorologiques à moyen-terme (10-15 jours) et leur utilisation pour des prévisions hydrologiques. Les précipitations issues du système de prévisions d'ensemble du Centre Européen pour les Prévisions Météorologiques à Moyen-Terme ont été utilisées. Un modèle hydrologique semi-distribué a permis de traduire ces prévisions de précipitations en prévisions d'ensemble de débits. Les performances de ces prévisions ont été analysées en termes probabilistes. Un modèle de décision simple a également permis de comparer la valeur économique relative des prévisions hydrologiques d'ensemble et d'alternatives déterministes.<p><p>Les modèles numériques de prévision du temps sont imparfaits. Les prévisions d'ensemble sont donc entachées d'erreurs impliquant la présence de biais et un manque de fiabilité des probabilités déduites des ensembles. En comparant les résultats de ces prévisions aux données observées correspondantes, un modèle statistique pour la correction des prévisions, connue sous le nom de post-processing, a été adapté et a permis d'améliorer les performances des prévisions probabilistes des précipitations. Cette approche se base sur des prévisions rétrospectives effectuées par le Centre Européen sur les vingt dernières années, fournissant un échantillon statistique suffisant.<p><p>A côté des erreurs liées au forçage météorologique, les prévisions hydrologiques sont également entachées d'erreurs liées aux conditions initiales et aux erreurs de modélisation (structure du modèle hydrologique et valeur des paramètres). La dernière étape de la recherche a donc consisté à étudier, à l'aide de modèles simples, l'impact de ces différentes sources d'erreur sur la qualité des prévisions hydrologiques et à explorer la possibilité d'utiliser des prévisions hydrologiques rétrospectives pour le post-processing, elles-même basées sur les prévisions rétrospectives des précipitations. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
35

Modélisation du carnet d'ordres limites et prévision de séries temporelles

Simard, Clarence 10 1900 (has links)
Le contenu de cette thèse est divisé de la façon suivante. Après un premier chapitre d’introduction, le Chapitre 2 est consacré à introduire aussi simplement que possible certaines des théories qui seront utilisées dans les deux premiers articles. Dans un premier temps, nous discuterons des points importants pour la construction de l’intégrale stochastique par rapport aux semimartingales avec paramètre spatial. Ensuite, nous décrirons les principaux résultats de la théorie de l’évaluation en monde neutre au risque et, finalement, nous donnerons une brève description d’une méthode d’optimisation connue sous le nom de dualité. Les Chapitres 3 et 4 traitent de la modélisation de l’illiquidité et font l’objet de deux articles. Le premier propose un modèle en temps continu pour la structure et le comportement du carnet d’ordres limites. Le comportement du portefeuille d’un investisseur utilisant des ordres de marché est déduit et des conditions permettant d’éliminer les possibilités d’arbitrages sont données. Grâce à la formule d’Itô généralisée il est aussi possible d’écrire la valeur du portefeuille comme une équation différentielle stochastique. Un exemple complet de modèle de marché est présenté de même qu’une méthode de calibrage. Dans le deuxième article, écrit en collaboration avec Bruno Rémillard, nous proposons un modèle similaire mais cette fois-ci en temps discret. La question de tarification des produits dérivés est étudiée et des solutions pour le prix des options européennes de vente et d’achat sont données sous forme explicite. Des conditions spécifiques à ce modèle qui permettent d’éliminer l’arbitrage sont aussi données. Grâce à la méthode duale, nous montrons qu’il est aussi possible d’écrire le prix des options européennes comme un problème d’optimisation d’une espérance sur en ensemble de mesures de probabilité. Le Chapitre 5 contient le troisième article de la thèse et porte sur un sujet différent. Dans cet article, aussi écrit en collaboration avec Bruno Rémillard, nous proposons une méthode de prévision des séries temporelles basée sur les copules multivariées. Afin de mieux comprendre le gain en performance que donne cette méthode, nous étudions à l’aide d’expériences numériques l’effet de la force et la structure de dépendance sur les prévisions. Puisque les copules permettent d’isoler la structure de dépendance et les distributions marginales, nous étudions l’impact de différentes distributions marginales sur la performance des prévisions. Finalement, nous étudions aussi l’effet des erreurs d’estimation sur la performance des prévisions. Dans tous les cas, nous comparons la performance des prévisions en utilisant des prévisions provenant d’une série bivariée et d’une série univariée, ce qui permet d’illustrer l’avantage de cette méthode. Dans un intérêt plus pratique, nous présentons une application complète sur des données financières. / This thesis is structured as follows. After a first chapter of introduction, Chapter 2 exposes as simply as possible different notions that are going to be used in the two first papers. First, we discuss the main steps required to build stochastic integrals for semimartingales with space parameters. Secondly, we describe the main results of risk neutral evaluation theory and, finally, we give a short description of an optimization method known as duality. Chapters 3 and 4 consider the problem of modelling illiquidity, which is covered by two papers. The first one proposes a continuous time model for the structure and the dynamic of the limit order book. The dynamic of a portfolio for an investor using market orders is deduced and conditions to rule out arbitrage are given. With the help of Itô’s generalized formula, it is also possible to write the value of the portfolio as a stochastic differential equation. A complete example of market model along with a calibration method is also given. In the second paper, written in collaboration with Bruno Rémillard, we propose a similar model with discrete time trading. We study the problem of derivatives pricing and give explicit formulas for European option prices. Specific conditions to rule out arbitrage are also provided. Using the dual optimization method, we show that the price of European options can be written as the optimization of an expectation over a set of probability measures. Chapter 5 contained the third paper and studies a different topic. In this paper, also written with Bruno Rémillard, we propose a forecasting method for time series based on multivariate copulas. To provide a better understanding of the proposed method, with the help of numerical experiments, we study the effect of the strength and the structure of the different dependencies on predictions performance. Since copulas allow to isolate the dependence structure and marginal distributions, we study the impact of different marginal distributions on predictions performance. Finally, we also study the effect of estimation errors on the predictions. In all the cases, we compare the performance of predictions by using predictions based on a bivariate series and predictions based on a univariate series, which allows to illustrate the advantage of the proposed method. For practical matters, we provide a complete example of application on financial data.
36

Notation financière et comportement des acteurs sur le marché financier / Credit rating and behavior of agents in financial market

Dammak, Neila 29 January 2013 (has links)
L'objectif de cette thèse est d'analyser le rôle des agences de notation sur le marché financier. Notre contribution consiste à mieux comprendre l'influence des annonces de notation sur les acteurs du marché français des actions (investisseurs et analystes financiers).La première question porte sur l'apport informatif délivré par les agences de notation et l'impact de leurs décisions. Afin de répondre à cette question, nous avons conduit une étude d'évènement à l'annonce de notation en distinguant les annonces par nature, type et catégorie.Cette recherche permet de prouver que les annonces de notation ont globalement un impact sur le marché des actions. L'impact dépend de la nature de l'annonce, des informations fournies dans les rapports de notation, des changements de note entre catégories et de ceux effectués dans la catégorie spéculative. Enfin, le niveau de la note dépend des caractéristiques financières et comptables de l'entreprise notée.La seconde question porte sur le rôle bénéfique des agences de notation sur les marchés. Afin de répondre à cette deuxième question, nous avons conduit une recherche qui consiste à analyser l'évolution de l'asymétrie d'information entre les investisseurs et de la liquidité autour des annonces de notation.Cette recherche prouve que les annonces positives (respectivement négatives) entraînent une diminution (respectivement augmentation) de l'asymétrie d'information sur le marché des actions. Les résultats prouvent également que les annonces positives et neutres, à l'inverse des annonces négatives, entraînent une réduction des fourchettes de prix et une amélioration des volumes de transactions. Ces deux effets concomitants traduisent une amélioration (respectivement détérioration) de la liquidité du marché lors des annonces positives et neutres (respectivement négatives).La troisième question porte sur l'utilité des annonces de notation pour les analystes lors de leurs prévisions. Afin de répondre à cette question, nous avons mené une recherche qui consiste à étudier l'évolution de la dispersion et de l'erreur des prévisions des analystes autour des annonces de notation.Les résultats mettent en évidence une relation inverse entre les caractéristiques des prévisions des analystes financiers et la nature de l'annonce de notation. Les annonces positives et neutres réduisent l'erreur et la dispersion des prévisions d'analystes.Ce travail de recherche permet d'attester de la réelle importance du contenu informationnel des annonces de notation pour le marché des actions et de la réelle contribution des annonces à l'amélioration de la communication financière sur le marché. / The main objective of this thesis is to analyze the role of rating agencies on the financial market. Our contribution consists in a better understanding of the impact of rating announcements on the agents on the French financial market (both investors and analysts).First we focus on the information content of announcements by rating agencies and the impact of theirs decisions in the market. To answer this question, we made an event study at the rating announcements, by identifying them by nature, type and category.This research highlights the fact that the rating announcements generally have an impact on the stock market. This impact depends on the nature of the announcement, the information provided in the reports as well as score changes between categories and within the speculative category. Moreover, the rating level depends on the firm financial and accounting characteristics.Second, we intend to understand the beneficial role of rating agencies on the financial markets. To answer this question, we analyzed the evolution of the information asymmetry and stock market liquidity around rating announcements.Our results show that positive announcements (respectively negative) lead to a decrease (respectively increase) of information asymmetry. We also found that positive and neutral announcements, unlike the negative ones, lead to a reduction of bid-ask spread and to an increase of transactions volumes. Both effects reflect higher (respectively lower) stock market liquidity when the announcements are positive or neutral (respectively negative).Finally, we focus on the study of the impact of rating announcements on analysts' forecasts. For this purpose, we studied the evolution of the analysts' forecasts dispersion and errors around rating announcements.Our results indicate an inverse relationship between the characteristics of financial analysts' forecasts and the nature of the rating announcement. Indeed, positive and neutral announcements reduce the error and the dispersion of analysts' forecasts.This research shows the informative content of rating announcements on the stock market and the real contribution of the announcements by improving financial communication.
37

Maladies chroniques et pertes d'autonomie chez les personnes âgees : évolutions des dépenses de santé et de la prise en charge de la dépendance sous l'effet du vieillissement de la population

Thiebaut, Sophie 03 November 2011 (has links)
Fondée sur deux analyses empiriques et sur un travail de modélisation théorique, cette thèse traite de la problématique du vieillissement de la population, en France, en termes de dépenses de biens et services de santé, et en termes de prise en charge des personnes âgées dépendantes. Dans un premier chapitre, une méthode de microsimulation dynamique est mise au point afin d'évaluer l'évolution des dépenses de médicaments remboursables (en médecine de ville) sous l'effet du vieillissement de la population et de l'évolution de l'état de santé chronique des personnes âgées. Un deuxième chapitre s'intéresse aux tenants d'une possible réforme de l'Allocation Personnalisée d'Autonomie (APA), qui viserait à récupérer sur la succession une partie des fonds versés aux personnes dépendantes. Nous développons un modèle théorique de transfert intergénérationnel en individualisant les décisions des deux membres d'une famille, un parent dépendant et un enfant aidant informel potentiel. Enfin, dans une dernière partie, nous évaluons empiriquement les facteurs modifiant la demande d'aide à domicile des bénéficiaires de l'APA, en nous concentrant, afin d'anticiper sur de possibles réformes de l'aide publique, sur l'évaluation des effets-prix dans la demande d'aide formelle. / This thesis addresses, using an elaborated theoretical model and two empirical applications, issues related to population ageing and health care expenditures as per the French context. In the first chapter, a method of dynamic microsimulation is developed to assess the evolution of outpatient reimbursable drugs expenditures as a result of the ageing population and the evolution of health status of chronically ill elderly people. The second chapter focuses on the ins and outs of a possible reform of the Personal Allowance for Autonomy (APA), which would seek to recover a portion of the funds paid to disabled elderly on the inheritance of their heirs. A theoretical model of intergenerational transfers is developed to study the individual decisions of a two-member family - a disabled parent and a child who can play the role of informal care giver. The final section presents an empirical evaluation of the factors affecting the demand of APA's recipients for home care. This work examines the price effects in the demand for formal care in order to anticipate possible reforms of public allowance.
38

Theoretical and empirical essays on inflation targeting and central bank transparency / Essais théoriques et empiriques sur les régimes de ciblage d’inflation et les politiques de transparence des banques centrales

M'Baye, Cheick Kader 28 June 2013 (has links)
Cette thèse contribue au débat sur les politiques de ciblage d’inflation et de transparence des banques centrales en présentant notamment trois essais théoriques et empiriques sur le sujet. Dans le premier essai, nous étudions théoriquement les conditions sous lesquelles il serait optimal pour une banque centrale d’adopter explicitement un régime de ciblage d’inflation. Nous proposons un nouveau cadre théorique qui combine les deux principales raisons avancées dans la littérature pour expliquer les effets réels à court terme de la politique monétaire et qui sont d’une part, la présence d’informations hétérogènes entre les agents économiques (Phelps, 1970 ; Lucas, 1972), et d’autre part, la rigidité des salaires ou des prix (Taylor, 1980 ; Calvo, 1983). Nous analysons ensuite notre problématique dans ce nouveau cadre en considérant l’interaction entre le degré de rigidité des prix, et le degré de complémentarités stratégiques dans la fixation de prix des firmes. Nos résultats montrent que l’adoption d’un régime de ciblage d’inflation dépend fortement de l’importance relative des paramètres du modèle. En particulier, nous montrons que le ciblage d’inflation devrait être toujours adopté lorsque les complémentarités stratégiques sont faibles, alors que dans le cas contraire, il est optimal uniquement lorsque les prix sont assez rigides et que la banque centrale détient des informations suffisamment précises sur les fondamentaux de l’économie. Dans le second essai, nous utilisons la macroéconomie expérimentale afin d’évaluer dans quelle mesure l’annonce de la cible d’inflation est pertinente dans un cadre de ciblage de l’inflation. Nos résultats montrent que lorsque la banque centrale ne se soucie que de la stabilisation de l’inflation, l’annonce de la cible d’inflation n’apporte pas de gain supplémentaire en termes de performances macro-économiques, par rapport à une politique monétaire active (type règle de Taylor). Cependant, si la banque centrale intègre également la stabilisation de l’activité économique dans ses objectifs, la communication de la cible contribue à réduire la volatilité de l’inflation, du taux d’intérêt, et de l’écart de production, bien que leurs niveaux moyens ne soient pas affectés. Ce résultat fournit ainsi une justification pour l’adoption d’un régime de ciblage flexible d’inflation par la majorité des pays ciblant l’inflation. Enfin dans le troisième essai, nous appliquons une analyse transversale ainsi que la technique des variables instrumentales, afin d’analyser les effets de la transparence des banques centrales sur les résultats macroéconomiques dans les pays émergents. Nous construisons un nouvel indice de transparence qui combine certains aspects de l’indice de transparence globale d’Eijffinger et Geraats (2006), avec ceux de l’indice de transparence sur le comité de politique monétaire de Hayo et Mazhar (2011). Nous analysons ensuite le rôle individuel de chaque composante du nouvel indice en termes de réduction du niveau de l’inflation et de sa volatilité, ainsi que de la volatilité du produit. Contrairement à la littérature antérieure, nous trouvons que le nouvel indice de transparence ainsi que ses aspects économique, politique, procédurale et de transparence sur la politique monétaire impactent négativement le niveau moyen de l’inflation, mais pas sa volatilité dans ces pays. L’unique composante du nouvel indice qui permet de réduire à la fois la volatilité de l’inflation et celle de la production est la transparence opérationnelle. Ces résultats s’avèrent robustes aux différentes spécifications de modèles économétriques utilisés dans cet essai. / This dissertation contributes to the debate on inflation targeting and central bantransparency by presenting three theoretical and empirical essays on the topic. In the first essay, we theoretically investigate the conditions under which it would be optimal for a central bank to explicitly adopt an inflation targeting regime. We propose a new theoretical framework that combines the two main frictions put forward in the literature to explain the real short run effects of monetary policy that is, heterogeneous information among agents (Phelps, 1970; Lucas, 1972), and wage or price rigidities (Taylor, 1980; Calvo, 1983). We then analyze our issue in this new framework by considering the interaction between the degree of price stickiness, and the degree of strategic complementarities in firms’ price setting. Our results show that adopting an inflation targeting regime crucially depends on the relative importance of the model’s parameters. In particular, we show that inflation targeting should always be adopted when strategic complementarities are low, while in the opposite case, it is optimal only if prices are sticky enough and the central bank holds sufficiently accurate information on the fundamentals of the economy. In the second essay, we use experimental macroeconomics to evaluate to what extent communication of the inflation target is relevant in an inflation targeting framework. Our results show that first, when the central bank only cares about inflation stabilization, announcing the inflation target does not make a difference in terms of macroeconomic performance compared to a standard active monetary policy. However, if the central bank also cares about the stabilization of the economic activity, communicating the target helps to reduce the volatility of inflation, interest rate, and output gap although their average levels are not affected. This finding provides a rationale for the adoption of flexible inflation targeting by the majority of inflation targeting countries. In the third essay, using a cross-sectional analysis and instrumental variables technique, we analyze the impact of central bank transparency on macroeconomic outcomes in emerging economies. We build a new index of transparency that combines some aspects of the overall Eijffinger and Geraats (2006) transparency index, with those of monetary policy committee transparency developed in Hayo and Mazhar (2011). We then analyze the individual role of each component of the new index in mitigating inflation and its volatility, as well as output volatility. By contrast to the previous literature, we interestingly find that the overall new index of transparency as well as its political, economic, procedural, and policy aspects negatively impact the average level of inflation, but not its volatility in these countries. The unique component of the new index that reduces the volatility of both inflation and output is operational transparency, and these results are robust to different econometric and instruments setting specifications.
39

Conception et réalisation d'un système d'aide à la gestion des tensions dans les services d'urgences pédiatriques : vers des nouvelles approches d'évaluation, de quantification et d'anticipation / Design and implementation of a management support system of strain in the pediatric emergency department new approaches of assessment, quantification and forecasting : new approaches of assessment, quantification and forecasting

Chandoul, Wided 04 June 2015 (has links)
La Tension dans un Service d’Urgences (SU) est un déséquilibre entre le flux de charge des soins et la capacité de prise en charge sur une durée suffisante pouvant entrainer des conséquences néfastes au bon fonctionnement. Elle se reflète par la surcharge des locaux, l’allongement des délais de traitement et d’attente. Ce qui provoque à la fois l’insatisfaction des patients et l’anxiété du personnel. Cette thèse s’inscrit dans le cadre du projet HOST financé par le programme ANR-TECSAN-2011 afin d’élaborer un Système d'Aide à la Gestion de la Tension (SAGeT) assurant trois objectifs:1. L’évaluation multicritère grâce à une panoplie d’indicateurs agrégés par la logique floue afin de résoudre la subjectivité du ressentie humain de la tension. Chaque scénario d’évaluation déclenche des règles de décision spécifiques ciblant ainsi des points de défaillance à surveiller.2. L’anticipation de la demande sur différents horizons temporels : l’application des méthodes SARIMA et SARIMAX est justifiée par la saisonnalité des chroniques de visites et l’influence de certains paramètres externes (épidémies, vacances, météo). De plus, la qualité de l’information venant de l’historique a été améliorée par une recomposition d’historique basée sur la vraisemblance journalière.3. L’amélioration de la gestion des flux et le pilotage de l’activité puisque l’utilisation de SAGeT comme un tableau de bord offre une vue macro sur l’ensemble de l’activité (lits occupés, patients en attente, durées de passages prévisionnelles et allongements excessifs). Les simulations traitent des vrais scénarios de tension observés entre 2011 et 2013 dans le SU Pédiatriques Jeanne de Flandre du CHRU-Lille. / He strain in an Emergency Department (ED) is an imbalance between the total demand load of healthcare treatment and resources ability to support it during a convenient horizon, which may results negative consequences on the smooth running of the activity. It is reflected by overcrowding, longer treatment and waiting times which causes both patients dissatisfaction and anxiety of personnel. This thesis is part of the HOST project funded by the ANR-TECSAN-2011 program to develop a Management Support System of Strain (MSSS) ensuring three objectives:1. Multi-criteria evaluation through a variety of indicators aggregated by fuzzy logic to solve the subjectivity of the human feeling of strain. Each evaluation scenario involves specific decision rules targeting to supervise failure points.2. Demand forecasting through several time horizons: applying SARIMA and SARIMAX methods is justified by the time series seasonality of visits and the influence of some external parameters (epidemics, holidays, weather). In addition, the quality of the historical information has been improved by a history rebuilding based on the daily likelihood.3. Improving flow management and activity monitoring since the use of MSSS as a dashboard provides a macro view of the whole activity (beds occupied, waiting, estimated length of stay, excessive elongation).The simulations address real strain scenarios observed between 2011 and 2013 in the Pediatric ED Jeanne de Flandre of the Regional University Hospital of Lille (France).
40

Prévision des crues rapides avec des modèles hydrologiques globaux. Applications aux bassins opérationnels de la Loire supérieure : évaluation des modélisations, prise en compte des incertitudes sur les précipitations moyennes spatiales et utilisation de prévisions météorologiques.

Moulin, Laetitia 07 December 2007 (has links) (PDF)
Ce travail propose d'évaluer, dans le cas des bassins versants de la Loire supérieure, l'intérêt de modèles pluie-débit globaux pour la prévision opérationnelle des crues rapides.<br /><br />Après une description du bassin à Bas-en-Basset, l'analyse critique des jeux de données disponibles met en évidence leur richesse, mais aussi leurs défauts. La grande variété des événements hydrométéorologiques touchant ces bassins apparaît particulièrement intéressante pour comparer des modèles hydrologiques.<br /><br />Des modèles conceptuels simples sont apparus plus robustes et souvent plus performants que des modèles statistiques ou des réseaux de neurones artificiels. Des critères spécifiques à la prévision des crues mettent en évidence les informations sur l'évolution immédiate des débits apportées par la transformation de la pluie en débit, même si les erreurs de modélisation restent importantes et finalement proches d'un modèle à l'autre.<br /><br />Un effort particulier a été porté sur l'estimation par krigeage des précipitations moyennes spatiales, pour lesquelles un modèle d'erreur est proposé et validé sur les données. Ces incertitudes, propagées dans les modèles pluie-débit, contribuent, selon la taille des bassins, à une part variable de l'erreur totale de modélisation.<br /><br />Enfin un travail exploratoire a montré l'intérêt d'inclure des prévisions de pluies probabilisées dans une chaîne hydrométéorologique, pour augmenter les délais d'anticipation et prendre en compte les incertitudes associées. Toutefois, la disponibilité de ces prévisions impose des traitements préalables à leur utilisation.<br /><br />Il ressort que des outils simples peuvent laisser envisager des améliorations dans ce domaine encore très perfectible de la prévision des crues.

Page generated in 0.4558 seconds