• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 294
  • 81
  • 18
  • 3
  • Tagged with
  • 408
  • 100
  • 94
  • 89
  • 82
  • 50
  • 49
  • 49
  • 45
  • 38
  • 38
  • 36
  • 35
  • 35
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
331

Modélisation élastoplastique avec endommagement du béton de structures. Application aux calculs statiques et dynamiques de structures en béton armé et béton précontraint

Ulm, Franz-Josef 11 January 1994 (has links) (PDF)
Le but de cette thèse est l'étude prédictive par calcul aux éléments finis des effets de la fissuration à l'échelle de structures en béton armé et précontraint soumises à des chargements statiques, cycliques et dynamiques. Il s'agit d'une part de préciser les lois de comportement des matériaux constitutifs de ces structures, et d'autre part de développer des outils numériques adaptés. Pour la modélisation du comportement du béton, un modèle du comportement macroscopique est présenté, couplant la plasticité à l'endommagement. Pour la partie plastique, il s'agit d'adapter la loi élastoplastique au comportement spécifique du béton. La (micro)fissuration du matériau est représentée à l'échelle macroscopique en termes de déformations plastiques, et l'apparition et l'évolution du dommage par l'évolution de variables plastiques. En particulier, la porosité plastique modélise la variation irréversible de l'espace poreux connecté créé par (micro)fissuration. Cette signification physique est à la base du couplage phénoménologique de la plasticité et de l'endommagement : les effets du dommage sont modélisés par une variation des caractéristiques élastiques fonction de la variable d'endommagement choisie : la porosité plastique. Cette loi de comportement est utilisée au sein d'un élément fini particulier : l'élément poutre multifibre, issu de l'extension des approches multicouches au cas tridimensionnel. L'outil numérique développé permet de prendre en compte des phénomènes non-linéaires tant matériels que géométriques dans l'analyse de structures à poutres sous des chargement divers avec un temps de calcul raisonnable. Pour l'application au cas des structures en béton précontraint, la formulation prend en compte des déplacements relatifs (glissement) entre câble précontraint et béton : la précontrainte est traitée comme un problème de condition aux limites à l'interface acier-béton. Ces développements sont mis en oeuvre dans un code de calcul par éléments finis. Au travers d'exemples d'applications numériques, le domaine d'application et les limites des outils proposés sont précisés. Ces outils se veulent une aide à la conception pour les ingénieurs, dans les études prédictives des effets du dommage à l'échelle des structures.
332

Quantification de l'apport de l'information de surveillance dans la prise de décision en maintenance

Huynh, Khac Tuan 14 November 2011 (has links) (PDF)
La surveillance de l'état d'un système peut fournir des informations utiles pour la prise de décision en maintenance, mais peu d'outils de modélisation permettent de les intégrer correctement dans le processus de décision. L'originalité des travaux présentés ici réside dans la construction de nouveaux modèles probabilistes quantitatifs dont l'objectif est d'évaluer l'apport de l'information de surveillance en fonction de sa qualité et des grandeurs observées, dans un contexte d'optimisation de la maintenance. Les modèles stochastiques de défaillance et de mesure proposés intègrent à la fois les données capteurs relatives à la dégradation/défaillance du système à maintenir, les informations de surveillance sur l'impact de l'environnement opérationnel, et les caractéristiques des techniques de contrôle. En s'appuyant sur ces modèles, on propose des politiques de maintenance et on développe des modèles de coût associés pour étudier les meilleures méthodes d'exploitation de l'information de surveillance. L'ensemble des études menées montrent l'intérêt de développer des structures de décision de maintenance qui permettent d'intégrer l'information de surveillance et d'en évaluer l'impact sur les performances de la maintenance.
333

Une évaluation financière des politiques publiques en faveur des véhicules électriques en France

Windisch, Elisabeth 25 June 2013 (has links) (PDF)
L'étude s'attache à évaluer le marché potentiel des véhicules électriques auprès des ménages français. L'analyse porte non seulement sur les déterminants financiers de la demande, mais aussi sur les obstacles socio-économiques à l'adoption des véhicules électriques par ces ménages. L'approche désagrégée qui est appliquée à partir de la base de données de l'Enquête Nationale Transports et Déplacements 2007/2008 permet d'identifier les combinaisons d'instruments financiers les plus à même de garantir certains niveaux de pénétration du véhicule électrique dans la prochaine décennie. Les conclusions et observations tirées de l'étude permettent de formuler diverses suggestions à l'attention des constructeurs automobiles et des décideurs publics affichant la volonté de soutenir l'essor du véhicule électrique.
334

Factor models, VARMA processes and parameter instability with applications in macroeconomics

Stevanovic, Dalibor 05 1900 (has links)
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients. / As information technology improves, the availability of economic and finance time series grows in terms of both time and cross-section sizes. However, a large amount of information can lead to the curse of dimensionality problem when standard time series tools are used. Since most of these series are highly correlated, at least within some categories, their co-variability pattern and informational content can be approximated by a smaller number of (constructed) variables. A popular way to address this issue is the factor analysis. This framework has received a lot of attention since late 90's and is known today as the large dimensional approximate factor analysis. Given the availability of data and computational improvements, a number of empirical and theoretical questions arises. What are the effects and transmission of structural shocks in a data-rich environment? Does the information from a large number of economic indicators help in properly identifying the monetary policy shocks with respect to a number of empirical puzzles found using traditional small-scale models? Motivated by the recent financial turmoil, can we identify the financial market shocks and measure their effect on real economy? Can we improve the existing method and incorporate another reduction dimension approach such as the VARMA modeling? Does it help in forecasting macroeconomic aggregates and impulse response analysis? Finally, can we apply the same factor analysis reasoning to the time varying parameters? Is there only a small number of common sources of time instability in the coefficients of empirical macroeconomic models? This thesis concentrates on the structural factor analysis and VARMA modeling and answers these questions through five articles. The first two articles study the effects of monetary policy and credit shocks in a data-rich environment. The third article proposes a new framework that combines the factor analysis and VARMA modeling, while the fourth article applies this method to measure the effects of credit shocks in Canada. The contribution of the final chapter is to impose the factor structure on the time varying parameters in popular macroeconomic models, and show that there are few sources of this time instability. The first article analyzes the monetary transmission mechanism in Canada using a factor-augmented vector autoregression (FAVAR) model. For small open economies like Canada, uncovering the transmission mechanism of monetary policy using VARs has proven to be an especially challenging task. Such studies on Canadian data have often documented the presence of anomalies such as a price, exchange rate, delayed overshooting and uncovered interest rate parity puzzles. We estimate a FAVAR model using large sets of monthly and quarterly macroeconomic time series. We find that the information summarized by the factors is important to properly identify the monetary transmission mechanism and contributes to mitigate the puzzles mentioned above, suggesting that more information does help. Finally, the FAVAR framework allows us to check impulse responses for all series in the informational data set, and thus provides the most comprehensive picture to date of the effect of Canadian monetary policy. As the recent financial crisis and the ensuing global economic have illustrated, the financial sector plays an important role in generating and propagating shocks to the real economy. Financial variables thus contain information that can predict future economic conditions. In this paper we examine the dynamic effects and the propagation of credit shocks using a large data set of U.S. economic and financial indicators in a structural factor model. Identified credit shocks, interpreted as unexpected deteriorations of the credit market conditions, immediately increase credit spreads, decrease rates on Treasury securities and cause large and persistent downturns in the activity of many economic sectors. Such shocks are found to have important effects on real activity measures, aggregate prices, leading indicators and credit spreads. In contrast to other recent papers, our structural shock identification procedure does not require any timing restrictions between the financial and macroeconomic factors, and yields an interpretation of the estimated factors without relying on a constructed measure of credit market conditions from a large set of individual bond prices and financial series. In third article, we study the relationship between VARMA and factor representations of a vector stochastic process, and propose a new class of factor-augmented VARMA (FAVARMA) models. We start by observing that in general multivariate series and associated factors do not both follow a finite order VAR process. Indeed, we show that when the factors are obtained as linear combinations of observable series, their dynamic process is generally a VARMA and not a finite-order VAR as usually assumed in the literature. Second, we show that even if the factors follow a finite-order VAR process, this implies a VARMA representation for the observable series. As result, we propose the FAVARMA framework that combines two parsimonious methods to represent the dynamic interactions between a large number of time series: factor analysis and VARMA modeling. We apply our approach in two pseudo-out-of-sample forecasting exercises using large U.S. and Canadian monthly panels taken from Boivin, Giannoni and Stevanovic (2010, 2009) respectively. The results show that VARMA factors help in predicting several key macroeconomic aggregates relative to standard factor forecasting models. Finally, we estimate the effect of monetary policy using the data and the identification scheme as in Bernanke, Boivin and Eliasz (2005). We find that impulse responses from a parsimonious 6-factor FAVARMA(2,1) model give an accurate and comprehensive picture of the effect and the transmission of monetary policy in U.S.. To get similar responses from a standard FAVAR model, Akaike information criterion estimates the lag order of 14. Hence, only 84 coefficients governing the factors dynamics need to be estimated in the FAVARMA framework, compared to FAVAR model with 510 VAR parameters. In fourth article we are interested in identifying and measuring the effects of credit shocks in Canada in a data-rich environment. In order to incorporate information from a large number of economic and financial indicators, we use the structural factor-augmented VARMA model. In the theoretical framework of the financial accelerator, we approximate the external finance premium by credit spreads. On one hand, we find that an unanticipated increase in US external finance premium generates a significant and persistent economic slowdown in Canada; the Canadian external finance premium rises immediately while interest rates and credit measures decline. From the variance decomposition analysis, we observe that the credit shock has an important effect on several real activity measures, price indicators, leading indicators, and credit spreads. On the other hand, an unexpected increase in Canadian external finance premium shows no significant effect in Canada. Indeed, our results suggest that the effects of credit shocks in Canada are essentially caused by the unexpected changes in foreign credit market conditions. Finally, given the identification procedure, we find that our structural factors do have an economic interpretation. The behavior of economic agents and environment may vary over time (monetary policy strategy shifts, stochastic volatility) implying parameters' instability in reduced-form models. Standard time varying parameter (TVP) models usually assume independent stochastic processes for all TVPs. In the final article, I show that the number of underlying sources of parameters' time variation is likely to be small, and provide empirical evidence on factor structure among TVPs of popular macroeconomic models. To test for the presence of, and estimate low dimension sources of time variation in parameters, I apply the factor time varying parameter (Factor-TVP) model, proposed by Stevanovic (2010), to a standard monetary TVP-VAR model. I find that one factor explains most of the variability in VAR coefficients, while the stochastic volatility parameters vary in the idiosyncratic way. The common factor is highly and positively correlated to the unemployment rate. To incorporate the recent financial crisis, the same exercise is conducted with data updated to 2010Q3. The VAR parameters present an important change after 2007, and the procedure suggests two factors. When applied to a large-dimensional structural factor model, I find that four dynamic factors govern the time instability in almost 700 coefficients.
335

Prévisibilité des épisodes méditerranéens de précipitations intenses : Propagation des incertitudes liées aux paramétrisations de la microphysique des nuages et de la turbulence

Hally, Alan 13 November 2013 (has links) (PDF)
De septembre à novembre, la région méditerranéenne nord-occidentale peut être le siège d'épisodes de fortes précipitations (HPE selon l'acronyme anglais). Le sud-est de la France fait partie des régions particulièrement affectées par ces événements. Au cours des années récentes, la prévision numérique de tels événements s'est considérablement améliorée. Toutefois, en raison des interactions complexes et multi-échelles qui régissent les systèmes nuageux convectifs, les modèles demeurent entachés d'erreur, principalement dans leur représentation des processus physiques. En particulier, les paramétrisations utilisées pour décrire les processus turbulents et nuageux reposent sur d'inévitables hypothèses simplificatrices, qui vont clairement restreindre la précision des prévisions. Afin de prendre en compte les incertitudes associées à ces paramétrisations, nous avons développé des méthodes de perturbations et évalué celles-ci pour la prévision d'ensemble à l'échelle convective. Les perturbations sont appliquées soit aux tendances temporelles des processus microphysiques et turbulents, soit aux paramètres ajustables des paramétrisations microphysiques. L'approche a été testée et évaluée sur deux situations convectives idéalisées avec l'objectif de mettre en évidence les processus menant à la plus grande dispersion dans le champ de précipitation. Suite à ces tests, des prévisions d'ensemble ont été effectuées pour sept situations réelles ayant affecté le sud-est de la France lors des automnes 2010, 2011 et 2012. La plus grande dispersion est obtenue en perturbant simultanément et aléatoirement les tendances temporelles des processus microphysiques et turbulents. Le niveau de dispersion est variable selon la nature de l'événement précipitant. Il est généralement plus élevé pour les situations associées à des flux incidents modérés et des précipitations se produisant en plaine. Pour certaines situations, les perturbations des processus physiques induisent une dispersion comparable à celle générée par des perturbations de conditions initiales et aux limites. Nos résultats suggèrent que, bien que l'impact des perturbations physiques soit modéré, il est suffisamment important pour justifier leur prise en compte dans un système de prévision d'ensemble opérationnel.
336

La rentabilité de la fidélisation du consommateur : 3 essais complémentaires.

Vallaud, Thierry, Vallaud, Thierry 19 June 2013 (has links) (PDF)
Dans cette thèse sur travaux, l'auteur part de deux travaux précédents sur la rentabilité de la fidélisation et la détermination du potentiel client pour faire un constat : une partie de la rentabilité de la fidélisation et du potentiel pour une marque est basée sur la part captable du chiffre d'affaire fait à la concurrence ; le taux de captation.Dans ce nouveau travail il s'agit de montrer que le taux de captation est basé sur l'élasticité du taux de nourriture. A partir d'une analyse de la littérature et de plusieurs modélisations sur des données de panel scannérisées, l'auteur démontre, sur plusieurs marchés, que l'élasticité du taux de nourriture est contrainte et prévisible.C'est donc en tenant compte de cet écart limité qu'une marque peut estimer le taux de captation et donc la rentabilité de la fidélisation ainsi que le potentiel client.
337

Généralisation de l'approche d'ensemble à la prévision hydrologique dans les bassins versants non jaugés

Randrianasolo, Rindra Annie 19 December 2012 (has links) (PDF)
La prévision des crues est un exercice hydrologique complexe : les incertitudes y sont nombreuses, aussi bien dans le processus de modélisation hydrologique, dans la détermination de l'état initial du bassin versant avant le lancement de la prévision, que dans l'évolution des conditions météorologiques futures. Dans le cas des bassins versants non jaugés, où les observations de débits sont lacunaires voire absentes, ces incertitudes sont encore plus importantes, et le besoin de les réduire devient incontournable. Cette thèse s'intéresse à des méthodes simples et robustes qui peuvent apporter de l'information pertinente pour quantifier les incertitudes de prévision dans les bassins versants non jaugés. Le but est d'étudier la meilleure stratégie pour chercher l'information dans les bassins jaugés "donneurs", et pour la transférer vers le site non jaugé. Nous étudions les besoins pour mettre en place un modèle de simulation pluie-débit et pour effectuer une mise à jour du modèle de prévision en temps réel. Ces deux composantes de la prévision sont ainsi découplées dans notre approche. Cette thèse s'appuie sur une large base de données constituée d'environ 1000 bassins versants français, dont un jeu clé de 211 bassins versants qui permet la validation des approches développées. Elle s'appuie également sur une archive d'environ 4,5 années de prévisions d'ensemble de pluies, utilisées en forçage à la modélisation hydrologique journalière. La démarche adoptée consiste à intégrer les scenarios de transfert de l'information régionale disponible et les scenarios de la prévision météorologique d'ensemble dans un système de prévision orienté vers les bassins versants non jaugés. L'approche de prévision d'ensemble est ainsi généralisée à ce cas particulier de la prévision hydrologique. A travers plusieurs scénarios de débits futurs, nous cherchons à quantifier les incertitudes de prévisions dans les sites cibles non jaugés. Pour évaluer les différents scénarios des prévisions hydrologiques émis, un cadre de diagnostic d'évaluation des principales qualités d'un système de prévision d'ensemble, comprenant plusieurs critères numériques et graphiques, a été mis en place. Dans cette thèse, une attention particulière est prêtée aux attributs "fiabilité" et "précision" des prévisions. Nous proposons ainsi un nouveau critère graphique, nommé diagramme de précision d'ensemble. Ce critère permet notamment de mettre en valeur la qualité des prévisions qui ne sont pas forcément fiables, mais qui sont précises. Les résultats obtenus ont mis en évidence que la fiabilité des prévisions peut être améliorée sur un bassin versant non jaugé par l'utilisation de plusieurs jeux de paramètres issus des bassins versants voisins. Si la variabilité apportée par le voisinage géographique influe sur la dispersion des membres, et augmente ainsi la fiabilité des prévisions, la prise en compte des caractéristiques physiques, principalement de la surface des bassins versants, est apparue comme une alternative intéressante, influençant positivement aussi l'attribut précision des prévisions sur le site cible. De plus, il a été montré que la précision des prévisions d'ensemble sur le site non jaugé est améliorée par l'intermédiaire du transfert des bassins versants jaugés vers le site cible des corrections faites lors de la mise à jour sur les bassins voisins (mise à jour caractérisée ici par l'assimilation de la dernière observation de débit dans le modèle hydrologique, avant l'instant de prévision). Les différentes mesures de performance ont montré que la meilleure option pour améliorer la précision des prévisions serait de considérer les corrections effectuées sur le bassin le plus proche à chaque pas de temps de prévision. Le krigeage a également donné des résultats satisfaisants, marqués en plus par l'influence positive sur l'attribut fiabilité des prévisions.
338

Influence de la stratosphère sur la variabilité et la prévisibilité climatique

Ouzeau, Gaëlle 28 November 2012 (has links) (PDF)
Les moyennes et hautes latitudes de l'hémisphère nord sont caractérisées par une forte variabilité climatique en hiver, incluant l'occurrence d'évènements extrêmes tels que les vagues de froid ou les tempêtes, et présentent une faible prévisibilité aux échéances mensuelle à saisonnière dans les systèmes opérationnels. Un nombre croissant d'études montre qu'au delà du couplage océan-atmosphère, le couplage troposphère-stratosphère contribue également à la variabilité climatique à ces échelles de temps. Cette thèse vise à mieux comprendre l'influence de la stratosphère sur la variabilité climatique hivernale à nos latitudes, et à quantifier sa contribution potentielle à la prévisibilité climatique saisonnière en comparaison de la contribution océanique. Dans un premier temps, un état des lieux des connaissances sur le couplage troposphère-stratosphère est dressé et la variabilité inter-annuelle du vortex stratosphérique polaire est revisitée par le biais d'analyses composites sur la base des réanalyses atmosphériques du CEPMMT. Ensuite, les principaux outils de cette thèse sont présentés et validés, à savoir le modèle ARPEGE-Climat et la technique de " nudging " permettant de relaxer (guider) le modèle vers les réanalyses. Comme beaucoup de modèles, les versions 4 et 5 d'ARPEGE-Climat en configuration T63L31 simulent un vortex stratosphérique polaire nettement décalé vers le sud, ce qui peut avoir des conséquences négatives sur la variabilité simulée via la modification des interactions ondes-écoulement moyen. Si la faible résolution verticale dans la stratosphère est souvent mise en avant pour expliquer le manque de prévisibilité dans les modèles, nos travaux sur la version 5 d'ARPEGE-Climat montrent que l'augmentation de la résolution verticale et l'élévation du toit du modèle à 0.1 hPa ne suffisent pas pour obtenir un climat plus réaliste, que ce soit en termes d'état moyen, de variabilité ou de prévisibilité à l'échelle saisonnière. C'est pourquoi, tout au long de cette thèse, la technique de la relaxation de la stratosphère vers les réanalyses issues du CEPMMT a été exploitée afin de montrer, de manière idéalisée, sa forte influence sur la variabilité climatique hivernale aux extra-tropiques de l'hémisphère nord, par rapport au seul forçage par les températures de surface de la mer observées. L'étude des hivers 1976-1977 et 2009-2010 via la réalisation de simulations d'ensemble avec et sans nudging a permis de confirmer la contribution de la stratosphère à la phase négative de la NAO et aux fortes anomalies négatives de température observées sur l'Europe du nord. La généralisation des ensembles à la période 1958-2007 (avec initialisation au 1er Novembre) confirme l'impact positif du nudging extra-tropical mais montre un effet très limité du nudging équatorial qu'il conviendrait d'évaluer de manière plus précise en augmentant la taille des ensembles. Ainsi, si elle confirme l'importance de la stratosphère pour la prévision saisonnière hivernale à nos latitudes, cette thèse ouvre de nombreuses perspectives concernant les mécanismes qui sous tendent le couplage troposphère-stratosphère et l'intérêt d'une prévision statistico-dynamique consistant à relaxer le modèle ARPEGE-Climat vers une stratosphère prévue de manière statistique.
339

Prévisibilité des épisodes météorologiques à fort impact : sensibilité aux anomalies d'altitude

Fresnay, Simon 11 February 2014 (has links) (PDF)
Les épisodes de fortes précipitations, caractéristiques du climat méditerranéen, souffrent parfois d'importantes erreurs de prévision. Ces erreurs proviennent essentiellement d'incertitudes sur les conditions initiales du modèle ou la représentation des processus physiques. L'impact des différentes sources d'incertitudes est classiquement étudié à partir de prévisions d'ensemble. Au cours de ce travail, nous avons développé une méthodologie d'ensemble visant à étudier la sensibilité des prévisions à différentes configurations initiales des anomalies dynamiques d'altitude. Ces anomalies sont des zones à fort gradient, susceptibles de constituer des zones d'erreurs de prévision privilégiées. Elles sont par ailleurs un précurseur connu des perturbations météorologiques. La méthodologie proposée repose sur l'advection de la variable conservative associée aux anomalies d'altitude : le tourbillon potentiel (PV). Le modèle utilisé, MIMOSA, advecte le PV sur un niveau isentrope, sur une grille de haute résolution, permettant de mieux représenter les petites échelles et les zones de gradient tout en contrôlant les grandes échelles grâce à une relaxation vers un PV de contrôle. Le PV MIMOSA a été introduit dans un modèle en équations primitives à l'aide d'un outil d'inversion du PV. Le choix retenu pour l'inversion est un algorithme qui fournit des solutions équilibrées au sens des équations du modèle. Différentes configurations d'advection du PV ont fourni un ensemble de conditions initiales au modèle de prévision ARPEGE. Cet ensemble dénommé ARPEGE-MIMOSA, a été appliqué à 5 cas réels de fortes précipitations : le premier épisode, ou "catastrophe de Draguignan" sur le département du Var le 15 juin 2010, est associé à une prévisibilité particulièrement faible ; les 4 autres cas ont été observés en 2012 durant la campagne HyMeX et ont été utilisés comme un premier échantillon pour évaluer l'apport statistique du système de prévision d'ensemble ARPEGE-MIMOSA. Le cas du 15 juin 2010 a fait l'objet d'une étude détaillée, qui a notamment confronté l'impact de perturbations d'altitude à celui des perturbations de basse-couche. Pour cette situation, nous concluons que les incertitudes des champs d'altitude ont joué un rôle mineur durant la première phase de l'épisode en raison d'une absence de couplage entre les anomalies de surface et d'altitude. Le rôle des incertitudes de surface a été examiné au moyen de plusieurs expériences perturbées: des modifications manuelles de la pression au niveau de la mer et du champ d'humidité se sont avérées toutes deux capables d'améliorer la première phase de l'épisode. Cette amélioration a été attribuée au déclenchement d'un système fortement précipitant le long d'une zone frontale. Pour la seconde phase de l'épisode, nous avons mis en évidence le rôle de l'humidité à travers une simulation qui permet de se rapprocher du scénario observé sans toutefois atteindre le niveau de précipitation observé. Une explication alternative a été alors proposée, mettant en jeu l'insuffisance du modèle à reproduire la progression d'une onde d'altitude dans un contexte fortement diabatique. Enfin, une évaluation objective du système de prévision d'ensemble ARPEGE-MIMOSA a été réalisée à partir des 4 cas HyMeX. Les résultats obtenus avec l'ensemble ARPEGE-MIMOSA ont été comparés aux résultats issus de deux systèmes de prévision d'ensemble opérationnels. Cette comparaison a permis de mieux quantifier l'erreur de prévision attribuable à la seule dynamique d'altitude et de mettre en évidence la valeur ajoutée du système ARPEGE-MIMOSA pour les seuils de fortes précipitations.
340

Amélioration des processus de prévision et de gestion des stocks dans le cas d'une chaîne logistique des pièces de rechange / The improvement of forecasting and inventory management processes in the case of spare parts supply chain

Lazrak, Adnane 02 December 2015 (has links)
Le cadre général des travaux de cette thèse est la chaîne logistique des pièces de rechange et particulièrement l’amélioration de sa performance en prévision et en gestion des stocks à plusieurs niveaux de service. La spécificité d’une demande faible et erratique ne permet pas l’utilisation des approches classiques de prévision. Par ailleurs, les mesures de performance associées reposant sur des indicateurs purement statistiques ne reflètent pas nécessairement les objectifs de gestion d’une chaîne logistique qui cherche à s’aligner avec différents niveaux d’exigence des contrats de maintenance. Après une description des processus et des outils en prévision et en gestion de stocks utilisés dans ce contexte, ces travaux proposent de nouvelles approches de sélection des méthodes de prévisions qui intègrent prévision et gestion de stocks, qui permettent la priorisation en service ou en inventaire et qui utilisent une segmentation par profil de la demande et par niveau de maturité des pièces. Par la suite, ces travaux considèrent le cas de la différenciation client dans le modèle de gestion de stocks basé sur des prévisions, en comparant la performance de la politique à niveau critique avec les politiques classiques à stock commun ou séparé. Chaque processus étudié a été accompagné d’une analyse comparative entre différentes méthodes de prévisions et politiques de gestion de stocks sur des données réelles du cas d’application industrielle de la chaine logistique de GE Healthcare. Ce qui a permis de construire un ensemble de recommandations en fonction de la segmentation de la pièce et des priorités des décideurs. / The main scope of these works is the spare parts supply chain management, particularly the improvement of forecasting and inventory management performance. The specificity of low and erratic demand does not allow the use of conventional approaches of forecasting. Moreover, the associated performance measurements, based on purely statistical indicators, are not adapted to this context. Indeed, it should align with different levels of expectations of the maintenance contracts. After a presentation of the processes and tools used by the dedicated literature. Here we propose new performance analysis approaches seeking to combine the statistical performance of forecasting methods and inventory management performance while considering decision makers priorities and using demand pattern as well as parts age segmentations. These works also address the use of customer differentiation in the inventory model based on forecasting, by comparing the performance of the critical level policy with the common stock and separated stock policies. Each studied process was associated with a comparative analysis of different forecasting methods and inventory management models based on real data of the spare parts supply chain of GE Healthcare, which allowed us to define a set of methods and parameters recommendations according to both part segmentations and supply chain priorities.

Page generated in 0.0932 seconds