Spelling suggestions: "subject:"conditionnement""
71 |
Méthodes de Bootstrap pour les modèles à facteursDjogbenou, Antoine A. 07 1900 (has links)
Cette thèse développe des méthodes bootstrap pour les modèles à facteurs qui sont couram-
ment utilisés pour générer des prévisions depuis l'article pionnier de Stock et Watson (2002)
sur les indices de diffusion. Ces modèles tolèrent l'inclusion d'un grand nombre de variables
macroéconomiques et financières comme prédicteurs, une caractéristique utile pour inclure di-
verses informations disponibles aux agents économiques. Ma thèse propose donc des outils éco-
nométriques qui améliorent l'inférence dans les modèles à facteurs utilisant des facteurs latents
extraits d'un large panel de prédicteurs observés. Il est subdivisé en trois chapitres complémen-
taires dont les deux premiers en collaboration avec Sílvia Gonçalves et Benoit Perron.
Dans le premier article, nous étudions comment les méthodes bootstrap peuvent être utilisées
pour faire de l'inférence dans les modèles de prévision pour un horizon de h périodes dans le
futur. Pour ce faire, il examine l'inférence bootstrap dans un contexte de régression augmentée
de facteurs où les erreurs pourraient être autocorrélées. Il généralise les résultats de Gonçalves
et Perron (2014) et propose puis justifie deux approches basées sur les résidus : le block wild
bootstrap et le dependent wild bootstrap. Nos simulations montrent une amélioration des taux
de couverture des intervalles de confiance des coefficients estimés en utilisant ces approches
comparativement à la théorie asymptotique et au wild bootstrap en présence de corrélation
sérielle dans les erreurs de régression.
Le deuxième chapitre propose des méthodes bootstrap pour la construction des intervalles
de prévision permettant de relâcher l'hypothèse de normalité des innovations. Nous y propo-
sons des intervalles de prédiction bootstrap pour une observation h périodes dans le futur et sa
moyenne conditionnelle. Nous supposons que ces prévisions sont faites en utilisant un ensemble
de facteurs extraits d'un large panel de variables. Parce que nous traitons ces facteurs comme
latents, nos prévisions dépendent à la fois des facteurs estimés et les coefficients de régres-
sion estimés. Sous des conditions de régularité, Bai et Ng (2006) ont proposé la construction
d'intervalles asymptotiques sous l'hypothèse de Gaussianité des innovations. Le bootstrap nous
permet de relâcher cette hypothèse et de construire des intervalles de prédiction valides sous des
hypothèses plus générales. En outre, même en supposant la Gaussianité, le bootstrap conduit à
des intervalles plus précis dans les cas où la dimension transversale est relativement faible car il
prend en considération le biais de l'estimateur des moindres carrés ordinaires comme le montre
une étude récente de Gonçalves et Perron (2014).
Dans le troisième chapitre, nous suggérons des procédures de sélection convergentes pour
les regressions augmentées de facteurs en échantillons finis. Nous démontrons premièrement
que la méthode de validation croisée usuelle est non-convergente mais que sa généralisation,
la validation croisée «leave-d-out» sélectionne le plus petit ensemble de facteurs estimés pour
l'espace généré par les vraies facteurs. Le deuxième critère dont nous montrons également la
validité généralise l'approximation bootstrap de Shao (1996) pour les regressions augmentées de facteurs. Les simulations montrent une amélioration de la probabilité de sélectionner par-
cimonieusement les facteurs estimés comparativement aux méthodes de sélection disponibles.
L'application empirique revisite la relation entre les facteurs macroéconomiques et financiers, et
l'excès de rendement sur le marché boursier américain. Parmi les facteurs estimés à partir d'un
large panel de données macroéconomiques et financières des États Unis, les facteurs fortement
correlés aux écarts de taux d'intérêt et les facteurs de Fama-French ont un bon pouvoir prédictif
pour les excès de rendement. / This thesis develops bootstrap methods for factor models which are now widely used for generating forecasts since the seminal paper of Stock and Watson (2002) on diffusion indices. These models allow the inclusion of a large set of macroeconomic and financial variables as predictors, useful to span various information related to economic agents. My thesis develops econometric tools that improves inference in factor-augmented regression models driven by few unobservable factors estimated from a large panel of observed predictors. It is subdivided into three complementary chapters. The two first chapters are joint papers with Sílvia Gonçalves and Benoit Perron.
In the first chapter, we study how bootstrap methods can be used to make inference in h-step forecasting models which generally involve serially correlated errors. It thus considers bootstrap inference in a factor-augmented regression context where the errors could potentially be serially correlated. This generalizes results in Gonçalves and Perron (2013) and makes the bootstrap applicable to forecasting contexts where the forecast horizon is greater than one. We propose and justify two residual-based approaches, a block wild bootstrap (BWB) and a dependent wild bootstrap (DWB). Our simulations document improvement in coverage rates of confidence intervals for the coefficients when using BWB or DWB relative to both asymptotic theory and the wild bootstrap when serial correlation is present in the regression errors.
The second chapter provides bootstrap methods for prediction intervals which allow relaxing the normality distribution assumption on innovations. We propose bootstrap prediction intervals for an observation h periods into the future and its conditional mean. We assume that these forecasts are made using a set of factors extracted from a large panel of variables. Because we treat these factors as latent, our forecasts depend both on estimated factors and
estimated regression coefficients. Under regularity conditions, Bai and Ng (2006) proposed the construction of asymptotic intervals under Gaussianity of the innovations. The bootstrap allows us to relax this assumption and to construct valid prediction intervals under more general conditions. Moreover, even under Gaussianity, the bootstrap leads to more accurate intervals in cases where the cross-sectional dimension is relatively small as it reduces the bias of the ordinary least squares estimator as shown in a recent paper by Gonçalves and Perron (2014).
The third chapter proposes two consistent model selection procedures for factor-augmented regressions in finite samples.We first demonstrate that the usual cross-validation is inconsistent, but that a generalization, leave-d-out cross-validation, selects the smallest basis of estimated factors for the space spanned by the true factors. The second proposed criterion is a generalization of the bootstrap approximation of the squared error of prediction of Shao (1996) to
factor-augmented regressions which we also show is consistent. Simulation evidence documents improvements in the probability of selecting the smallest set of estimated factors than the usually available methods. An illustrative empirical application that analyzes the relationship between expected stock returns and macroeconomic and financial factors extracted from a large panel of U.S. macroeconomic and financial data is conducted. Our new procedures select factors
that correlate heavily with interest rate spreads and with the Fama-French factors. These factors have strong predictive power for excess returns.
|
72 |
Une étude sur le processus de changement menant au désistement criminel d’un détenu purgeant une peine à perpétuité dans la collectivitéMc Kay, Krystina 04 1900 (has links)
La présente étude explore la trajectoire de vie d’un détenu condamné à une peine à perpétuité qui bénéficie d’une libération conditionnelle totale afin d’identifier laquelle ou lesquelles des cinq grandes conceptualisations théoriques du désistement criminel permettent le mieux d’expliquer sa trajectoire de désistement. Pour atteindre cet objectif, une méthodologie qualitative de type exploratoire a été privilégiée. Un homme purgeant une peine à perpétuité dans la collectivité a été rencontré en contexte d’entretiens afin de restituer en profondeur son histoire de vie et cerner, à la lumière des théories recensées, les concepts applicables à son désistement criminel. Une série de neuf entretiens d’environ une heure et demie a été réalisée. Le récit de vie de monsieur P est présenté et analysé pour illustrer l’applicabilité des principales conceptualisations théoriques du désistement criminel qui ont été recensées dans le présent mémoire. L’analyse des données recueillies a permis de faire ressortir l’importance de considérer le concept identitaire dans le processus de désistement et le changement psychologique qui l’accompagne. La discussion aborde quelques pistes d’interventions susceptibles de soutenir le travail des membres du personnel qui œuvrent auprès des délinquants qui purgent de longues peines. Celles-ci prennent en compte les défis posés par la clientèle particulière des détenus à perpétuité et cherchent à maximiser leur réintégration sociale lors de leur mise en liberté. / This research explores the life trajectory of an offender serving a life sentence in the community after having been granted a full parole. The goal of this research is to identify which of the five main theoretical concepts, explaining the cessation of criminal behavior, best indicates what led him to cease his criminal behavior. To reach this objective, an exploratory qualitative research was preferred. A man serving a life sentence in the community was interviewed on numerous occasions. These interviews were aimed at getting the utmost account of his life story and then, by integrating the appropriate theories in the research process, selecting the concepts that best explained the cessation of his criminal behavior. A series of nine interviews, each one lasting approximately an hour and a half, were conducted. For the purpose of this memoir, the life story of Mr. P is presented and analyzed so has to illustrate the application of the main theoretical concepts linked to the cessation of criminal behavior. By analyzing the data collected, the importance of considering the identity concept in the cessation of criminal behavior was noted just as the psychological change that comes with it. The discussion also addresses certain intervention strategies that are likely to offer an improved support for people working with offenders serving long sentences. These interventions take into account the challenges that arise when working with this type of clientele and they aim at maximizing the social reinsertion potential of these individuals upon release.
|
73 |
L'aléa dans le contrat d'assurance / Hazard in the insurance contractDemont, Bruno 22 October 2012 (has links)
L’aléa, véritable « cœur » du contrat d’assurance, ne finit pas de susciter les interrogations lorsqu’il s’agit de préciser plus techniquement son rôle, tout comme sa raison d’être. En première ligne se situe naturellement le débat relatif à la qualification des formes contemporaines d’assurance vie : ce dernier, haut lieu de controverse doctrinale depuis des années, ne s’est toujours pas apaisé malgré l’impressionnant nombre d’études consacrées au sujet. En parallèle, le thème de l’aléa dans les contrats fait également l’objet d’un vif regain d’intérêt, s’invitant dans les colloques et les ouvrages les plus récents. Plus que jamais, les notions de contrat d’assurance et de contrat aléatoire se retrouvent donc au cœur de la polémique. Et cette dernière peut aller bon train, tant le débat reste enfermé dans cette idée courante qu’un contrat est un acte nécessairement créateur d’obligations. Ainsi, l’on s’attache bien souvent à mettre en évidence le déséquilibre des obligations des parties (caractéristique des contrats aléatoires) avant de s’interroger sur son existence dans le contrat d’assurance. Mais cette approche obligationnelle de la structure contractuelle est-elle véritablement pertinente ? Ne devrait-on pas, au contraire, concevoir plus largement les effets de l’acte juridique, et consacrer juridiquement une idée somme toute assez commune dans le langage courant des praticiens : celle d’un transfert de risque ? A l’approche obligationnelle classique, exclusivement focalisée sur l’analyse des prestations des parties (paiement de la prime par le souscripteur ; règlement du sinistre voire couverture du risque par l’assureur), se substituerait ainsi une approche réelle, davantage axée sur le transfert de risque opéré entre les parties. Cette approche réelle, à bien des égards séduisante par rapport à l’approche obligationnelle, permettrait ainsi de porter – entre autres – un regard différent sur la problématique inhérente aux formes contemporaines d’assurance vie. / Hazard is well known for being at the heart of the insurance contract. Nonetheless, it does not stop raising questions about its precise role and raison d’être. Firstly, the debate deals with the qualification of contemporary forms of life insurance; Mecca of doctrinal controversy for years, it still remains topical in spite of the impressive number of studies. Meanwhile, contingency is of intense interest in civil contract law, as well as subject to recent seminars and latest books. More than ever, the notions of insurance contract and of aleatory contract appear as being the “core” issues of a controversy which keeps going well, because the debate may be limited by the idea that a contract is necessarily an act that creates obligations. Thus, the imbalance between the parties’ obligations - characteristic of aleatory contracts – is often highlighted before questioning its existence in the insurance contract. However, it may be wondered as whether to know if such an “obligational” approach of the contract is truly relevant. On the contrary, shouldn’t we consider the effects of the contract through a wider point of view, in order to admit – legally – a quite common idea in everyday language: the transfer of risk? Unlike the obligational approach which is solely focused on the performances of both parties (premium paid by the taker; compensation paid out of the claim or even risk covered by the insurer), that “real” approach would be more focused on the risk that is transferred between the contracting parties. Such a real approach, which seems to be highly more attractive than the obligational one, would offer - among others - a different perspective within the debate that is inherent to the contemporary forms of life insurance.
|
74 |
Effets cellulaires et moléculaires de l’invalidation conditionnelle du gène MTR au niveau du foie et du cerveau de souris / Cellular and molecular effects of conditional MTR gene knockdown in liver and mouse brainLu, Peng 14 December 2016 (has links)
L’enzyme méthionine synthase (MTR) catalyse la reméthylation de l’homocystéine en méthionine, le précurseur du donneur universel de groupe méthyle S-Adenosylmethionine (SAM), impliqué dans des mécanismes de régulations épigénétiques. Des polymorphismes de MTR sont associés à des défauts métaboliques et des défauts de développement embryonnaire. Afin d’étudier les conséquences d’une déficience en MTR, nous avons généré des modèles murins d’invalidation conditionnelle du gène MTR de manière constitutive ou inductible dans le foie et dans le cerveau. L’invalidation constitutive ou inductible ciblée dans le foie pendant l’embryogenèse n’est pas viable, suggérant un rôle limitant de la méthionine synthase sur le développement précoce et l’organogenèse en lien probable avec les conséquences sur la prolifération cellulaire. Dans les périodes post-natales, nous avons utilisé le modèle inductible complété par une hépatectomie pour étudier les altérations de la régénération hépatique liée aux effets sur le stress cellulaire ainsi que l’expression et l’activation des cyclines. Le KO dans le cerveau induit principalement une perte des fonctions de mémorisation de l’apprentissage hippocampo-dépendant. Au total, nos résultats illustrent les effets différents de l’invalidation de MTR en fonction de l’organe considéré. Le foie est un organe très plastique avec une capacité de régénération très importante. Les effets sur les étapes de l’organogénèse et sur l’inhibition de la régénération confirment l’hypothèse du rôle majeur et limitant de la méthionine synthase dans la régulation du cycle cellulaire. Le modèle d’invalidation au niveau du cerveau confirme le rôle très important de la voie de reméthylation de l’homocystéine catalysée par la méthionine synthase, rôle qui a déjà été illustré par d’autres travaux sur les rats carencés en donneur de méthyle et sur la souris transgénique KO cd320 / The enzyme methionine synthase (MTR) catalyzes the remethylation of homocysteine to methionine, the precursor of the methyl donor S-universal Adenosylmethionine (SAM), involved in epigenetic regulation mechanisms. We generated mouse models with conditional invalidation of the mtr gene in a constitutive or inducible manner to delete the gene expression specifically in the liver and brain. Constitutive invalidation during embryonic life is not sustainable when targeted to the liver, suggesting a limiting role of methionine synthase in early organogenesis and probably on cell proliferation. We performed hepatectomy to study regeneration-related effects on the cellular stress and found dramatic effects on cell proliferation through altered expression and activation of cyclins. The constitutive model in brain highlighted the behavioral anomalies related to a loss of learning and memory. This suggested major effects in the hippocampus. Overall, our findings highlighted the specific effects of the invalidation of methionine synthase in both organs. The liver is a plastic member with a very high regenerative capacity. The effects on organogenesis and inhibition of regeneration confirm the hypothesis for a major role of methionine synthase in cell cycle regulation. The invalidation model in the brain confirms the important role of the remethylation pathway catalysed by methionine synthase, a role which has been shown by other studies in rats deprived in methyl donors and in cd320 KO transgenic mice
|
75 |
Définitions par réécriture dans le lambda-calcul : confluence, réductibilité et typage / Definitions by rewriting in the lambda-calculus : confluence, reducibility and typingRiba, Colin 14 December 2007 (has links)
Cette thèse concerne la combinaison du lambda-calcul et de la réécriture, dont nous étudions principalement deux propriétés : la confluence et la normalisation forte. Nous commençons par étudier sous quelles conditions la combinaison d'une relation de réécriture conditionnelle confluente au lambda-calcul donne une relation de réécriture confluente. Ensuite nous nous intéressons aux preuves de normalisation forte de lambda-calculs typés utilisant la technique de réductibilité. Notre contribution la plus importante est une comparaison de diverses variantes de cette technique, utilisant comme outil de comparaison la manière dont ces variantes s'étendent à la réécriture et dont elles prennent en compte les types unions et les types existentiels implicites. Enfin, nous présentons un critère, basé sur un système de types contraints, pour la normalisation forte de la réécriture conditionnelle combinée au lambda-calcul. Notre approche étend des critères de terminaison existants qui utilisent des annotations de taille. C'est à notre connaissance le premier critère de terminaison pour la réécriture conditionnelle avec membres droits d'ordre supérieur qui prenne en compte, dans l'argument de terminaison, de l'information issue de la satisfaction des conditions des règles de réécriture / This thesis is about the combination of lambda-calculus with rewriting. We mainly study two properties: confluence and strong normalization. We begin by studying under which conditions the combination of a confluent conditional rewrite relation to the lambda-calculus leads to a confluent relation. Next, we study strong normalization proofs of typed lambda-calculi that use the reducibility technique. Our main contribution is a comparison of variants of this technique, with respect to how they extend to rewriting and how they handle union and implicit existential types. Finally, we present a termination criterion for the combination of conditional rewriting and lambda-calculus based on a constrained type system. Our approach, which extends known criteria that use sized types, is to our knowledge the first termination criterion for conditional rewriting with higher-order right-hand sides that takes into account in the termination argument some information generated by the satisfaction of the conditions of the rewrite rules
|
76 |
Optimisation de la politique de remanufacturing des pièces de rechange dans le cadre d'une maintenance intégrée à une chaîne logistique en boucle fermée / Spare parts remanufacturing policy optimization in the context of an integrated maintenance and closed loop supply chainBoudhar, Hamza 28 January 2015 (has links)
Motivés par l'évolution des réglementations en matière d'écologie mais aussi par des contraintes purement économiques, plusieurs secteurs industriels se sont retrouvés dans l'obligation de développer de nouvelles méthodes et modèles pour la gestion des produits en fin de vie. Dans ce contexte, la remanufacturation vise à gérer la récupération de la valeur d’un produit avant sa fin de vie. Elle permet de prolonger le cycle de vie du produit et d’économiser une partie des besoins industriels en matière première. Ces produits remanufacturés seront remis dans le marché et destinés à une autre catégorie de clients, différente de celle des produits neufs. Dans d'autres cas, les produits remanufacturés sont réutilisés sous la forme de pièces de rechange dans les actions de maintenance, mais cette réutilisation peut varier selon la stratégie de maintenance adoptée. Dans ce contexte, cette thèse s'intéresse à l’intégration d'un flux d’approvisionnement hybride en pièces de rechange dans un modèle de maintenance basé sur la dégradation stochastique d’un système de production. Deux types de flux d’approvisionnement en pièces de rechange sont étudiés : un flux direct et un flux inverse. Le flux direct est représenté par l'utilisation de pièces de rechange neuves et le flux inverse est représenté par la réutilisation des pièces récupérées lors des remplacements ultérieurs, avec la possibilité de réaliser une action de remanufacturation pour améliorer l'état de dégradation de ces pièces de rechange. Plusieurs problématiques ont été traitées pour permettre de comprendre l'impact et l'influence d'une politique de remanufacturation sur les performances d'un système de production. En effet, dans un premier temps, nous nous sommes intéressés à des systèmes de production composés d'une seule machine. Dans ce cadre, nous avons proposé des études séquentielles puis intégrées pour optimiser la politique de maintenance et celle de l'approvisionnement hybrides en pièces de rechange destinées aux actions de remplacements. Nous avons étudié également la gestion de production soumise à une contrainte de qualité basée sur l'évolution de la dégradation de la machine. Ensuite, et dans un second temps, nous avons présenté des généralisations des modèles étudiés dans le cadre de systèmes de production composés de plusieurs machines. Enfin, nous avons développé un outil d'aide à la décision pour conception de systèmes de production dans le cadre d'une politique de remanufacturation. Cette problématique - du niveau stratégique - vise à sélectionner le meilleur ensemble de machines pour construire un nouveau système de production capable de satisfaire les contraintes de production définies par décideur / Motivated by the change of regulations in the matter of sustainability, but also by pure economic constraints, several industries have found themselves obligated to develop new methods and models for the management of products that are at the end of their life cycle. In this context, the remanufacturing aims at managing the recovery of the product’s value before its end of life. This type of action will extend the product life cycle and save the use of the raw material. These remanufactured products will be re-injected in a market that serves another class of customers, different from the one using new products. In other cases, the remanufactured products are reused as spare parts for the maintenance, but this reuse may vary according to the maintenance strategy adopted. This thesis focuses on the integration of a hybrid flow supply of spare parts in a service model based on stochastic degradation of a production system. Two types of spare parts supply flows are studied: a direct flow and reverse flow. The direct flow is represented by the use of new spare parts and the reverse flow is represented by the reuse of the recovered parts during the replacements, with the ability to perform remanufacturing action to improve the degradation level of these spare parts. Several issues were treated to better understand the impact of remanufacturing policies over the performance of a production system. At the beginning we started our study with production systems composed of a single machine. In this context, we proposed sequential studies then integrated one to optimize the maintenance policy as well as the Hybrid provisioning in regard to spare parts destined to replacement actions. Similarly, we’ve studied the production management subjected to quality constraint based on the machine’s degradation process. Furthermore, we’ve presented generalizations of studied models within the context of a production system composed of several machines. Finally, we’ve developed an aid-to-decision-design tool for production systems within the remanufacturing process. This problematic aims at –from a strategic point- selecting the best group of machines to build a new system of production that is able to satisfy the constraints of a production defined by the decision maker
|
77 |
Estimation and misspecification Risks in VaR estimation / Estimation and misspecification risks in VaR evaluationTelmoudi, Fedya 19 December 2014 (has links)
Dans cette thèse, nous étudions l'estimation de la valeur à risque conditionnelle (VaR) en tenant compte du risque d'estimation et du risque de modèle. Tout d'abord, nous considérons une méthode en deux étapes pour estimer la VaR. La première étape évalue le paramètre de volatilité en utilisant un estimateur quasi maximum de vraisemblance généralisé (gQMLE) fondé sur une densité instrumentale h. La seconde étape estime un quantile des innovations à partir du quantile empirique des résidus obtenus dans la première étape. Nous donnons des conditions sous lesquelles l'estimateur en deux étapes de la VaR est convergent et asymptotiquement normal. Nous comparons également les efficacités des estimateurs obtenus pour divers choix de la densité instrumentale h. Lorsque l'innovation n'est pas de densité h, la première étape donne généralement un estimateur biaisé de paramètre de volatilité et la seconde étape donne aussi un estimateur biaisé du quantile des innovations. Cependant, nous montrons que les deux erreurs se contrebalancent pour donner une estimation consistante de la VaR. Nous nous concentrons ensuite sur l'estimation de la VaR dans le cadre de modèles GARCH en utilisant le gQMLE fondé sur la classe des densités instrumentales double gamma généralisées qui contient la distribution gaussienne. Notre objectif est de comparer la performance du QMLE gaussien par rapport à celle du gQMLE. Le choix de l'estimateur optimal dépend essentiellement du paramètre d qui minimise la variance asymptotique. Nous testons si le paramètre d qui minimise la variance asymptotique est égal à 2. Lorsque le test est appliqué sur des séries réelles de rendements financiers, l'hypothèse stipulant l'optimalité du QMLE gaussien est généralement rejetée. Finalement, nous considérons les méthodes non-paramétriques d'apprentissage automatique pour estimer la VaR. Ces méthodes visent à s'affranchir du risque de modèle car elles ne reposent pas sur une forme spécifique de la volatilité. Nous utilisons la technique des machines à vecteurs de support pour la régression (SVR) basée sur la fonction de perte moindres carrés (en anglais LS). Pour améliorer la solution du modèle LS-SVR nous utilisons les modèles LS-SVR pondérés et LS-SVR de taille fixe. Des illustrations numériques mettent en évidence l'apport des modèles proposés pour estimer la VaR en tenant compte des risques de spécification et d'estimation. / In this thesis, we study the problem of conditional Value at Risk (VaR) estimation taking into account estimation risk and model risk. First, we considered a two-step method for VaR estimation. The first step estimates the volatility parameter using a generalized quasi maximum likelihood estimator (gQMLE) based on an instrumental density h. The second step estimates a quantile of innovations from the empirical quantile of residuals obtained in the first step. We give conditions under which the two-step estimator of the VaR is consistent and asymptotically normal. We also compare the efficiencies of the estimators for various instrumental densities h. When the distribution of is not the density h the first step usually gives a biased estimator of the volatility parameter and the second step gives a biased estimator of the quantile of the innovations. However, we show that both errors counterbalance each other to give a consistent estimate of the VaR. We then focus on the VaR estimation within the framework of GARCH models using the gQMLE based on a class of instrumental densities called double generalized gamma which contains the Gaussian distribution. Our goal is to compare the performance of the Gaussian QMLE against the gQMLE. The choice of the optimal estimator depends on the value of d that minimizes the asymptotic variance. We test if this parameter is equal 2. When the test is applied to real series of financial returns, the hypothesis stating the optimality of Gaussian QMLE is generally rejected. Finally, we consider non-parametric machine learning models for VaR estimation. These methods are designed to eliminate model risk because they are not based on a specific form of volatility. We use the support vector machine model for regression (SVR) based on the least square loss function (LS). In order to improve the solution of LS-SVR model, we used the weighted LS-SVR and the fixed size LS-SVR models. Numerical illustrations highlight the contribution of the proposed models for VaR estimation taking into account the risk of specification and estimation.
|
78 |
Revisiting stormwater quality conceptual models in a large urban catchment : Online measurements, uncertainties in data and models / Révision des modèles conceptuels de qualité des eaux pluviales sur un grand bassin versant urbain : Mesures en continue, incertitudes sur les données et les modèlesSandoval Arenas, Santiago 05 December 2017 (has links)
Les modèles de Rejets Urbains par Temps de Pluie (MRUTP) de Matières en Suspension (MES) dans les systèmes d’assainissement urbains sont essentiels pour des raisons scientifiques, environnementales, opérationnelles et réglementaires. Néanmoins, les MRUTP ont été largement mis en question, surtout pour reproduire des données mesurées en continu à l’exutoire des grands bassins versants. Dans cette thèse, trois limitations potentielles des MRUTP traditionnels ont été étudiées dans un bassin versant de 185 ha (Chassieu, France), avec des mesures en ligne de 365 événements pluvieux : a) incertitudes des données dû aux conditions sur le terrain, b) incertitudes dans les modèles hydrologiques et mesures de pluie et c) incertitudes dans les structures traditionnelles des MRUTP. Ces aspects sont approfondis dans six apports séparés, dont leurs résultats principaux peuvent être synthétisés comme suites : a) Acquisition et validation des données : (i) quatre stratégies d’échantillonnage pendant des événements pluvieux sont simulées et évaluées à partir de mesures en ligne de MES et débit. Les intervalles d’échantillonnage recommandés sont de 5 min, avec des erreurs moyennes entre 7 % et 20 % et des incertitudes sur ces erreurs d’environ 5 %, selon l’intervalle d’échantillonnage; (ii) la probabilité de sous-estimation de la concentration moyenne dans la section transversale du réseau est estimée à partir de deux méthodologies. Une méthodologie montre des sous-estimations de MES plus réelles (vers 39 %) par apport à l'autre (vers 269 %). b) Modèles hydrologiques et mesures de pluie : (iii) une stratégie d’estimation de paramètres d’un modèle conceptuel pluie-débit est proposée, en analysant la variabilité des paramètres optimaux obtenus à partir d’un calage Bayésien évènement-par-évènement; (iv) une méthode pour calculer les précipitations moyennes sur un bassin versant est proposée, sur la base du même modèle hydrologique et les données de débit. c) MRUTP (pollutographes) : (v) la performance de modélisation à partir du modèle traditionnel courbe d’étalonnage (RC) a été supérieur aux différents modèles linéaires de fonctions de transfert (TF), surtout en termes de parcimonie et précision des simulations. Aucune relation entre les potentielles erreurs de mesure de la pluie et les conditions hydrologiques définies en (iii) et (iv) avec les performances de RC et TFs n’a pu être établie. Des tests statistiques renforcent que l’occurrence des évènements non-représentables par RC ou TF au cours de temps suit une distribution aléatoire (indépendante de la période sèche précédente); (vi) une méthode de reconstruction Bayésienne de variables d’état virtuelles indique que des processus potentiellement manquants dans une description RC sont ininterprétables en termes d’un unique état virtuel de masse disponible dans le bassin versant qui diminue avec le temps, comme nombre de modèles traditionnels l’ont supposé. / Total Suspended Solids (TSS) stormwater models in urban drainage systems are often required for scientific, legal, environmental and operational reasons. However, these TSS stormwater traditional model structures have been widely questioned, especially when reproducing data from online measurements at the outlet of large urban catchments. In this thesis, three potential limitations of traditional TSS stormwater models are analyzed in a 185 ha urban catchment (Chassieu, Lyon, France), by means 365 rainfall events monitored online: a) uncertainties in TSS data due to field conditions; b) uncertainties in hydrological models and rainfall measurements and c) uncertainties in the stormwater quality model structures. These aspects are investigated in six separate contributions, whose principal results can be summarized as follows: a) TSS data acquisition and validation: (i) four sampling strategies during rainfall events are simulated and evaluated by online TSS and flow rate measurements. Recommended sampling time intervals are of 5 min, with average sampling errors between 7 % and 20 % and uncertainties in sampling errors of about 5 %, depending on the sampling interval; (ii) the probability of underestimating the cross section mean TSS concentration is estimated by two methodologies. One method shows more realistic TSS underestimations (about 39 %) than the other (about 269 %). b) Hydrological models and rainfall measurements: (iii) a parameter estimation strategy is proposed for conceptual rainfall-runoff model by analyzing the variability of the optimal parameters obtained by single-event Bayesian calibrations, based on clusters and graphs representations. The new strategy shows more performant results in terms of accuracy and precision in validation; (iv) a methodology aimed to calculate “mean” areal rainfall estimation is proposed, based on the same hydrological model and flow rate data. Rainfall estimations by multiplying factors over constant-length time window and rainfall zero records filled with a reverse model show the most satisfactory results compared to further rainfall estimation models. c) Stormwater TSS pollutograph modelling: (v) the modelling performance of the traditional Rating Curve (RC) model is superior to different linear Transfer Function models (TFs), especially in terms of parsimony and precision of the simulations. No relation between the rainfall corrections or hydrological conditions defined in (iii) and (iv) with performances of RC and TFs could be established. Statistical tests strengthen that the occurrence of events not representable by the RC model in time is independent of antecedent dry weather conditions; (vi) a Bayesian reconstruction method of virtual state variables indicate that potential missing processes in the RC description are hardly interpretable as a unique state of virtual available mass over the catchment decreasing over time, as assumed by a great number of traditional models.
|
79 |
Contributions à la statistique des processus et à l'estimation fonctionnelleRachdi, Mustapha 07 November 2006 (has links) (PDF)
Dans cette HDR, notre objectif premier est de présenter nos travaux sur la statistique non paramétrique des processus stochastiques et sur l'estimation fonctionnelle. Plutôt que de vouloir insister sur les détails mathématiques de nos résultats, que l'on pourra toujours retrouver dans les articles correspondants, nous avons choisi de les présenter d'une façon synthétique. Sans prétendre à l'exhaustivité, nous nous sommes attachés à indiquer les articles historiques et à faire un choix de certains articles nous paraîssant les plus intéressants. Les techniques non paramétriques ont pris une importance de plus en plus grande depuis une trentaine d'années dans la recherche en statistique mathématique. Le nombre toujours croissant d'articles sur ce thème en témoigne. Il faut également signaler que le développement des moyens informatiques et la puissance actuelle de calcul des ordinateurs permettent d'élargir toujours plus le champs d'application de ces méthodes. Ce document est organisé en respectant des thématiques. En fait, nous avons classifié l'ensemble de nos travaux en six chapitres. Dans chacun de ces chapitres, nous indiquons les travaux concernés avant un bref historique, ensuite nous résumons les principaux résultats, les idées sous-jacentes, et ce qui a motivé ce travail. Nous scindons nos recherches en deux grandes parties : d'abord, l'estimation fonctionnelle et la statistique des processus en dimension finie (chapitres 1, 2, 3 et 4), et puis, l'analyse statistique des données fonctionnelles (chapitre 5). Le dernier chapitre de ce mémoire est le fruit de nos investigations avec l'équipe de Telecom Lille 1 sur la modélisation statistique du canal de transmission à 60 GHz dans les milieux confinés.
|
80 |
ATOMES ET CAVITÉ : PRÉPARATION ET MANIPULATION D'ÉTATS INTRIQUÉS COMPLEXESRauschenbeutel, Arno 02 May 2001 (has links) (PDF)
Nous présentons ici la réalisation d'une dynamique quantique conditionnelle et la préparation d'un état intriqué à trois systèmes quantiques dans une expérience d'électrodynamique quantique en cavité. Nous couplons des atomes, préparés dans un état de Rydberg circulaire, au mode d'une cavité de très haute surtension, préparé dans l'état vide. A résonance, un échange réversible et cohérent d'un quantum d'excitation entre l'atome et le champ a lieu : l'oscillation de Rabi quantique. En fixant le temps d'interaction à un cycle complet d'absorption et d'émission, nous obtenons une dynamique conditionnelle : la phase quantique de l'état atome--champ change si le mode contient un photon et si l'état atomique est couplé au mode. En revanche, si le mode ne contient pas de photon ou si l'état atomique n'est pas<br />couplé, la phase reste inchangée. Nous démontrons ce changement de phase et nous faisons varier sa valeur en désaccordant la fréquence du mode par rapport à la transition atomique. De plus, nous vérifions que la dynamique préserve la cohérence des sous-systèmes, menant ainsi à un état intriqué si les deux sont initialement préparés dans des superpositions d'états. Nous interprétons le processus en termes d'une porte logique quantique et nous analysons ses limitations. Dans une deuxième expérience, nous préparons et analysons un état intriqué entre deux atomes et le champ en effectuant des opérations successives et réversibles. Le premier atome est intriqué avec le champ en interagissant avec ce dernier pendant un quart d'oscillation de Rabi. Le deuxième atome effectue ensuite, comme dans la première expérience, une oscillation de Rabi complète. Etant préparé dans une superposition de l'état couplé et de l'état non-couplé, il s'intrique également avec le champ, et donc avec le premier atome. Des mesures dans deux bases orthogonales sont effectuées sur l'état intriqué à trois systèmes résultant. Une analyse des signaux expérimentaux est présentée, confirmant que l'état préparé n'est effectivement pas séparable. Nous discutons des perspectives ouvertes par ces expériences pour le traitement<br />quantique de l'information.
|
Page generated in 0.1103 seconds