• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 178
  • 159
  • 46
  • 12
  • 11
  • 2
  • 1
  • Tagged with
  • 417
  • 161
  • 113
  • 84
  • 70
  • 57
  • 52
  • 46
  • 46
  • 45
  • 37
  • 33
  • 32
  • 32
  • 32
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
361

Beiträge zur Regularisierung inverser Probleme und zur bedingten Stabilität bei partiellen Differentialgleichungen

Shao, Yuanyuan 17 January 2013 (has links) (PDF)
Wir betrachten die lineare inverse Probleme mit gestörter rechter Seite und gestörtem Operator in Hilberträumen, die inkorrekt sind. Um die Auswirkung der Inkorrektheit zu verringen, müssen spezielle Lösungsmethode angewendet werden, hier nutzen wir die sogenannte Tikhonov Regularisierungsmethode. Die Regularisierungsparameter wählen wir aus das verallgemeinerte Defektprinzip. Eine typische numerische Methode zur Lösen der nichtlinearen äquivalenten Defektgleichung ist Newtonverfahren. Wir schreiben einen Algorithmus, die global und monoton konvergent für beliebige Startwerte garantiert. Um die Stabilität zu garantieren, benutzen wir die Glattheit der Lösung, dann erhalten wir eine sogenannte bedingte Stabilität. Wir demonstrieren die sogenannte Interpolationsmethode zur Herleitung von bedingten Stabilitätsabschätzungen bei inversen Problemen für partielle Differentialgleichungen.
362

Beiträge zur Regularisierung inverser Probleme und zur bedingten Stabilität bei partiellen Differentialgleichungen

Shao, Yuanyuan 14 January 2013 (has links)
Wir betrachten die lineare inverse Probleme mit gestörter rechter Seite und gestörtem Operator in Hilberträumen, die inkorrekt sind. Um die Auswirkung der Inkorrektheit zu verringen, müssen spezielle Lösungsmethode angewendet werden, hier nutzen wir die sogenannte Tikhonov Regularisierungsmethode. Die Regularisierungsparameter wählen wir aus das verallgemeinerte Defektprinzip. Eine typische numerische Methode zur Lösen der nichtlinearen äquivalenten Defektgleichung ist Newtonverfahren. Wir schreiben einen Algorithmus, die global und monoton konvergent für beliebige Startwerte garantiert. Um die Stabilität zu garantieren, benutzen wir die Glattheit der Lösung, dann erhalten wir eine sogenannte bedingte Stabilität. Wir demonstrieren die sogenannte Interpolationsmethode zur Herleitung von bedingten Stabilitätsabschätzungen bei inversen Problemen für partielle Differentialgleichungen.
363

Méthodes de rééchantillonnage en méthodologie d'enquête

Mashreghi, Zeinab 10 1900 (has links)
Le sujet principal de cette thèse porte sur l'étude de l'estimation de la variance d'une statistique basée sur des données d'enquête imputées via le bootstrap (ou la méthode de Cyrano). L'application d'une méthode bootstrap conçue pour des données d'enquête complètes (en absence de non-réponse) en présence de valeurs imputées et faire comme si celles-ci étaient de vraies observations peut conduire à une sous-estimation de la variance. Dans ce contexte, Shao et Sitter (1996) ont introduit une procédure bootstrap dans laquelle la variable étudiée et l'indicateur de réponse sont rééchantillonnés ensemble et les non-répondants bootstrap sont imputés de la même manière qu'est traité l'échantillon original. L'estimation bootstrap de la variance obtenue est valide lorsque la fraction de sondage est faible. Dans le chapitre 1, nous commençons par faire une revue des méthodes bootstrap existantes pour les données d'enquête (complètes et imputées) et les présentons dans un cadre unifié pour la première fois dans la littérature. Dans le chapitre 2, nous introduisons une nouvelle procédure bootstrap pour estimer la variance sous l'approche du modèle de non-réponse lorsque le mécanisme de non-réponse uniforme est présumé. En utilisant seulement les informations sur le taux de réponse, contrairement à Shao et Sitter (1996) qui nécessite l'indicateur de réponse individuelle, l'indicateur de réponse bootstrap est généré pour chaque échantillon bootstrap menant à un estimateur bootstrap de la variance valide même pour les fractions de sondage non-négligeables. Dans le chapitre 3, nous étudions les approches bootstrap par pseudo-population et nous considérons une classe plus générale de mécanismes de non-réponse. Nous développons deux procédures bootstrap par pseudo-population pour estimer la variance d'un estimateur imputé par rapport à l'approche du modèle de non-réponse et à celle du modèle d'imputation. Ces procédures sont également valides même pour des fractions de sondage non-négligeables. / The aim of this thesis is to study the bootstrap variance estimators of a statistic based on imputed survey data. Applying a bootstrap method designed for complete survey data (full response) in the presence of imputed values and treating them as true observations may lead to underestimation of the variance. In this context, Shao and Sitter (1996) introduced a bootstrap procedure in which the variable under study and the response status are bootstrapped together and bootstrap non-respondents are imputed using the imputation method applied on the original sample. The resulting bootstrap variance estimator is valid when the sampling fraction is small. In Chapter 1, we begin by doing a survey of the existing bootstrap methods for (complete and imputed) survey data and, for the first time in the literature, present them in a unified framework. In Chapter 2, we introduce a new bootstrap procedure to estimate the variance under the non-response model approach when the uniform non-response mechanism is assumed. Using only information about the response rate, unlike Shao and Sitter (1996) which requires the individual response status, the bootstrap response status is generated for each selected bootstrap sample leading to a valid bootstrap variance estimator even for non-negligible sampling fractions. In Chapter 3, we investigate pseudo-population bootstrap approaches and we consider a more general class of non-response mechanisms. We develop two pseudo-population bootstrap procedures to estimate the variance of an imputed estimator with respect to the non-response model and the imputation model approaches. These procedures are also valid even for non-negligible sampling fractions.
364

Evaluation des sources d'espèces et des déterminants de la diversité végétale des parcelles agricoles : interchamps, stock semencier, pratiques agricoles et paysage de l'Installation Expérimentale Inra ASTER Mirecourt / Assessment of species sources and determinants of plant diversity established in agricultural fields : field boundaries, seed bank, farming practices and landscape of the experimental farm of Inra ASTER Mirecourt

Gaujour, Etienne 11 May 2010 (has links)
L'un des moyens pour faire face à la réduction de l'utilisation d'intrants de synthèse est de favoriser durablement les services agro-écologiques de la diversité végétale. Pour cela, l'agriculteur devra adapter ses modes de gestion. Ma thèse s'inscrit dans l'objectif finalisé d'apporter à l'agriculteur, de l'aide à la gestion de cette diversité végétale sur le territoire de son exploitation. Je me suis fixé 2 objectifs de recherche : i) vérifier si les interchamps et le stock semencier constituent des sources d'espèces pour le centre des parcelles agricoles et ii) quantifier l'influence de la dynamique de deux grands groupes de facteurs, représentée sous la forme de trajectoires de parcelles, sur la diversité végétale : les pratiques agricoles et les caractéristiques de la mosaïque paysagère.J'ai mené ce travail sur l'ensemble du parcellaire de l'Installation Expérimentale de l'Inra ASTER Mirecourt, dont les systèmes de production (polyculture-élevage bovin laitier) sont convertis à l'agriculture biologique depuis 2004. J'ai caractérisé la végétation - en place dans les interchamps et au centre des parcelles, et dans le stock semencier - des parcelles en prairies permanentes et en champs cultivés selon deux approches complémentaires : taxonomique au rang de l'espèce et fonctionnelle à partir de sept propriétés rendant compte de la dissémination, de l'établissement et de la survie des espèces végétales. J'ai caractérisé les trajectoires des parcelles, sur une durée de neuf ans, soit à partir des pratiques agricoles mises en œuvre chaque année, soit à partir des caractéristiques annuelles de la mosaïque paysagère. Cette mosaïque correspond aux différentes occupations du sol obtenues à partir de relevés de terrain ou d'enquêtes auprès des exploitants.Je montre que le stock semencier et les interchamps ne constituent pas des sources potentielles d'espèces végétales pour le centre des parcelles, champs cultivés ou prairies permanentes. En revanche, ce sont des refuges importants pour une grande partie des espèces prairiales. Au vu de mes résultats, je fais l'hypothèse que les interchamps sont des puits d'espèces adventices en champs cultivés. J'ai également mis en évidence que le gradient fonctionnel de la végétation prairiale entre la bordure et le centre s'étend jusqu'à 2 m seulement.Enfin, la diversité végétale des parcelles étudiées est principalement influencée par la trajectoire des parcelles selon les caractéristiques de la mosaïque paysagère et par les pratiques agricoles mises en œuvre durant l'année en cours. Les caractéristiques du sol ont un rôle très minoritaire. Ces trois groupes de facteurs expliquent à eux seuls plus des trois quarts de la variabilité de la composition fonctionnelle de la végétation.La gestion de la diversité végétale des parcelles agricoles d'une exploitation peut donc être menée en partie par l'agriculteur. Cependant, compte-tenu des effets de la trajectoire des parcelles selon les caractéristiques paysagères, il est nécessaire de mettre aussi en place une gestion collective de la végétation entre les différents acteurs partageant le territoire / One of the means to offset the decrease of pesticide use is to favour agro-ecological services of plant diversity. In this aim, farmer will have to adapt its farming management. My work partly answers to the following applied objective: to bring to the farmer some advices for the management of plant diversity on the farm territory. I have two scientific objectives: i) to verify if field boundaries and soil seed bank are potential sources of plant species for field centres; ii) to quantify the relative influence of dynamics of two factor groups, characterized as field paths, on plant diversity: farming practices and characteristics of landscape mosaïc.I have carried out this study on the experimental farm of INRA ASTER Mirecourt. Its farming systems (mixed crop-dairy systems) have been converted to organic farming since 2004. I have characterized vegetation - established vegetation in field boundaries and in field centres, and vegetation in the soil seed bank - of permanent grasslands and arable fields with complementary approaches: taxonomical approach based on the species, and functional approach based on seven functional properties about dispersal, establishment and persistence of plant species. I have characterized field paths, along nine years, either from farming practices set up on field, either from annual characteristics of landscape mosaïc. I have represented this landscape mosaïc as a mosaïc of distinct land-uses. All of them and their spatialization have been determined from farmer surveys or landscape observations.My results show that soil seed bank and field bboundaries are not potential sources of plant species for field centres, in both permanent grasslands and arable fields. On the other hand, they are efficient refuges for a large part of grassland species. According to my results, I hypothesize that field boudaries are species sinks in arable fields. I also highlight that functional gradient of grassland vegetation in the field edge, between field margins and field centres, is spread until 2 m only.Finally, plant diversity in studied fields is mainly influenced by field path according landscape mosaïc and by farming practices set up the same year of vegetation sampling. Soil characteristics have a minor influence. These three groups of influent factors explain more than 75 % of the functional composition variability of the vegetation in field centres.The management of plant diversity in agricultural fields of a given farm can be partly reach by the farmer. However, according to the effects of field paths about landscape mosaïc, it is necessary to set up a collective management of plant diversity with all actors sharing the studied territory
365

Exogeneity, weak identification and instrument selection in econometrics

Doko Tchatoka, Sabro Firmin 02 1900 (has links)
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles. / The last decade shows growing interest for the so-called weak instruments problems in the econometric literature, i.e. situations where instruments are poorly correlated with endogenous explanatory variables. More generally, these can be viewed as situations where model parameters are not identified or nearly so (see Dufour and Hsiao, 2008). It is well known that when instruments are weak, the limiting distributions of standard test statistics - like Student, Wald, likelihood ratio and Lagrange multiplier criteria in structural models - have non-standard distributions and often depend heavily on nuisance parameters. Several empirical studies including the estimation of returns to education [Angrist and Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour and Taamouti (2007)] and asset pricing model (C-CAPM) [Hansen and Singleton (1982, 1983), Stock and Wright (2000)], have showed that the above procedures are unreliable in presence of weak identification. As a result, identification-robust tests [Anderson and Rubin (1949), Moreira (2003), Kleibergen (2002), Dufour and Taamouti (2007)] are often used to make reliable inference. However, little is known about the quality of these procedures when the instruments are invalid or both weak and invalid. This raises the following question: what happens to inference procedures when some instruments are endogenous or both weak and endogenous? In particular, what happens if an invalid instrument is added to a set of valid instruments? How robust are these inference procedures to instrument endogeneity? Do alternative inference procedures behave differently? If instrument endogeneity makes statistical inference unreliable, can we propose the procedures for selecting "good instruments" (i.e. strong and valid instruments)? Can we propose instrument selection procedure which will be valid even in presence of weak identification? This thesis focuses on structural models and answers these questions through four chapiters. The first chapter is published in Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. In this chapter, we analyze the effects of instrument endogeneity on two identificationrobust procedures: Anderson and Rubin (1949, AR) and Kleibergen (2002, K) test statistics, with or without weak instruments. First, when the level of instrument endogeneity is fixed (does not depend on the sample size), we show that all these procedures are in general consistent against the presence of invalid instruments (hence asymptotically invalid for the hypothesis of interest), whether the instruments are "strong" or "weak". We also describe situations where this consistency may not hold, but the asymptotic distribution is modified in a way that would lead to size distortions in large samples. These include, in particular, cases where 2SLS estimator remains consistent, but the tests are asymptotically invalid. Second, when the instruments are locally exogenous (the level of instrument endogeneity approaches zero as the sample size increases), we find asymptotic noncentral chi-square distributions with or without weak instruments, and describe situations where the non-centrality parameter is zero and the asymptotic distribution remains the same as in the case of valid instruments (despite the presence of invalid instruments). The second chapter analyzes the effects of weak identification on Durbin-Wu-Hausman (DWH) specification tests an Revankar-Harttley exogeneity test. We propose a finite-and large-sample analysis of the distribution of DWH tests under the null hypothesis (level) and the alternative hypothesis (power), including when identification is deficient or weak (weak instruments). Our finite-sample analysis provides several new insights and extensions of earlier procedures. The characterization of the finite-sample distribution of the test-statistics allows the construction of exact identificationrobust exogeneity tests even with non-Gaussian errors (Monte Carlos tests) and shows that such tests are typically robust to weak instruments (level is controlled). Furthermore, we provide a characterization of the power of the tests, which clearly exhibits factors which determine power. We show that DWH-tests have no power when all instruments are weak [similar to Guggenberger(2008)]. However, power does exist as soon as we have one strong instruments. The conclusions of Guggenberger (2008) focus on the case where all instruments are weak (a case of little practical interest). Our asymptotic distributional theory under weaker assumptions confirms the finite-sample theory. Moreover, we present simulation evidence indicating: (1) over a wide range cases, including weak IV and moderate endogeneity, OLS performs better than 2SLS [finding similar to Kiviet and Niemczyk (2007)]; (2) pretest-estimators based on exogeneity tests have an excellent overall performance compared with usual IV estimator. We illustrate our theoretical results through simulation experiment and two empirical applications: the relation between trade and economic growth and the widely studied problem of returns to education. In the third chapter, we extend the generalized Wald partial exogeneity test [Dufour (1987)] to non-gaussian errors. Testing whether a subset of explanatory variables is exogenous is an important challenge in econometrics. This problem occurs in many applied works. For example, in the well know wage model, one should like to assess if mother’s education is exogenous without imposing additional assumptions on ability and schooling. In the growth model, the exogeneity of the constructed instrument on the basis of geographical characteristics for the trade share is often questioned and needs to be tested without constraining trade share and the other variables. Standard exogeneity tests of the type proposed by Durbin-Wu-Hausman and Revankar-Hartley cannot solve such problems. A potential cure for dealing with partial exogeneity is the use of the generalized linear Wald (GW) method (Dufour, 1987). The GW-procedure however assumes the normality of model errors and it is not clear how robust is this test to non-gaussian errors. We develop in this chapter, a modified version of earlier procedure which is valid even when model errors are not normally distributed. We present simulation evidence indicating that when identification is strong, the standard GW-test is size distorted in presence of non-gaussian errors. Furthermore, our analysis of the performance of different pretest-estimators based on GW-tests allow us to propose two new pretest-estimators of the structural parameter. The Monte Carlo simulations indicate that these pretest-estimators have a better performance over a wide range cases compared with 2SLS. Therefore, this can be viewed as a procedure for selecting variable where a GW-test is used in the first stage to decide which variables should be instruments and which ones are valid instruments. We illustrate our theoretical results through two empirical applications: the well known wage equation and the returns to scale in electricity supply. The results show that the GW-tests cannot reject the exogeneity of mother’s education, i.e. mother’s education may constitute a valid IV for schooling. However, the output in cost equation is endogenous and the price of fuel is a valid IV for estimating the returns to scale. The fourth chapter develops identification-robust inference for the covariances between errors and regressors of an IV regression. The results are then applied to develop partial exogeneity tests and partial IV pretest-estimators which are more efficient than usual IV estimator. When more than one stochastic explanatory variables are involved in the model, it is often necessary to determine which ones are independent of the disturbances. This problem arises in many empirical applications. For example, in the New Keynesian Phillips Curve, one should like to assess whether the interest rate is exogenous without imposing additional assumptions on inflation rate and the other variables. Standard Wu-Durbin-Hausman (DWH) tests which are commonly used in applied work are inappropriate to deal with such a problem. The generalized Wald (GW) procedure (Dufour, 1987) which typically allows the construction of confidence sets as well as testing linear restrictions on covariances assumes that the available instruments are strong. When the instruments are weak, the GW-test is in general size distorted. As a result, its application in models where instruments are possibly weak–returns to education, trade and economic growth, life cycle labor supply, New Keynesian Phillips Curve, pregnancy and the demand for cigarettes–may be misleading. To answer this problem, we develop a finite-and large-sample valid procedure for building confidence sets for covariances allowing for the presence of weak instruments. We provide analytic forms of the confidence sets and characterize necessary and sufficient conditions under which they are bounded. Moreover, we propose two new pretest-estimators of structural parameters based on our above procedure. Both estimators combine 2SLS and partial IV-estimators. The Monte Carlo experiment shows that: (1) partial IV-estimators outperform 2SLS when the instruments are weak; (2) pretestestimators have an excellent overall performance–bias and MSE– compared with 2SLS. Therefore, this can be viewed as a variable selection method where the projection-based techniques is used to decide which variables should be instrumented and which ones are valid instruments. We illustrate our results through two empirical applications: the relation between trade and economic growth and the widely studied problem of returns to education. The results show unbounded confidence sets, suggesting that the IV are relatively poor in these models, as questioned in the literature [Bound (1995)].
366

Inférence doublement robuste en présence de données imputées dans les enquêtes

Picard, Frédéric 02 1900 (has links)
L'imputation est souvent utilisée dans les enquêtes pour traiter la non-réponse partielle. Il est bien connu que traiter les valeurs imputées comme des valeurs observées entraîne une sous-estimation importante de la variance des estimateurs ponctuels. Pour remédier à ce problème, plusieurs méthodes d'estimation de la variance ont été proposées dans la littérature, dont des méthodes adaptées de rééchantillonnage telles que le Bootstrap et le Jackknife. Nous définissons le concept de double-robustesse pour l'estimation ponctuelle et de variance sous l'approche par modèle de non-réponse et l'approche par modèle d'imputation. Nous mettons l'emphase sur l'estimation de la variance à l'aide du Jackknife qui est souvent utilisé dans la pratique. Nous étudions les propriétés de différents estimateurs de la variance à l'aide du Jackknife pour l'imputation par la régression déterministe ainsi qu'aléatoire. Nous nous penchons d'abord sur le cas de l'échantillon aléatoire simple. Les cas de l'échantillonnage stratifié et à probabilités inégales seront aussi étudiés. Une étude de simulation compare plusieurs méthodes d'estimation de variance à l'aide du Jackknife en terme de biais et de stabilité relative quand la fraction de sondage n'est pas négligeable. Finalement, nous établissons la normalité asymptotique des estimateurs imputés pour l'imputation par régression déterministe et aléatoire. / Imputation is often used in surveys to treat item nonresponse. It is well known that treating the imputed values as observed values may lead to substantial underestimation of the variance of the point estimators. To overcome the problem, a number of variance estimation methods have been proposed in the literature, including appropriate versions of resampling methods such as the jackknife and the bootstrap. We define the concept of doubly robust point and variance estimation under the so-called nonresponse and imputation model approaches. We focus on jackknife variance estimation, which is widely used in practice. We study the properties of several jackknife variance estimators under both deterministic and random regression imputation. We first consider the case of simple random sampling without replacement. The case of stratified simple random sampling and unequal probability sampling is also considered. A limited simulation study compares various jackknife variance estimators in terms of bias and relative stability when the sampling fraction is not negligible. Finally, the asymptotic normality of imputed estimator is established under both deterministic and random regression imputation.
367

On the quasi-optimal convergence of adaptive nonconforming finite element methods in three examples

Rabus, Hella 23 May 2014 (has links)
Eine Vielzahl von Anwendungen in der numerischen Simulation der Strömungsdynamik und der Festkörpermechanik begründen die Entwicklung von zuverlässigen und effizienten Algorithmen für nicht-standard Methoden der Finite-Elemente-Methode (FEM). Um Freiheitsgrade zu sparen, wird in jedem Durchlauf des adaptiven Algorithmus lediglich ein Teil der Gebiete verfeinert. Einige Gebiete bleiben daher möglicherweise verhältnismäßig grob. Die Analyse der Konvergenz und vor allem die der Optimalität benötigt daher über die a priori Fehleranalyse hinausgehende Argumente. Etablierte adaptive Algorithmen beruhen auf collective marking, d.h. die zu verfeinernden Gebiete werden auf Basis eines Gesamtfehlerschätzers markiert. Bei adaptiven Algorithmen mit separate marking wird der Gesamtfehlerschätzer in einen Volumenterm und in einen Fehlerschätzerterm aufgespalten. Da der Volumenterm unabhängig von der diskreten Lösung ist, kann einer schlechten Datenapproximation durch eine lokal tiefe Verfeinerung begegnet werden. Bei hinreichender Datenapproximation wird das Gitter dagegen bezüglich des neuen Fehlerschätzerterms wie üblich level-orientiert verfeinert. Die numerischen Experimente dieser Arbeit liefern deutliche Indizien der quasi-optimalen Konvergenz für den in dieser Arbeit untersuchten adaptiven Algorithmus, der auf separate marking beruht. Der Parameter, der die Verbesserung der Datenapproximation sicherstellt, ist frei wählbar. Dadurch ist es erstmals möglich, eine ausreichende und gleichzeitig optimale Approximation der Daten innerhalb weniger Durchläufe zu erzwingen. Diese Arbeit ermöglicht es, Standardargumente auch für die Konvergenzanalyse von Algorithmen mit separate marking zu verwenden. Dadurch gelingt es Quasi-Optimalität des vorgestellten Algorithmus gemäß einer generellen Vorgehensweise für die drei Beispiele, dem Poisson Modellproblem, dem reinen Verschiebungsproblem der linearen Elastizität und dem Stokes Problem, zu zeigen. / Various applications in computational fluid dynamics and solid mechanics motivate the development of reliable and efficient adaptive algorithms for nonstandard finite element methods (FEMs). To reduce the number of degrees of freedom, in adaptive algorithms only a selection of finite element domains is marked for refinement on each level. Since some element domains may stay relatively coarse, even the analysis of convergence and more importantly the analysis of optimality require new arguments beyond an a priori error analysis. In adaptive algorithms, based on collective marking, a (total) error estimator is used as refinement indicator. For separate marking strategies, the (total) error estimator is split into a volume term and an error estimator term, which estimates the error. Since the volume term is independent of the discrete solution, if there is a poor data approximation the improvement may be realised by a possibly high degree of local mesh refinement. Otherwise, a standard level-oriented mesh refinement based on an error estimator term is performed. This observation results in a natural adaptive algorithm based on separate marking, which is analysed in this thesis. The results of the numerical experiments displayed in this thesis provide strong evidence for the quasi-optimality of the presented adaptive algorithm based on separate marking and for all three model problems. Furthermore its flexibility (in particular the free steering parameter for data approximation) allows a sufficient and optimal data approximation in just a few number of levels of the adaptive scheme. This thesis adapts standard arguments for optimal convergence to adaptive algorithms based on separate marking with a possibly high degree of local mesh refinement, and proves quasi-optimality following a general methodology for three model problems, i.e., the Poisson model problem, the pure displacement problem in linear elasticity and the Stokes equations.
368

Theory and applications of decoupling fields for forward-backward stochastic differential equations

Fromm, Alexander 05 January 2015 (has links)
Diese Arbeit beschäftigt sich mit der Theorie der sogenannten stochastischen Vorwärts-Rückwärts-Differentialgleichungen (FBSDE), welche als ein stochastisches Anologon und in gewisser Weise als eine Verallgemeinerung von parabolischen quasi-linearen partiellen Differentialgleichungen betrachtet werden können. Die Dissertation besteht aus zwei Teilen: In dem ersten entwicklen wir die Theorie der sogenannten Entkopplungsfelder für allgemeine mehrdimensionale stark gekoppelte FBSDE. Diese Theorie besteht aus Existenz- sowie Eindeutigkeitsresultaten basierend auf dem Konzept des maximalen Intervalls. Es beinhaltet darüberhinaus Werkzeuge um Regularität von konkreten Problemen zu untersuchen. Insgesamt wird die Theorie für drei Klassen von Problemen entwickelt: In dem ersten Fall werden Lipschitz-Bedingungen an die Parameter des Problems vorausgesetzt, welche zugleich vom Zufall abhängen dürfen. Die Untersuchung der beiden anderen Klassen basiert auf dem ersten. In diesen werden die Parameter als deterministisch vorausgesetzt. Gleichwohl wird die Lipschitz-Stetigkeit durch zwei verschiedene Formen der lokalen Lipschitz-Stetigkeit abgeschwächt. In dem zweiten Teil werden diese abstrakten Resultate auf drei konkrete Probleme angewendet: In der ersten Anwendung wird gezeigt wie globale Lösbarkeit von FBSDE in dem sogenannten nicht-degenerierten Fall untersucht werden kann. In der zweiten Anwendung wird die Lösbarkeit eines gekoppelten Systems gezeigt, welches eine Lösung zu dem Skorokhod''schen Einbettungproblem liefert. Die Lösung wird für den Fall einer allgemeinen nicht-linearen Drift konstruiert. Die dritte Anwendung führt auf Lösbarkeit eines komplexen gekoppelten Vorwärt-Rückwärts-Systems, aus welchem optimale Strategien für das Problem der Nutzenmaximierung in unvollständingen Märkten konstruiert werden. Das System wird in einem verhältnismäßig allgmeinen Rahmen gelöst, d.h. für eine verhältnismäßig allgemeine Klasse von Nutzenfunktion auf den reellen Zahlen. / This thesis deals with the theory of so called forward-backward stochastic differential equations (FBSDE) which can be seen as a stochastic formulation and in some sense generalization of parabolic quasi-linear partial differential equations. The thesis consist of two parts: In the first we develop the theory of so called decoupling fields for general multidimensional fully coupled FBSDE in a Brownian setting. The theory consists of uniqueness and existence results for decoupling fields on the so called the maximal interval. It also provides tools to investigate well-posedness and regularity for particular problems. In total the theory is developed for three different classes of FBSDE: In the first Lipschitz continuity of the parameter functions is required, which at the same time are allowed to be random. The other two classes we investigate are based on the theory developed for the first one. In both of them all parameter functions have to be deterministic. However, two different types of local Lipschitz continuity replace the more restrictive Lipschitz continuity of the first class. In the second part we apply these techniques to three different problems: In the first application we demonstrate how well-posedness of FBSDE in the so called non-degenerate case can be investigated. As a second application we demonstrate the solvability of a system, which provides a solution to the so called Skorokhod embedding problem (SEP) via FBSDE. The solution to the SEP is provided for the case of general non-linear drift. The third application provides solutions to a complex FBSDE from which optimal trading strategies for a problem of utility maximization in incomplete markets are constructed. The FBSDE is solved in a relatively general setting, i.e. for a relatively general class of utility functions on the real line.
369

Aspects of guaranteed error control in computations for partial differential equations

Merdon, Christian 17 September 2013 (has links)
Diese Arbeit behandelt garantierte Fehlerkontrolle für elliptische partielle Differentialgleichungen anhand des Poisson-Modellproblems, des Stokes-Problems und des Hindernisproblems. Hierzu werden garantierte obere Schranken für den Energiefehler zwischen exakter Lösung und diskreten Finite-Elemente-Approximationen erster Ordnung entwickelt. Ein verallgemeinerter Ansatz drückt den Energiefehler durch Dualnormen eines oder mehrerer Residuen aus. Hinzu kommen berechenbare Zusatzterme, wie Oszillationen der gegebenen Daten, mit expliziten Konstanten. Für die Abschätzung der Dualnormen der Residuen existieren viele verschiedene Techniken. Diese Arbeit beschäftigt sich vorrangig mit Equilibrierungsschätzern, basierend auf Raviart-Thomas-Elementen, welche effiziente garantierte obere Schranken ermöglichen. Diese Schätzer werden mit einem Postprocessing-Verfahren kombiniert, das deren Effizienz mit geringem zusätzlichen Rechenaufwand deutlich verbessert. Nichtkonforme Finite-Elemente-Methoden erzeugen zusätzlich ein Inkonsistenzresiduum, dessen Dualnorm mit Hilfe diverser konformer Approximationen abgeschätzt wird. Ein Nebenaspekt der Arbeit betrifft den expliziten residuen-basierten Fehlerschätzer, der für gewöhnlich optimale und leicht zu berechnende Verfeinerungsindikatoren für das adaptive Netzdesign liefert, aber nur schlechte garantierte obere Schranken. Eine neue Variante, die auf den equilibrierten Flüssen des Luce-Wohlmuth-Fehlerschätzers basiert, führt zu stark verbesserten Zuverlässigkeitskonstanten. Eine Vielzahl numerischer Experimente vergleicht alle implementierten Fehlerschätzer und zeigt, dass effiziente und garantierte Fehlerkontrolle in allen vorliegenden Modellproblemen möglich ist. Insbesondere zeigt ein Modellproblem, wie die Fehlerschätzer erweitert werden können, um auch auf Gebieten mit gekrümmten Rändern garantierte obere Schranken zu liefern. / This thesis studies guaranteed error control for elliptic partial differential equations on the basis of the Poisson model problem, the Stokes equations and the obstacle problem. The error control derives guaranteed upper bounds for the energy error between the exact solution and different finite element discretisations, namely conforming and nonconforming first-order approximations. The unified approach expresses the energy error by dual norms of one or more residuals plus computable extra terms, such as oscillations of the given data, with explicit constants. There exist various techniques for the estimation of the dual norms of such residuals. This thesis focuses on equilibration error estimators based on Raviart-Thomas finite elements, which permit efficient guaranteed upper bounds. The proposed postprocessing in this thesis considerably increases their efficiency at almost no additional computational costs. Nonconforming finite element methods also give rise to a nonconsistency residual that permits alternative treatment by conforming interpolations. A side aspect concerns the explicit residual-based error estimator that usually yields cheap and optimal refinement indicators for adaptive mesh refinement but not very sharp guaranteed upper bounds. A novel variant of the residual-based error estimator, based on the Luce-Wohlmuth equilibration design, leads to highly improved reliability constants. A large number of numerical experiments compares all implemented error estimators and provides evidence that efficient and guaranteed error control in the energy norm is indeed possible in all model problems under consideration. Particularly, one model problem demonstrates how to extend the error estimators for guaranteed error control on domains with curved boundary.
370

Perturbation analysis and numerical discretisation of hyperbolic partial differential algebraic equations describing flow networks

Huck, Christoph 05 December 2018 (has links)
Diese Arbeit beschäftigt sich mit verschiedenen mathematischen Fragestellungen hinsichtlich der Modellierung, Analysis und numerischen Simulation von Gasnetzen. Hierbei liegt der Fokus auf der mathematischen Handhabung von partiellen differential-algebraischen Gleichungen, die mit algebraischen Gleichungen gekoppelt sind. Diese bieten einen einfachen Zugang hinsichtlich der Modellierung von dynamischen Strukturen auf Netzen Somit sind sie insbesondere für Gasnetze geeignet, denen im Zuge der steigenden Bedeutung von erneuerbaren Energien ein gestiegenes Interesse seitens der Öffentlichkeit, Politik und Wissenschaft entgegen gebracht wird. Wir führen zunächst die gängigsten Elemente, die in Gasnetzen benötigt werden ein und formulieren zwei PDAE-Klassen für solche Netze: Eine für reine Rohrnetze, und eine, die zusätzliche Elemente wie Verdichter und Widerstände beinhaltet. Des Weiteren untersuchen wir die Sensitivität der Lösung der Rohrnetz-PDAE hinsichtlich Störungen. Dabei berücksichtigen wir Störungen, die nicht nur den dynamischen Teil der PDAE beeinflussen, sondern auch Störungen in den algebraischen Gleichungen und weisen Stabilitätseigenschaften für die Lösung der PDAE nach. Darüber hinaus beschäftigen wir uns mit einer neu entwickelten, an die Netztopologie angepassten Ortsdiskretisierung, welche die Stabilitätseigenschaften der PDAE auf DAE Systeme überträgt. Des Weiteren zeigen wir, wie sich die Gasnetz-DAE zu einer gewöhnlichen Differentialgleichung, welche die inhärente Dynamik der DAE widerspiegelt entkoppeln lässt. Dieses entkoppelte System kann darüber hinaus direkt aus den Topologie- und Elementinformationen des Netzes aufgestellt werden. Abschließend demonstrieren wir die Ergebnisse an Benchmark-Gasnetzen. Dabei vergleichen wir sowohl die entkoppelte Differentialgleichung mit dem ursprünglichen DAE System, zeigen aber auch, welche Vorteile die an die Netztopologie angepasste Ortsdiskretisierung gegenüber existierenden Verfahren besitzt. / This thesis addresses several aspects regarding modelling, analysis and numerical simulation of gas networks. Hereby, our focus lies on (partial) differential-algebraic equations, thus systems of partial and ordinary differential equations which are coupled by algebraic equations. These coupled systems allow an easy approach towards the modelling of dynamic structures on networks. Therefore, they are well suited for gas networks, which have gained a rise of attention in society, politics and science due to the focus towards renewable energies. We give an introduction towards gas network modelling that includes the most common elements that also appear in real gas networks and present two PDAE systems: One for pipe networks and one that includes additional elements like resistors and compressors. Furthermore, we investigate the impact of perturbations onto the pipe network PDAE, where we explicitly allow perturbations to affect the system in the differential as well as in the algebraic components. We conclude that the solution of the PDAE possesses stability properties. In addition, this thesis introduces a new spatial discretisation that is adapted to the net- work topology. This topology-adapted semi-discretisation results in a DAE which possesses the same perturbation behaviour as the space continuous PDAE. Furthermore, we present a topology based decoupling procedure that allows to reformulate the DAE as an ordinary differential equation (ODE), which represents the inherent dynamics of the DAE system. This ODE, together with a decoupled set of algebraic equations, can be derived from the topology and element information directly. We conclude by demonstrating the established results for several benchmark networks. This includes a comparison of numerical solutions for the decoupled ODE and the DAE system. In addition we present the advantages of the topology-adapted spatial discretisation over existing well established methods.

Page generated in 0.0595 seconds