• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 442
  • 79
  • 76
  • 38
  • 28
  • 22
  • 9
  • 8
  • 5
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • Tagged with
  • 866
  • 98
  • 81
  • 79
  • 70
  • 60
  • 60
  • 57
  • 54
  • 47
  • 47
  • 47
  • 42
  • 41
  • 40
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
781

Weak nonergodicity in anomalous diffusion processes

Albers, Tony 02 December 2016 (has links) (PDF)
Anomale Diffusion ist ein weitverbreiteter Transportmechanismus, welcher für gewöhnlich mit ensemble-basierten Methoden experimentell untersucht wird. Motiviert durch den Fortschritt in der Einzelteilchenverfolgung, wo typischerweise Zeitmittelwerte bestimmt werden, entsteht die Frage nach der Ergodizität. Stimmen ensemble-gemittelte Größen und zeitgemittelte Größen überein, und wenn nicht, wie unterscheiden sie sich? In dieser Arbeit studieren wir verschiedene stochastische Modelle für anomale Diffusion bezüglich ihres ergodischen oder nicht-ergodischen Verhaltens hinsichtlich der mittleren quadratischen Verschiebung. Wir beginnen unsere Untersuchung mit integrierter Brownscher Bewegung, welche von großer Bedeutung für alle Systeme mit Impulsdiffusion ist. Für diesen Prozess stellen wir die ensemble-gemittelte quadratische Verschiebung und die zeitgemittelte quadratische Verschiebung gegenüber und charakterisieren insbesondere die Zufälligkeit letzterer. Im zweiten Teil bilden wir integrierte Brownsche Bewegung auf andere Modelle ab, um einen tieferen Einblick in den Ursprung des nicht-ergodischen Verhaltens zu bekommen. Dabei werden wir auf einen verallgemeinerten Lévy-Lauf geführt. Dieser offenbart interessante Phänomene, welche in der Literatur noch nicht beobachtet worden sind. Schließlich führen wir eine neue Größe für die Analyse anomaler Diffusionsprozesse ein, die Verteilung der verallgemeinerten Diffusivitäten, welche über die mittlere quadratische Verschiebung hinausgeht, und analysieren mit dieser ein oft verwendetes Modell der anomalen Diffusion, den subdiffusiven zeitkontinuierlichen Zufallslauf. / Anomalous diffusion is a widespread transport mechanism, which is usually experimentally investigated by ensemble-based methods. Motivated by the progress in single-particle tracking, where time averages are typically determined, the question of ergodicity arises. Do ensemble-averaged quantities and time-averaged quantities coincide, and if not, in what way do they differ? In this thesis, we study different stochastic models for anomalous diffusion with respect to their ergodic or nonergodic behavior concerning the mean-squared displacement. We start our study with integrated Brownian motion, which is of high importance for all systems showing momentum diffusion. For this process, we contrast the ensemble-averaged squared displacement with the time-averaged squared displacement and, in particular, characterize the randomness of the latter. In the second part, we map integrated Brownian motion to other models in order to get a deeper insight into the origin of the nonergodic behavior. In doing so, we are led to a generalized Lévy walk. The latter reveals interesting phenomena, which have never been observed in the literature before. Finally, we introduce a new tool for analyzing anomalous diffusion processes, the distribution of generalized diffusivities, which goes beyond the mean-squared displacement, and we analyze with this tool an often used model of anomalous diffusion, the subdiffusive continuous time random walk.
782

Découverte et application de nouveaux motifs d'association propres à l'hexaphénylbenzène et à ses dérivés

Gagnon, Eric 11 1900 (has links)
Les propriétés des matériaux moléculaires proviennent à la fois de la structure des composantes individuelles et de la façon dont elles s’associent. Ce dernier aspect reste difficile à contrôler, malgré de grandes avancées en science des matériaux. Pour mieux comprendre la relation structure-propriétés, nous avons entrepris une étude systématique de l'hexaphénylbenzène et de ses dérivés, qui offrent une charpente symétrique et rigide. En premier lieu, nous avons attaché six groupements diaminotriazinyles sur l’hexaphénylbenzène afin de produire des réseaux tridimensionnels hautement poreux maintenus par des ponts hydrogène. En modifiant systématiquement le coeur moléculaire, nous avons excisé près du tiers de la molécule-mère, générant des réseaux supramoléculaires dont la porosité s’est élevée graduellement jusqu’à 75%, équivalant ainsi le record pour ce type de matériaux. Ensuite, nous avons étudié le comportement de l’hexakis(4-nitrophényl)benzène. Dans les structures cristallines obtenues, des interactions non-covalentes entre groupements nitro démontrent leur potentiel en chimie supramoléculaire. Le coeur moléculaire ne joue qu’un rôle secondaire dans l’empilement des molécules : seules quelques interactions C-H•••π impliquant le cycle aromatique central de l’hexaphénylbenzène sont évidentes. Cette dernière observation nous a poussés à étudier le comportement à l’état cristallin de l’hexaphénylbenzène et ses dérivés. En scrutant attentivement neuf structures cristallines de ces composés, nous avons décerné la présence récurrente d’interactions C-H•••π impliquant le cycle aromatique central. Cette association caractéristique a été exploitée pour créer des réseaux supramoléculaires maintenus par des interactions C-H•••π sélectives entre un groupement éthynyle et le cycle aromatique central de l’hexaphénylbenzène. Finalement, nous avons joint le côté sombre de l’ingénierie cristalline en utilisant nos connaissances dans le but d’empêcher la formation d’interactions directionnelles. En protégeant le cycle aromatique central de l’hexaphénylbenzène à l’aide de groupements alkyles, les interactions C-H•••π ont été pratiquement éliminées. Ces résultats offrent la possibilité de créer de nouveaux matériaux amorphes. Dans ces études, focalisées sur le système hexaphénylbenzène, nous avons mis en relief des phénomènes qui sont obscurcis dans d'autres familles de molécules. De plus, ce système a grandement facilité l’utilisation d’une approche méthodique pour explorer la relation structure-propriétés. Nos travaux nous ont amenés à des conclusions de valeur universelle en science des matériaux moléculaires. / The properties of molecular materials depend on the identity of individual components and on their organization. Unfortunately, it remains difficult to control molecular organization, despite advances in materials science. To better understand the relationship between molecular structure and collective properties, we undertook a systematic study of hexaphenylbenzene and its derivatives, which possess a rigid symmetric framework. Our first study focused on using hydrogen bonds to control self-assembly in the solid state. By installing six diaminotriazinyl groups on a hexaphenylbenzene core, we predictably obtained highly porous three-dimensional hydrogen-bonded networks. Through systematic structural modifications of the molecular core, we excised nearly a third of the parent molecule, and the porosity of the networks gradually increased, matching the record of 75% previously obtained for this type of material. We then turned to weaker interactions to control organization, as revealed by the packing of hexakis(4-nitrophenyl)benzene. In the crystal structures analyzed, non-covalent interactions between nitro groups were observed, demonstrating their potential in supramolecular chemistry. Careful examination of the structures showed that the hexaphenylbenzene moieties play only a secondary role in determining the overall packing; however, C-H•••π interactions involving the central aromatic ring of hexaphenylbenzene were also observed. To further document this unexpected behavior, we analyzed nine crystal structures of hexaphenylbenzene and derivatives, which showed that a C-H•••π recognition pattern involving the central aromatic ring occurs consistently throughout the series. This motif was used to prepare supramolecular networks based exclusively on selective and directional C-H•••π interactions involving ethynyl groups and the central aromatic ring of hexaphenylbenzene. Finally, we joined the dark side of crystal engineering by using our knowledge of supramolecular chemistry to prevent the formation of directional interactions. By installing alkyl groups near the central aromatic ring of hexaphenylbenzene, C-H•••π interactions were practically eliminated. These results were then used to devise new amorphous materials. The hexaphenylbenzene system permitted a methodical analysis of structure-property relationships in molecular materials. This particular system exposed phenomena normally obscured in other families of molecules, and our analysis of its behavior has yielded conclusions of universal value in materials science.
783

Exogeneity, weak identification and instrument selection in econometrics

Doko Tchatoka, Sabro Firmin 02 1900 (has links)
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles. / The last decade shows growing interest for the so-called weak instruments problems in the econometric literature, i.e. situations where instruments are poorly correlated with endogenous explanatory variables. More generally, these can be viewed as situations where model parameters are not identified or nearly so (see Dufour and Hsiao, 2008). It is well known that when instruments are weak, the limiting distributions of standard test statistics - like Student, Wald, likelihood ratio and Lagrange multiplier criteria in structural models - have non-standard distributions and often depend heavily on nuisance parameters. Several empirical studies including the estimation of returns to education [Angrist and Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour and Taamouti (2007)] and asset pricing model (C-CAPM) [Hansen and Singleton (1982, 1983), Stock and Wright (2000)], have showed that the above procedures are unreliable in presence of weak identification. As a result, identification-robust tests [Anderson and Rubin (1949), Moreira (2003), Kleibergen (2002), Dufour and Taamouti (2007)] are often used to make reliable inference. However, little is known about the quality of these procedures when the instruments are invalid or both weak and invalid. This raises the following question: what happens to inference procedures when some instruments are endogenous or both weak and endogenous? In particular, what happens if an invalid instrument is added to a set of valid instruments? How robust are these inference procedures to instrument endogeneity? Do alternative inference procedures behave differently? If instrument endogeneity makes statistical inference unreliable, can we propose the procedures for selecting "good instruments" (i.e. strong and valid instruments)? Can we propose instrument selection procedure which will be valid even in presence of weak identification? This thesis focuses on structural models and answers these questions through four chapiters. The first chapter is published in Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. In this chapter, we analyze the effects of instrument endogeneity on two identificationrobust procedures: Anderson and Rubin (1949, AR) and Kleibergen (2002, K) test statistics, with or without weak instruments. First, when the level of instrument endogeneity is fixed (does not depend on the sample size), we show that all these procedures are in general consistent against the presence of invalid instruments (hence asymptotically invalid for the hypothesis of interest), whether the instruments are "strong" or "weak". We also describe situations where this consistency may not hold, but the asymptotic distribution is modified in a way that would lead to size distortions in large samples. These include, in particular, cases where 2SLS estimator remains consistent, but the tests are asymptotically invalid. Second, when the instruments are locally exogenous (the level of instrument endogeneity approaches zero as the sample size increases), we find asymptotic noncentral chi-square distributions with or without weak instruments, and describe situations where the non-centrality parameter is zero and the asymptotic distribution remains the same as in the case of valid instruments (despite the presence of invalid instruments). The second chapter analyzes the effects of weak identification on Durbin-Wu-Hausman (DWH) specification tests an Revankar-Harttley exogeneity test. We propose a finite-and large-sample analysis of the distribution of DWH tests under the null hypothesis (level) and the alternative hypothesis (power), including when identification is deficient or weak (weak instruments). Our finite-sample analysis provides several new insights and extensions of earlier procedures. The characterization of the finite-sample distribution of the test-statistics allows the construction of exact identificationrobust exogeneity tests even with non-Gaussian errors (Monte Carlos tests) and shows that such tests are typically robust to weak instruments (level is controlled). Furthermore, we provide a characterization of the power of the tests, which clearly exhibits factors which determine power. We show that DWH-tests have no power when all instruments are weak [similar to Guggenberger(2008)]. However, power does exist as soon as we have one strong instruments. The conclusions of Guggenberger (2008) focus on the case where all instruments are weak (a case of little practical interest). Our asymptotic distributional theory under weaker assumptions confirms the finite-sample theory. Moreover, we present simulation evidence indicating: (1) over a wide range cases, including weak IV and moderate endogeneity, OLS performs better than 2SLS [finding similar to Kiviet and Niemczyk (2007)]; (2) pretest-estimators based on exogeneity tests have an excellent overall performance compared with usual IV estimator. We illustrate our theoretical results through simulation experiment and two empirical applications: the relation between trade and economic growth and the widely studied problem of returns to education. In the third chapter, we extend the generalized Wald partial exogeneity test [Dufour (1987)] to non-gaussian errors. Testing whether a subset of explanatory variables is exogenous is an important challenge in econometrics. This problem occurs in many applied works. For example, in the well know wage model, one should like to assess if mother’s education is exogenous without imposing additional assumptions on ability and schooling. In the growth model, the exogeneity of the constructed instrument on the basis of geographical characteristics for the trade share is often questioned and needs to be tested without constraining trade share and the other variables. Standard exogeneity tests of the type proposed by Durbin-Wu-Hausman and Revankar-Hartley cannot solve such problems. A potential cure for dealing with partial exogeneity is the use of the generalized linear Wald (GW) method (Dufour, 1987). The GW-procedure however assumes the normality of model errors and it is not clear how robust is this test to non-gaussian errors. We develop in this chapter, a modified version of earlier procedure which is valid even when model errors are not normally distributed. We present simulation evidence indicating that when identification is strong, the standard GW-test is size distorted in presence of non-gaussian errors. Furthermore, our analysis of the performance of different pretest-estimators based on GW-tests allow us to propose two new pretest-estimators of the structural parameter. The Monte Carlo simulations indicate that these pretest-estimators have a better performance over a wide range cases compared with 2SLS. Therefore, this can be viewed as a procedure for selecting variable where a GW-test is used in the first stage to decide which variables should be instruments and which ones are valid instruments. We illustrate our theoretical results through two empirical applications: the well known wage equation and the returns to scale in electricity supply. The results show that the GW-tests cannot reject the exogeneity of mother’s education, i.e. mother’s education may constitute a valid IV for schooling. However, the output in cost equation is endogenous and the price of fuel is a valid IV for estimating the returns to scale. The fourth chapter develops identification-robust inference for the covariances between errors and regressors of an IV regression. The results are then applied to develop partial exogeneity tests and partial IV pretest-estimators which are more efficient than usual IV estimator. When more than one stochastic explanatory variables are involved in the model, it is often necessary to determine which ones are independent of the disturbances. This problem arises in many empirical applications. For example, in the New Keynesian Phillips Curve, one should like to assess whether the interest rate is exogenous without imposing additional assumptions on inflation rate and the other variables. Standard Wu-Durbin-Hausman (DWH) tests which are commonly used in applied work are inappropriate to deal with such a problem. The generalized Wald (GW) procedure (Dufour, 1987) which typically allows the construction of confidence sets as well as testing linear restrictions on covariances assumes that the available instruments are strong. When the instruments are weak, the GW-test is in general size distorted. As a result, its application in models where instruments are possibly weak–returns to education, trade and economic growth, life cycle labor supply, New Keynesian Phillips Curve, pregnancy and the demand for cigarettes–may be misleading. To answer this problem, we develop a finite-and large-sample valid procedure for building confidence sets for covariances allowing for the presence of weak instruments. We provide analytic forms of the confidence sets and characterize necessary and sufficient conditions under which they are bounded. Moreover, we propose two new pretest-estimators of structural parameters based on our above procedure. Both estimators combine 2SLS and partial IV-estimators. The Monte Carlo experiment shows that: (1) partial IV-estimators outperform 2SLS when the instruments are weak; (2) pretestestimators have an excellent overall performance–bias and MSE– compared with 2SLS. Therefore, this can be viewed as a variable selection method where the projection-based techniques is used to decide which variables should be instrumented and which ones are valid instruments. We illustrate our results through two empirical applications: the relation between trade and economic growth and the widely studied problem of returns to education. The results show unbounded confidence sets, suggesting that the IV are relatively poor in these models, as questioned in the literature [Bound (1995)].
784

Duality investigations for multi-composed optimization problems with applications in location theory

Wilfer, Oleg 30 March 2017 (has links) (PDF)
The goal of this thesis is two-fold. On the one hand, it pursues to provide a contribution to the conjugate duality by proposing a new duality concept, which can be understood as an umbrella for different meaningful perturbation methods. On the other hand, this thesis aims to investigate minimax location problems by means of the duality concept introduced in the first part of this work, followed by a numerical approach using epigraphical splitting methods. After summarizing some elements of the convex analysis as well as introducing important results needed later, we consider an optimization problem with geometric and cone constraints, whose objective function is a composition of n+1 functions. For this problem we propose a conjugate dual problem, where the functions involved in the objective function of the primal problem are decomposed. Furthermore, we formulate generalized interior point regularity conditions for strong duality and give necessary and sufficient optimality conditions. As applications of this approach we determine the formulae of the conjugate as well as the biconjugate of the objective function of the primal problem and analyze an optimization problem having as objective function the sum of reciprocals of concave functions. In the second part of this thesis we discuss in the sense of the introduced duality concept three classes of minimax location problems. The first one consists of nonlinear and linear single minimax location problems with geometric constraints, where the maximum of nonlinear or linear functions composed with gauges between pairs of a new and existing points will be minimized. The version of the nonlinear location problem is additionally considered with set-up costs. The second class of minimax location problems deals with multifacility location problems as suggested by Drezner (1991), where for each given point the sum of weighted distances to all facilities plus set-up costs is determined and the maximal value of these sums is to be minimized. As the last and third class the classical multifacility location problem with geometrical constraints is considered in a generalized form where the maximum of gauges between pairs of new facilities and the maximum of gauges between pairs of new and existing facilities will be minimized. To each of these location problems associated dual problems will be formulated as well as corresponding duality statements and necessary and sufficient optimality conditions. To illustrate the results of the duality approach and to give a more detailed characterization of the relations between the location problems and their corresponding duals, we consider examples in the Euclidean space. This thesis ends with a numerical approach for solving minimax location problems by epigraphical splitting methods. In this framework, we give formulae for the projections onto the epigraphs of several sums of powers of weighted norms as well as formulae for the projection onto the epigraphs of gauges. Numerical experiments document the usefulness of our approach for the discussed location problems.
785

Sur les tests de type diagnostic dans la validation des hypothèses de bruit blanc et de non corrélation

Sango, Joel 09 1900 (has links)
Dans la modélisation statistique, nous sommes le plus souvent amené à supposer que le phénomène étudié est généré par une structure pouvant s’ajuster aux données observées. Cette structure fait apparaître une partie principale qui représente le mieux possible le phénomène étudié et qui devrait expliquer les données et une partie supposée négligeable appelée erreur ou innovation. Cette structure complexe est communément appelée un modèle, dont la forme peut être plus ou moins complexe. Afin de simplifier la structure, il est souvent supposé qu’elle repose sur un nombre fini de valeurs, appelées paramètres. Basé sur les données, ces paramètres sont estimés avec ce que l’on appelle des estimateurs. La qualité du modèle pour les données à notre disposition est également fonction des estimateurs et de leurs propriétés, par exemple, est-ce que les estimateurs sont raisonnablement proches des valeurs idéales, c’est-à-dire les vraies valeurs. Des questions d’importance portent sur la qualité de l’ajustement d’un modèle aux données, ce qui se fait par l’étude des propriétés probabilistes et statistiques du terme d’erreur. Aussi, l’étude des relations ou l’absence de ces dernières entre les phénomènes sous des hypothèses complexes sont aussi d’intérêt. Des approches possibles pour cerner ce genre de questions consistent dans l’utilisation des tests portemanteaux, dits également tests de diagnostic. La thèse est présentée sous forme de trois projets. Le premier projet est rédigé en langue anglaise. Il s’agit en fait d’un article actuellement soumis dans une revue avec comité de lecture. Dans ce projet, nous étudions le modèle vectoriel à erreurs multiplicatives (vMEM) pour lequel nous utilisons les propriétés des estimateurs des paramètres du modèle selon la méthode des moments généralisés (GMM) afin d’établir la distribution asymptotique des autocovariances résiduelles. Ceci nous permet de proposer des nouveaux tests diagnostiques pour ce type de modèle. Sous l’hypothèse nulle d’adéquation du modèle, nous montrons que la statistique usuelle de Hosking-Ljung-Box converge vers une somme pondérée de lois de khi-carré indépendantes à un degré de liberté. Un test généralisé de Hosking-Ljung-Box est aussi obtenu en comparant la densité spectrale des résidus de l’estimation et celle présumée sous l’hypothèse nulle. Un avantage des tests spectraux est qu’ils nécessitent des estimateurs qui convergent à la vitesse n−1/2 où n est la taille de l’échantillon, et leur utilisation n’est pas restreinte à une technique particulière, comme par exemple la méthode des moments généralisés. Dans le deuxième projet, nous établissons la distribution asymptotique sous l’hypothèse de faible dépendance des covariances croisées de deux processus stationnaires en covariance. La faible dépendance ici est définie en terme de l’effet limité d’une observation donnée sur les observations futures. Nous utilisons la notion de stabilité et le concept de contraction géométrique des moments. Ces conditions sont plus générales que celles de l’invariance des moments conditionnels d’ordre un à quatre utilisée jusque là par plusieurs auteurs. Un test statistique basé sur les covariances croisées et la matrice des variances et covariances de leur distribution asymptotique est alors proposé et sa distribution asymptotique établie. Dans l’implémentation du test, la matrice des variances et covariances des covariances croisées est estimée à l’aide d’une procédure autorégressive vectorielle robuste à l’autocorrélation et à l’hétéroscédasticité. Des simulations sont ensuite effectuées pour étudier les propriétés du test proposé. Dans le troisième projet, nous considérons un modèle périodique multivarié et cointégré. La présence de cointégration entraîne l’existence de combinaisons linéaires périodiquement stationnaires des composantes du processus étudié. Le nombre de ces combinaisons linéaires linéairement indépendantes est appelé rang de cointégration. Une méthode d’estimation en deux étapes est considérée. La première méthode est appelée estimation de plein rang. Dans cette approche, le rang de cointégration est ignoré. La seconde méthode est appelée estimation de rang réduit. Elle tient compte du rang de cointégration. Cette dernière est une approche non linéaire basée sur des itérations dont la valeur initiale est l’estimateur de plein rang. Les propriétés asymptotiques de ces estimateurs sont aussi établies. Afin de vérifier l’adéquation du modèle, des statistiques de test de type portemanteau sont considérées et leurs distributions asymptotiques sont étudiées. Des simulations sont par la suite présentées afin d’illustrer le comportement du test proposé. / In statistical modeling, we assume that the phenomenon of interest is generated by a model that can be fitted to the observed data. The part of the phenomenon not explained by the model is called error or innovation. There are two parts in the model. The main part is supposed to explain the observed data, while the unexplained part which is supposed to be negligible is also called error or innovation. In order to simplify the structures, the model are often assumed to rely on a finite set of parameters. The quality of a model depends also on the parameter estimators and their properties. For example, are the estimators relatively close to the true parameters ? Some questions also address the goodness-of-fit of the model to the observed data. This question is answered by studying the statistical and probabilistic properties of the innovations. On the other hand, it is also of interest to evaluate the presence or the absence of relationships between the observed data. Portmanteau or diagnostic type tests are useful to address such issue. The thesis is presented in the form of three projects. The first project is written in English as a scientific paper. It was recently submitted for publication. In that project, we study the class of vector multiplicative error models (vMEM). We use the properties of the Generalized Method of Moments to derive the asymptotic distribution of sample autocovariance function. This allows us to propose a new test statistic. Under the null hypothesis of adequacy, the asymptotic distributions of the popular Hosking-Ljung-Box (HLB) test statistics are found to converge in distribution to weighted sums of independent chi-squared random variables. A generalized HLB test statistic is motivated by comparing a vector spectral density estimator of the residuals with the spectral density calculated under the null hypothesis. In the second project, we derive the asymptotic distribution under weak dependence of cross covariances of covariance stationary processes. The weak dependence is defined in term of the limited effect of a given information on future observations. This recalls the notion of stability and geometric moment contraction. These conditions of weak dependence defined here are more general than the invariance of conditional moments used by many authors. A test statistic based on cross covariances is proposed and its asymptotic distribution is established. In the elaboration of the test statistics, the covariance matrix of the cross covariances is obtained from a vector autoregressive procedure robust to autocorrelation and heteroskedasticity. Simulations are also carried on to study the properties of the proposed test and also to compare it to existing tests. In the third project, we consider a cointegrated periodic model. Periodic models are present in the domain of meteorology, hydrology and economics. When modelling many processes, it can happen that the processes are just driven by a common trend. This situation leads to spurious regressions when the series are integrated but have some linear combinations that are stationary. This is called cointegration. The number of stationary linear combinations that are linearly independent is called cointegration rank. So, to model the real relationship between the processes, it is necessary to take into account the cointegration rank. In the presence of periodic time series, it is called periodic cointegration. It occurs when time series are periodically integrated but have some linear combinations that are periodically stationary. A two step estimation method is considered. The first step is the full rank estimation method that ignores the cointegration rank. It provides initial estimators to the second step estimation which is the reduced rank estimation. It is non linear and iterative. Asymptotic properties of the estimators are also established. In order to check for model adequacy, portmanteau type tests and their asymptotic distributions are also derived and their asymptotic distribution are studied. Simulation results are also presented to show the behaviour of the proposed test.
786

Value at risk et expected shortfall pour des données faiblement dépendantes : estimations non-paramétriques et théorèmes de convergences / Value at risk and expected shortfall for weak dependent random variables : nonparametric estimations and limit theorems

Kabui, Ali 19 September 2012 (has links)
Quantifier et mesurer le risque dans un environnement partiellement ou totalement incertain est probablement l'un des enjeux majeurs de la recherche appliquée en mathématiques financières. Cela concerne l'économie, la finance, mais d'autres domaines comme la santé via les assurances par exemple. L'une des difficultés fondamentales de ce processus de gestion des risques est de modéliser les actifs sous-jacents, puis d'approcher le risque à partir des observations ou des simulations. Comme dans ce domaine, l'aléa ou l'incertitude joue un rôle fondamental dans l'évolution des actifs, le recours aux processus stochastiques et aux méthodes statistiques devient crucial. Dans la pratique l'approche paramétrique est largement utilisée. Elle consiste à choisir le modèle dans une famille paramétrique, de quantifier le risque en fonction des paramètres, et d'estimer le risque en remplaçant les paramètres par leurs estimations. Cette approche présente un risque majeur, celui de mal spécifier le modèle, et donc de sous-estimer ou sur-estimer le risque. Partant de ce constat et dans une perspective de minimiser le risque de modèle, nous avons choisi d'aborder la question de la quantification du risque avec une approche non-paramétrique qui s'applique à des modèles aussi généraux que possible. Nous nous sommes concentrés sur deux mesures de risque largement utilisées dans la pratique et qui sont parfois imposées par les réglementations nationales ou internationales. Il s'agit de la Value at Risk (VaR) qui quantifie le niveau de perte maximum avec un niveau de confiance élevé (95% ou 99%). La seconde mesure est l'Expected Shortfall (ES) qui nous renseigne sur la perte moyenne au delà de la VaR. / To quantify and measure the risk in an environment partially or completely uncertain is probably one of the major issues of the applied research in financial mathematics. That relates to the economy, finance, but many other fields like health via the insurances for example. One of the fundamental difficulties of this process of management of risks is to model the under lying credits, then approach the risk from observations or simulations. As in this field, the risk or uncertainty plays a fundamental role in the evolution of the credits; the recourse to the stochastic processes and with the statistical methods becomes crucial. In practice the parametric approach is largely used.It consists in choosing the model in a parametric family, to quantify the risk according to the parameters, and to estimate its risk by replacing the parameters by their estimates. This approach presents a main risk, that badly to specify the model, and thus to underestimate or over-estimate the risk. Based within and with a view to minimizing the risk model, we choose to tackle the question of the quantification of the risk with a nonparametric approach which applies to models as general as possible. We concentrate to two measures of risk largely used in practice and which are sometimes imposed by the national or international regulations. They are the Value at Risk (VaR) which quantifies the maximum level of loss with a high degree of confidence (95% or 99%). The second measure is the Expected Shortfall (ES) which informs about the average loss beyond the VaR.
787

Théorie KAM faible et instabilité pour familles d'hamiltoniens / Weak KAM theory and instability for families of Hamiltonians

Mandorino, Vito 11 March 2013 (has links)
Dans cette thèse nous étudions la dynamique engendrée par une famille de flots Hamiltoniens. Un tel système dynamique à plusieurs générateurs est aussi appelé ‘polysystème’. Motivés par des questions liées au phénomène de la diffusion d’Arnold, notre objectif est de construire des trajectoires du polysystème qui relient deux régions lointaines de l’espace des phases. La thèse est divisée en trois parties.Dans la première partie, nous considérons le polysystème engendré par les flots discrétisés d’une famille d’Hamiltoniens Tonelli. En utilisant une approche variationnelle issue de la théorie KAM faible, nous donnons des conditions suffisantes pour l’existence des trajectoires souhaitées.Dans la deuxième partie, nous traitons le cas d’un polysystème engendré par un couple de flots Hamiltoniens à temps continu, dont l’étude rentre dans le cadre de la théorie géométrique du contrôle. Dans ce contexte, nous montrons dans certains cas la transitivité d’un polysystème générique, à l’aide du théorème de transversalité de Thom.La dernière partie de la thèse est dédiée à obtenir une nouvelle version du théorème de transversalité de Thom s’exprimant en termes d’ensembles rectifiables de codimension positive. Dans cette partie il n’est pas question de polysystèmes, ni d’Hamiltoniens. Néanmoins, les résultats obtenus ici sont utilisés dans la deuxième partie de la thèse / In this thesis we study the dynamics generated by a family of Hamiltonian flows. Such a dynamical system with several generators is also called ‘polysystem’.Motivated by some questions related to the phenomenon of Arnold diffusion, our aim is to construct trajectories of the polysystem which connect two far-apart regions of the phase space.The thesis is divided into three parts.In the first part, we consider the polysystem generated by the time-onemaps of a family of Tonelli Hamiltonians. By using a variational approach falling within the framework of weak KAM theory, we give sufficient conditions for the existence of the desired trajectories.In the second part, we address the case of a polysystem generated by twocontinuous-time Hamiltonian flows. This problem fits into the framework of geometriccontrol theory. In this context, we show in some cases the transitivity of a generic polysystem, by means of Thom’s transversality theorem.The third and last part of the thesis is devoted to the proof of a newversion of Thom’s transversality theorem, formulated in terms of rectifiable sets of positive codimension. Neither polysystems nor Hamiltonians are explicitly involved in this part. However, the results obtained here are used in the second part of the thesis.
788

La gouvernance sans Etat : une étude de cas sur les territoires contrôlés par le front révolutionnaire uni en Sierra Leone / Governance without State : a case study on territories controlled by the Revolutionary United Front in Sierra Leone

Sesay, Mohamed Kanja 13 December 2013 (has links)
La guerre civile en Sierra Leone débute en 1991 et dure jusqu’en 2002.Encore aujourd’hui, les analystes sont assez partagés sur ses causes, notamment lesmotivations des rebelles du Front Révolutionnaire Uni (RUF), mouvement àl’origine des hostilités. De son entrée en Sierra Leone à nos jours, le RUF a étél’objet de plusieurs débats et critiques, tant sur son organisation que sur sesméthodes guerrières. En questionnant d’abord la capacité organisationnelle de cemouvement, la thèse a pour objet de contextualiser les arguments souvent associésavec des guerres civiles de ce type. Ils insistent sur l’absence de sens : ces conflitsillustreraient d’abord une situation de chaos total. Elles seraient aussi laconséquence de l’absence ou de la défaillance d’un État.Cette présente étude s’inscrit dans le prolongement des débats sur le RUF.Elle démontre que ce dernier n’était pas si désorganisé que ce que racontent lescommentateurs, avertis ou non. Cette opinion répandue résulte notamment d’unemédiatisation intense de son usage intensif de la violence extrême, très réellecependant. Le RUF n’était pas qu’un groupe de voleurs de diamants sanguinairesmais aussi une force assez structurée avec une logique hiérarchique claire, voireune idéologie. Grâce à ces facteurs, il a mis en place des structures lui permettantd’établir les relations de gouvernant à gouvernés avec les populations urbainessous son contrôle. Cette force rebelle a instauré un mode de gestion de lacollectivité. Cela a modifié la nature de ce groupe armé, devenu, dans les zonessous son contrôle, un « appareil administratif » civil, loin d’être toujoursperformant mais bien identifiable comme tel.En juxtaposant les interactions complexes d’une gouvernance quotidienne,la thèse met en lumière les méthodes de gouvernance du RUF et les aspects dits« normaux » de la vie dans ces villes en guerre. Elle analyse les variables de larelation entre les membres du mouvement rebelle occupant ces communes et lapopulation locale. Une fois une ville conquise, les rebelles sont obligés d’y fairequelque chose. Le RUF impose un « système administratif » instaurant un ordre devie en commun dans toute cette zone.L’étude analyse donc ces outils de la gouvernance civile, mobilisés entemps de guerre. Au cours de cet étude, plusieurs recherches de terrain en SierraLeone, ont été menées. Ces séjours sur place ont permis la réalisation de plusieursentretiens, individuels et collectifs. Ils soutiennent les idées générales exposéesdans cette thèse. / The war in Sierra Leone began in 1991 and ended in 2002. Analysts remaindivided on the question of its cause, particularly on the issue of the motivations ofthe rebel Revolutionary United Front (RUF), the armed group which started thehostilities. From its entry into Sierra Leone to date; the RUF has been the subjectof much debate and criticism, both on its organization and its methods of wagingwar. By asking questions relating to the organizational capacity of the RUF, thisstudy aims to contextualize the central arguments often associated with civil warsof the Sierra Leonean kind: they insist on the absence of meaning; these conflictsillustrate a situation of chaos and/or are devoid of political reflections. They arealso the consequence of the absence or failure of a State.This present study continues these discussions in relation to the RUF, bydemonstrating that this guerilla force was not as disorganized as often portrayed,despite increased media coverage on its use of violence. The RUF was not a groupof murderous diamond thieves but also quite structured with a clear hierarchicallogic or ideology. Through this internal organisation, it set up structures toestablish governor/governed relations with urban populations under its control.The rebel force thus established a system to manage these local communities. Suchconsiderations changed the nature of the armed group in the areas under itscontrol, where it established a civil "administrative unit", far from being efficientbut identifiable as such.By juxtaposing the complex interactions of daily governance, the thesishighlights the governance practices of the RUF and the aspects that characterise"normal" life in these « war torn » towns. It analyzes the variables of therelationship between members of the rebel movement occupying these towns andthe local population. Once a town is conquered, the rebels are forced to dosomething there, an "administrative system" establishing an order of coexistence inthe whole area is imposed.The study therefore analyzes the tools of civil governance, mobilized intime of war. During this study, several field research trips to Sierra Leone, wereconducted. These trips have allowed the realization of several interviews,individual and collective. They support the general ideas presented in this thesis.
789

Firemná kultúra spoločnosti Vodafone Czech Republic a.s. / Corporate Culture of Vodafone Czech Republic a.s.

Štalmachová, Ivana January 2010 (has links)
Corporate culture is considered as an important idicator of firm's long-term performance. It represents a collection of values, norms and attitudes that are shared in people in organization and that control the way they interact with each other and with stakeholders. First part of the thesis describes corporate culture from theoretical point of view, concretely definition, characteristics and typology of corporate culture, its relation to company's control processes and its changes. Second part of the thesis concentrates on analysis of corporate culture of Vodafone Czech Republic a.s. I paid attention to linkage between corporate culture and company strategy, elements of corporate culture and to its manifestations in internal communication and employees questions. Corporate Social Responsibility issue as an inseparable part of company's culture is analyzed as well. Final part of the thesis belongs to a review of Vodafone's corporate culture with focus on its strength and pros and cons implied.
790

Numerical evaluation of Mellin-Barnes integrals in Minkowskian regions and their application to two-loop bosonic electroweak contributions to the weak mixing angle of the Zbb(bar)-vertex

Usovitsch, Johann 24 October 2018 (has links)
In der Z-Boson-Resonanzphysik sind mehrere Präzisionsobservablen in einem perfekten Zustand, bei dem die theoretische Unsicherheit niedriger ist als die gegenwärtige experimentelle Unsicherheit. Das Konzept für den zukünftigen Teilchenbeschleuniger Future Circular Collider (FCC), will eine Verbesserung der Messungen für die Präzisionsobservablen um ein bis zwei signifikante Stellen erreichen. Damit werden die Vorhersagen des elektroschwachen Standardmodells in eine Situation versetzt, in der vollständige Zweischleifenkorrekturen zusammen mit den führenden Dreischleifenkorrekturen obligatorisch werden. 2016 wurden die vollständigen Zweischleifenkorrekturen für den effektiven schwachen Mischungswinkel für die bottom Quarks sin^2/theta/^b_eff berechnet, indem die fehlenden bosonischen Zweischleifenkorrekturen bereitgestellt wurden. Dabei liegt die Schwierigkeit in der Berechnung der entsprechenden Zwei-Schleifen Vertex-Feynman-Integrale, die mehrere massive Teilchen einschließen. Gegenwärtig ist die analytische Rechnung der meisten dieser Integrale schwierig und deswegen werden rein numerische Techniken, mittels Sektorzerlegungsansatz und der Integralansatz nach Mellin-Barnes, angewandt. Es war bis vor kurzem nicht bekannt, wie Mellin-Barnes-Integraldarstellungen in den minkowskischen Integrationsgebieten numerisch behandelt werden können. Um dieses Problem anzugehen, stellen wir eine Vielzahl von ein- und mehrdimensionaler Techniken vor, die ein Teil des neuen Programms MBnumerics.m sind, welches in dieser Dissertation entwickelt wurde. Der Sektorzerlegungsansatz und der Integralansatz nach Mellin-Barnes sind zusammen ausreichend, um elektroschwache Zweischleifenkorrekturen für die Präzisionsobservablen der Annihilation von e^+e^- in zwei Fermionen in der Z-Bosonresonanz auszurechnen. Aktuell führt dies zu der genauesten Vorhersage für den effektiven elektroschwachen Mischungswinkel für bottom Quarks sin^2/theta/^b_eff = 0.232312. / In the Z-boson resonance physics several precision observables are in a perfect state, where the theory uncertainty is lower than the present experimental uncertainty. The ambitious concepts for the future collider, Future Circular Collider (FCC), aim for an improvement of measurements for the precision observables by one to two significant digits. This will put the Electroweak Standard Model predictions in a situation where complete two-loop corrections together with the leading three-loop corrections will become mandatory. The complete two-loop corrections for effective weak mixing angle for bottom quarks sin^2/theta/^b_eff were reported recently, by providing the missing bosonic two-loop corrections. The difficult task in this computation is the calculation of the corresponding two-loop vertex Feynman integrals which include several massive particles. At present the analytic evaluation for most of these integrals is out of reach and purely numerical techniques were applied. Only two methods, sector decomposition approach and the Mellin-Barnes integral approach, are known to extract infrared and ultraviolet singularities in a systematic way for a general Feynman integral with fully automatized algorithms. It was not known until recently how to treat Mellin-Barnes integral representations in Minkowskian regions numerically. To address this problem we introduce and discuss in detail a variety of one- and multi-dimensional techniques, which are part of a new program MBnumerics.m developed in this thesis work. Two techniques, sector decomposition and Mellin-Barnes integral approach, are together sufficient to treat electroweak two-loop corrections to the precision observables for the e^+e^- annihilation into two fermions at the Z-boson resonance. This leads to the most precise prediction at present for the effective weak mixing angle for bottom quarks: sin^2/theta/^b_eff=0.232312.

Page generated in 0.1668 seconds