• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 40
  • 17
  • 3
  • Tagged with
  • 61
  • 61
  • 21
  • 16
  • 11
  • 11
  • 10
  • 10
  • 9
  • 8
  • 7
  • 7
  • 7
  • 7
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Optimisation de méthodes numériques pour la physique des plasmas. Application aux faisceaux de particules chargées.

Crestetto, Anaïs 04 October 2012 (has links) (PDF)
Cette thèse propose différentes méthodes numériques permettant de simuler le comportement des plasmas ou des faisceaux de particules chargées à coût réduit. Le mouvement de particules chargées soumises à un champ électromagnétique est régi par l'équation de Vlasov. Celle-ci est couplée aux équations de Maxwell pour le champ électromagnétique ou à l'équation de Poisson dans un cas simplifié. Plusieurs types de modèles existent pour résoudre ce système. Dans les modèles cinétiques, les particules sont représentées par une fonction de distribution f(x,v,t) qui vérifie l'équation de Vlasov. Dans le cas général tridimensionnel (3D), le système fait apparaître 7 variables. Les calculs sur ordinateur deviennent rapidement très lourds. Les modèles fluides de plasma s'intéressent quant à eux à des quantités macroscopiques déduites de f par des intégrales en vitesse, telles que la densité, la vitesse moyenne et la température. Ces quantités ne dépendent que de la position x et du temps t. Le coût numérique est ainsi réduit, mais la précision s'en trouve altérée. Dans la première partie de cette thèse, une méthode multi-fluides est utilisée pour la résolution du système de Vlasov-Poisson 1D. Elle est basée sur la connaissance a priori de la forme prise par la fonction de distribution f. Deux possibilités sont étudiées : une somme de masse de Dirac et le modèle multi-water-bag. Ce type de méthodes est plutôt adapté aux systèmes restant proches de l'état d'équilibre. La deuxième partie propose de décomposer f en une partie d'équilibre et une perturbation. L'équilibre est résolu par une méthode fluide alors que la perturbation est résolue par une méthode cinétique. On construit notamment un schéma préservant l'asymptotique pour le système de Vlasov-Poisson-BGK, basé sur une telle décomposition. On étudie dans la troisième partie la méthode Particle-In-Cell (PIC) en géométrie 2D axisymétrique. Un travail basé sur l'analyse isogéométrique est présenté, ainsi qu'un code PIC - Galerkin Discontinu parallélisé sur carte graphique (GPU). Cette architecture permet de réduire de manière significative les temps de calculs.
52

Optimisation de méthodes numériques pour la physique des plasmas : application aux faisceaux de particules chargées / Optimisation of numerical methods for plasma physics : application to charged particle beams

Crestetto, Anaïs 04 October 2012 (has links)
Cette thèse propose différentes méthodes numériques pour simuler les plasmas ou les faisceaux de particules chargées à coût réduit. Le mouvement de particules chargées soumises à un champ électromagnétique est régi par l'équation de Vlasov, couplée aux équations de Maxwell ou de Poisson. Dans la première partie, une méthode multi-fluides est utilisée pour la résolution du système de Vlasov-Poisson 1D. Elle est basée sur la connaissance a priori de la forme prise par la fonction de distribution f. Ce type de méthodes est plutôt adapté aux systèmes restant proches de l'état d'équilibre. La deuxième partie propose de décomposer f en une partie d'équilibre et une perturbation. L'équilibre est résolu par une méthode fluide, la perturbation par une méthode cinétique plus précise. On construit un schéma préservant l'asymptotique pour le système de Vlasov-Poisson-BGK basé sur une telle décomposition. On étudie dans la troisième partie la méthode PIC en géométrie 2D axisymétrique. Un travail basé sur l'analyse isogéométrique est présenté ainsi qu'un code PIC - Galerkin Discontinu parallélisé sur carte graphique. / This thesis presents different numerical methods for the simulation of plasmas or charged particles beams with reduced cost. Movement of charged particles in an electromagnetic field is given by the Vlasov equation, coupled to the Maxwell equations for the electromagnetic field, or to the Poisson equation. In the first part, a multi-fluid method is used for solving the 1D Vlasov-Poisson system. It is based on the a priori knowledge of the shape of f. This kind of methods is rather adapted to systems staying close to the equilibrium. The second part presents the decomposition of f between an equilibrium part and a perturbation. The equilibrium part is solved by a fluid method whereas we use a kinetic method for the perturbation. We construct an asymptotic preserving scheme for the Vlasov-Poisson-BGK system using such a decomposition. The third part deals with the PIC method in 2D axisymmetric geometry. A work based on isogeometric analysis is presented, and then a PIC - Discontinuous Galerkin program computed on graphic card.
53

Contribution à la modélisation du champ électromagnétique dans les dispositifs basses fréquences par la méthode des moments / Contribution to the modeling of the electromagnetic field in the low frequency devices by the method of moments

Oubaid, Rania 16 December 2014 (has links)
La modélisation numérique est devenue incontournable dans le monde de la conception industrielle et de la recherche scientifique. Les problèmes à résoudre étant de plus en plus complexes, il est nécessaire d'adopter une approche adaptée au problème traité. Dans les domaines d'application de l'électromagnétisme basses fréquences, la méthode des éléments finis (MEF) est la méthode de référence. Actuellement, de plus en plus de dispositifs ouverts comportant de grands entrefers sont développés. Dans ce genre de problèmes, la MEF n'est pas optimale car elle nécessite de mailler un grand volume d'air pour obtenir une bonne précision. Dans cette thèse nous étudions, au travers de deux applications (représentant respectivement un système ouvert et un système à grands entrefers) une méthode alternative qui ne souffre pas des limitations évoquées : la méthode des moments (MoM) de type intégrale volumique. En effet, cette méthode nécessite de mailler uniquement les milieux magnétiques. Le principe de cette méthode est d'abord de calculer l'aimantation induite dans le milieu linéaire ou non linéaire placé sous l'effet d'un champ extérieur. Pour cela, le milieu magnétique est discrétisé en éléments hexaédriques. Dans chaque élément est localisée une aimantation considérée comme uniforme. Ensuite, la connaissance de cette aimantation induite permet de déterminer le champ magnétique en tout point de l'espace: interne, proche ou lointain. Dans un premier temps, un code basé sur la MoM a été développé pour la première application. Il permet de calculer le champ magnétostatique proche ou lointain d'une antenne basse fréquence. Une méthode permettant de calculer l'énergie magnétostatique contenue dans tout l'espace a été également mise au point. Dans deuxième temps, afin de pouvoir traiter une géométrie complexe, des modifications ont été intégrées au code afin de modéliser la deuxième application : le dispositif de test des propulseurs à effet Hall (PPS-Flex). Il s'agit de prendre en compte des symétries géométriques et physiques caractéristiques de ce dispositif. Les résultats montrent que la MoM permet de calculer le champ magnétique à l'intérieur de son canal et éventuellement au-delà. Dans les deux exemples étudiés, la méthode des moments a donné des résultats satisfaisants lors de la comparaison avec la méthode des éléments finis 3D et avec les résultats de mesures. Ces résultats montrent des gains potentiellement significatifs sur le plan des temps de calculs. A l'issu de cette thèse, nous disposons d'un outil de laboratoire permettant de modéliser le comportement du champ magnétostatique dans des systèmes ouverts et/ou à grands entrefers. / The numerical modeling has become essential in the world of industrial design and scientific research. The problems to be solved are increasingly complex making it necessary to adopt an appropriate approach for the problem addressed. In the domains of application of low frequency electromagnetic, the finite element method (FEM) is the reference method. Currently, more and more devices having large open gaps are developed. In this kind of problems, the MEF is not optimal as it requires to mesh a large volume of air to get a good accuracy. In this thesis we study, through two applications (an open system and a large gap system), an alternative method that does not suffer from the limitations discussed: the method of moments (MoM) of volume integral type. Indeed, this method requires to mesh only the magnetic media. The principle of this method is first to calculate the induced magnetization in the linear or nonlinear medium under the effect of an external field. To accomplish this, the magnetic medium is discretized into hexahedral elements. In each element, a uniform magnetization is localized. Then, the determination of this induced magnetization allows to compute the magnetic field at any point in the space: internal, near or far. In the first step, a code based on the MoM has been developed for the first application. It allows to calculate the magnetostatic field near or far from a low-frequency antenna. A method to calculate the magnetostatic energy in the whole space was also developed. Meanwhile, in the second step, in order to treat complex geometry, some modifications have been integrated into the code to model the second application: the test device of Hall effect thrusters (PPS-Flex). It consists in taking into account the physical characteristics and geometric symmetry of the device. The results show that MoM allows to calculate the magnetic field inside the channel and possibly beyond. In both examples studied, the MoM has given satisfactory results when compared with the 3D finite element method and with the results of measurements. These results show potentially significant gains in the computation time. At the end of this thesis, we have developed a laboratory tool allowing to model the behavior of the static magnetic field in open and/or wide-gap systems.
54

A tensor perspective on weighted automata, low-rank regression and algebraic mixtures

Rabusseau, Guillaume 20 October 2016 (has links)
Ce manuscrit regroupe différents travaux explorant les interactions entre les tenseurs et l'apprentissage automatique. Le premier chapitre est consacré à l'extension des modèles de séries reconnaissables de chaînes et d'arbres aux graphes. Nous y montrons que les modèles d'automates pondérés de chaînes et d'arbres peuvent être interprétés d'une manière simple et unifiée à l'aide de réseaux de tenseurs, et que cette interprétation s'étend naturellement aux graphes ; nous étudions certaines propriétés de ce modèle et présentons des résultats préliminaires sur leur apprentissage. Le second chapitre porte sur la minimisation approximée d'automates pondérés d'arbres et propose une approche théoriquement fondée à la problématique suivante : étant donné un automate pondéré d'arbres à n états, comment trouver un automate à m<n états calculant une fonction proche de l'originale. Le troisième chapitre traite de la régression de faible rang pour sorties à structure tensorielle. Nous y proposons un algorithme d'apprentissage rapide et efficace pour traiter un problème de régression dans lequel les sorties des tenseurs. Nous montrons que l'algorithme proposé est un algorithme d'approximation pour ce problème NP-difficile et nous donnons une analyse théorique de ses propriétés statistiques et de généralisation. Enfin, le quatrième chapitre introduit le modèle de mélanges algébriques de distributions. Ce modèle considère des combinaisons affines de distributions (où les coefficients somment à un mais ne sont pas nécessairement positifs). Nous proposons une approche pour l'apprentissage de mélanges algébriques qui étend la méthode tensorielle des moments introduite récemment. . / This thesis tackles several problems exploring connections between tensors and machine learning. In the first chapter, we propose an extension of the classical notion of recognizable function on strings and trees to graphs. We first show that the computations of weighted automata on strings and trees can be interpreted in a natural and unifying way using tensor networks, which naturally leads us to define a computational model on graphs: graph weighted models; we then study fundamental properties of this model and present preliminary learning results. The second chapter tackles a model reduction problem for weighted tree automata. We propose a principled approach to the following problem: given a weighted tree automaton with n states, how can we find an automaton with m<n states that is a good approximation of the original one? In the third chapter, we consider a problem of low rank regression for tensor structured outputs. We design a fast and efficient algorithm to address a regression task where the outputs are tensors. We show that this algorithm generalizes the reduced rank regression method and that it offers good approximation, statistical and generalization guarantees. Lastly in the fourth chapter, we introduce the algebraic mixture model. This model considers affine combinations of probability distributions (where the weights sum to one but may be negative). We extend the recently proposed tensor method of moments to algebraic mixtures, which allows us in particular to design a learning algorithm for algebraic mixtures of spherical Gaussian distributions.
55

Efficient estimation using the characteristic function : theory and applications with high frequency data

Kotchoni, Rachidi 05 1900 (has links)
The attached file is created with Scientific Workplace Latex / Nous abordons deux sujets distincts dans cette thèse: l'estimation de la volatilité des prix d'actifs financiers à partir des données à haute fréquence, et l'estimation des paramétres d'un processus aléatoire à partir de sa fonction caractéristique. Le chapitre 1 s'intéresse à l'estimation de la volatilité des prix d'actifs. Nous supposons que les données à haute fréquence disponibles sont entachées de bruit de microstructure. Les propriétés que l'on prête au bruit sont déterminantes dans le choix de l'estimateur de la volatilité. Dans ce chapitre, nous spécifions un nouveau modèle dynamique pour le bruit de microstructure qui intègre trois propriétés importantes: (i) le bruit peut être autocorrélé, (ii) le retard maximal au delà duquel l'autocorrélation est nulle peut être une fonction croissante de la fréquence journalière d'observations; (iii) le bruit peut avoir une composante correlée avec le rendement efficient. Cette dernière composante est alors dite endogène. Ce modèle se différencie de ceux existant en ceci qu'il implique que l'autocorrélation d'ordre 1 du bruit converge vers 1 lorsque la fréquence journalière d'observation tend vers l'infini. Nous utilisons le cadre semi-paramétrique ainsi défini pour dériver un nouvel estimateur de la volatilité intégrée baptisée "estimateur shrinkage". Cet estimateur se présente sous la forme d'une combinaison linéaire optimale de deux estimateurs aux propriétés différentes, l'optimalité étant défini en termes de minimisation de la variance. Les simulations indiquent que l'estimateur shrinkage a une variance plus petite que le meilleur des deux estimateurs initiaux. Des estimateurs sont également proposés pour les paramètres du modèle de microstructure. Nous clôturons ce chapitre par une application empirique basée sur des actifs du Dow Jones Industrials. Les résultats indiquent qu'il est pertinent de tenir compte de la dépendance temporelle du bruit de microstructure dans le processus d'estimation de la volatilité. Les chapitres 2, 3 et 4 s'inscrivent dans la littérature économétrique qui traite de la méthode des moments généralisés. En effet, on rencontre en finance des modèles dont la fonction de vraisemblance n'est pas connue. On peut citer en guise d'exemple la loi stable ainsi que les modèles de diffusion observés en temps discrets. Les méthodes d'inférence basées sur la fonction caractéristique peuvent être envisagées dans ces cas. Typiquement, on spécifie une condition de moment basée sur la différence entre la fonction caractéristique (conditionnelle) théorique et sa contrepartie empirique. Le défit ici est d'exploiter au mieux le continuum de conditions de moment ainsi spécifié pour atteindre la même efficacité que le maximum de vraisemblance dans les inférences. Ce défit a été relevé par Carrasco et Florens (2000) qui ont proposé la procédure CGMM (continuum GMM). La fonction objectif que ces auteurs proposent est une forme quadratique hilbertienne qui fait intervenir l'opérateur inverse de covariance associé au continuum de condition de moments. Cet opérateur inverse est régularisé à la Tikhonov pour en assurer l'existence globale et la continuité. Carrasco et Florens (2000) ont montré que l'estimateur obtenu en minimisant cette forme quadratique est asymptotiquement aussi efficace que l'estimateur du maximum de vraisemblance si le paramètre de régularisation (α) tend vers zéro lorsque la taille de l'échatillon tend vers l'infini. La nature de la fonction objectif du CGMM soulève deux questions importantes. La première est celle de la calibration de α en pratique, et la seconde est liée à la présence d'intégrales multiples dans l'expression de la fonction objectif. C'est à ces deux problématiques qu'essayent de répondent les trois derniers chapitres de la présente thèse. Dans le chapitre 2, nous proposons une méthode de calibration de α basée sur la minimisation de l'erreur quadratique moyenne (EQM) de l'estimateur. Nous suivons une approche similaire à celle de Newey et Smith (2004) pour calculer un développement d'ordre supérieur de l'EQM de l'estimateur CGMM de sorte à pouvoir examiner sa dépendance en α en échantillon fini. Nous proposons ensuite deux méthodes pour choisir α en pratique. La première se base sur le développement de l'EQM, et la seconde se base sur des simulations Monte Carlo. Nous montrons que la méthode Monte Carlo délivre un estimateur convergent de α optimal. Nos simulations confirment la pertinence de la calibration de α en pratique. Le chapitre 3 essaye de vulgariser la théorie du chapitre 2 pour les modèles univariés ou bivariés. Nous commençons par passer en revue les propriétés de convergence et de normalité asymptotique de l'estimateur CGMM. Nous proposons ensuite des recettes numériques pour l'implémentation. Enfin, nous conduisons des simulations Monte Carlo basée sur la loi stable. Ces simulations démontrent que le CGMM est une méthode fiable d'inférence. En guise d'application empirique, nous estimons par CGMM un modèle de variance autorégressif Gamma. Les résultats d'estimation confirment un résultat bien connu en finance: le rendement est positivement corrélé au risque espéré et négativement corrélé au choc sur la volatilité. Lorsqu'on implémente le CGMM, une difficulté majeure réside dans l'évaluation numérique itérative des intégrales multiples présentes dans la fonction objectif. Les méthodes de quadrature sont en principe parmi les plus précises que l'on puisse utiliser dans le présent contexte. Malheureusement, le nombre de points de quadrature augmente exponentiellement en fonction de la dimensionalité (d) des intégrales. L'utilisation du CGMM devient pratiquement impossible dans les modèles multivariés et non markoviens où d≥3. Dans le chapitre 4, nous proposons une procédure alternative baptisée "reéchantillonnage dans le domaine fréquentielle" qui consiste à fabriquer des échantillons univariés en prenant une combinaison linéaire des éléments du vecteur initial, les poids de la combinaison linéaire étant tirés aléatoirement dans un sous-espace normalisé de ℝ^{d}. Chaque échantillon ainsi généré est utilisé pour produire un estimateur du paramètre d'intérêt. L'estimateur final que nous proposons est une combinaison linéaire optimale de tous les estimateurs ainsi obtenus. Finalement, nous proposons une étude par simulation et une application empirique basées sur des modèles autorégressifs Gamma. Dans l'ensemble, nous faisons une utilisation intensive du bootstrap, une technique selon laquelle les propriétés statistiques d'une distribution inconnue peuvent être estimées à partir d'un estimé de cette distribution. Nos résultats empiriques peuvent donc en principe être améliorés en faisant appel aux connaissances les plus récentes dans le domaine du bootstrap. / In estimating the integrated volatility of financial assets using noisy high frequency data, the time series properties assumed for the microstructure noise determines the proper choice of the volatility estimator. In the first chapter of the current thesis, we propose a new model for the microstructure noise with three important features. First of all, our model assumes that the noise is L-dependent. Secondly, the memory lag L is allowed to increase with the sampling frequency. And thirdly, the noise may include an endogenous part, that is, a piece that is correlated with the latent returns. The main difference between this microstructure model and existing ones is that it implies a first order autocorrelation that converges to 1 as the sampling frequency goes to infinity. We use this semi-parametric model to derive a new shrinkage estimator for the integrated volatility. The proposed estimator makes an optimal signal-to-noise trade-off by combining a consistent estimators with an inconsistent one. Simulation results show that the shrinkage estimator behaves better than the best of the two combined ones. We also propose some estimators for the parameters of the noise model. An empirical study based on stocks listed in the Dow Jones Industrials shows the relevance of accounting for possible time dependence in the noise process. Chapters 2, 3 and 4 pertain to the generalized method of moments based on the characteristic function. In fact, the likelihood functions of many financial econometrics models are not known in close form. For example, this is the case for the stable distribution and a discretely observed continuous time model. In these cases, one may estimate the parameter of interest by specifying a moment condition based on the difference between the theoretical (conditional) characteristic function and its empirical counterpart. The challenge is then to exploit the whole continuum of moment conditions hence defined to achieve the maximum likelihood efficiency. This problem has been solved in Carrasco and Florens (2000) who propose the CGMM procedure. The objective function of the CGMM is a quadrqtic form on the Hilbert space defined by the moment function. That objective function depends on a Tikhonov-type regularized inverse of the covariance operator associated with the moment function. Carrasco and Florens (2000) have shown that the estimator obtained by minimizing the proposed objective function is asymptotically as efficient as the maximum likelihood estimator provided that the regularization parameter (α) converges to zero as the sample size goes to infinity. However, the nature of this objective function raises two important questions. First of all, how do we select α in practice? And secondly, how do we implement the CGMM when the multiplicity (d) of the integrals embedded in the objective-function d is large. These questions are tackled in the last three chapters of the thesis. In Chapter 2, we propose to choose α by minimizing the approximate mean square error (MSE) of the estimator. Following an approach similar to Newey and Smith (2004), we derive a higher-order expansion of the estimator from which we characterize the finite sample dependence of the MSE on α. We provide two data-driven methods for selecting the regularization parameter in practice. The first one relies on the higher-order expansion of the MSE whereas the second one uses only simulations. We show that our simulation technique delivers a consistent estimator of α. Our Monte Carlo simulations confirm the importance of the optimal selection of α. The goal of Chapter 3 is to illustrate how to efficiently implement the CGMM for d≤2. To start with, we review the consistency and asymptotic normality properties of the CGMM estimator. Next we suggest some numerical recipes for its implementation. Finally, we carry out a simulation study with the stable distribution that confirms the accuracy of the CGMM as an inference method. An empirical application based on the autoregressive variance Gamma model led to a well-known conclusion: investors require a positive premium for bearing the expected risk while a negative premium is attached to the unexpected risk. In implementing the characteristic function based CGMM, a major difficulty lies in the evaluation of the multiple integrals embedded in the objective function. Numerical quadratures are among the most accurate methods that can be used in the present context. Unfortunately, the number of quadrature points grows exponentially with d. When the data generating process is Markov or dependent, the accurate implementation of the CGMM becomes roughly unfeasible when d≥3. In Chapter 4, we propose a strategy that consists in creating univariate samples by taking a linear combination of the elements of the original vector process. The weights of the linear combinations are drawn from a normalized set of ℝ^{d}. Each univariate index generated in this way is called a frequency domain bootstrap sample that can be used to compute an estimator of the parameter of interest. Finally, all the possible estimators obtained in this fashion can be aggregated to obtain the final estimator. The optimal aggregation rule is discussed in the paper. The overall method is illustrated by a simulation study and an empirical application based on autoregressive Gamma models. This thesis makes an extensive use of the bootstrap, a technique according to which the statistical properties of an unknown distribution can be estimated from an estimate of that distribution. It is thus possible to improve our simulations and empirical results by using the state-of-the-art refinements of the bootstrap methodology.
56

Affine and generalized affine models : Theory and applications

Feunou Kamkui, Bruno January 2009 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
57

Migration-development nexus : macro and micro empirical evidence / Lien migration-développement : une approche empirique macro et micro

Louis, Maryse 12 December 2013 (has links)
Cette thèse examine la relation complexe et la causalité entre la migration et le développement, sujet d'actualité vus les flux croissants de migrants et les transferts de fonds privés. La revue de la littérature théorique et empirique montre la complexité de cette relation, et l’absence de consensus dégagé par les travaux menés sur les causes et les effets de la migration sur le développement. Sur les causes de migration, une première estimation empirique montre qu’elle fait partie intégrante du processus de développement et n’est donc pas une simple conséquence de faibles niveaux de développement: le niveau de développement des pays d'origine s’accroissant, les aspirations et les capabilités des populations augmentent et si celles-ci font face à l'absence d’opportunités, elles vont migrer à condition d’en avoir les capabilités (compétences requises, moyens financiers, politiques de migration, etc.). Concernant l’impact de la migration, une deuxième estimation empirique montre un effet positif sur le développement via les transferts privés. Les modèles indiquent que leur contribution se fait à travers deux principaux canaux, l'investissement en capital et le capital humain (éducation et santé), lesquels sont susceptibles de permettre un développement à long terme des pays d'origine. Au niveau micro, une troisième série de modèles étudie le mécanisme de cet impact au niveau de ménages, à partir du cas de l'Egypte. Ces modèles confirment l'importance des transferts privés sur les niveaux d'éducation et de santé dans les ménages qui les reçoivent. Ces résultats sont censés contribuer à la compréhension de cette relation complexe entre migration et développement. / This thesis is concerned with the causal and complex relation between migration and development. A timely subject, especially with increasing flows of migrants and the remittances these migrants send home. Both the theoretical and empirical literature reviews address the complexity of this relation but consensuses on the causes and impacts of migration on development are generally inconclusive. On the causes of migration, our first empirical estimation shows that migration is part of the development process and not a simple result of its low levels: the increasing development level of the home countries increase the aspirations and capabilities of their populations and if these are faced with lack of opportunities at home, individuals seek migration provided they have the right capabilities (skills required, financial means, migration policies, etc.). On the impact of migration, our second empirical estimation gives evidence of a positive impact through remittances on the development of the home countries. The models show the positive contributions of remittances towards development through two main channels: capital investment and human capital (education and health). These two channels are believed to achieve long-term development of the home countries. At the micro level, we look at the mechanism of this impact at the household level, addressing the case study of Egypt. Our third models give evidence of the importance of these remittances in increasing both education and health status of the recipients’ households’. These findings are believed to make a contribution towards the understanding of this complex relation between migration and development.
58

Etude mathématique et numérique de modèles de transport : application à la spintronique

El Hajj, Raymond 03 September 2008 (has links) (PDF)
Ce travail de thèse comporte trois parties. La partie principale s'intéresse au transport des courants polarisés en spin dans des matériaux à base de semi-conducteurs. Nous dérivons et analysons une hiérarchie des modèles allant du niveau microscopique au niveau macroscopique et tenant compte des différents mécanismes de rotation et de relaxation du vecteur spin dans les semi-conducteurs. Les mécanismes essentiels pris en compte sont les couplages spin-orbite et les interactions avec renversement de spin (spin-flip interactions). Une analyse semi-classique (via la transformation de Wigner) de l'équation de Schrödinger avec hamiltonien spin-orbite est présentée. Au niveau cinétique, l'équation de Vlasov (ou Boltzmann) spinorielle est une équation à valeur dans l'ensemble des matrices carrées d'ordre deux hermitiennes et positives. Partant ensuite de la spinor forme de l'équation de Boltzmann (avec différents opérateurs de collisions avec et sans renversement du vecteur spin) et par des techniques d'asymptotiques de diffusion, nous dérivons et analysons plusieurs modèles macroscopiques. Ils sont de type dérive-diffusion, SHE, Energie-Transport, à deux composantes ou spinoriels conservant des effets de rotation et de relaxation du vecteur spin. Nous validons ensuite ces modèles par des cas tests numériques. Deux applications numériques sont présentées : la simulation d'un transistor à effet de rotation de spin et l'étude de l'effet d'accumulation de spin à l'interface entre deux couches semi-conductrices différemment dopées. Dans la seconde partie, nous considérons une équation cinétique de type Boltzmann linéaire dans des domaines où un champ magnétique fort est appliqué. Nous étudions la limite de diffusion en supposant que le champ magnétique est unidirectionnel et tend vers l'infini. Le modèle obtenu est un modèle macroscopique constitué d'une équation diffusive dans la direction parallèle au champ magnétique et d'une dérive représentant l'effet centre-guide en présence d'un champ électrique dans la direction perpendiculaire. Le terme de diffusion contient des moyennes de giration de l'opérateur de collisions utilisé. Nous prouvons la convergence en utilisant des techniques d'entropie pour traiter le comportement diffusif, et en conjuguant par les rotations locales induites par le champ magnétique pour tenir compte des oscillations. Dans la troisième partie de cette thèse, Nous nous intéressons à la description du potentiel de confinement dans des gas d'électrons bidimensionnels. Nous étudions la limite faible longueur de Debye (ou faible température) du système de Schrödinger-Poisson unidimensionnel stationnaire sur un intervalle borné. Les électrons sont supposés dans un mélange d'états avec une statistique de Boltzmann (ou de Fermi-Dirac). En utilisant différentes reformulations du système comme des problèmes de minimisation convexe, nous montrons qu'asymptotiquement seul le premier niveau d'énergie est occupé. Le potentiel électrostatique converge vers une couche limite avec un profil calculé à l'aide d'un système de Schrödinger-Poisson sur le demi axe réel.
59

Propagation de la lumière en milieu aléatoire. Rôle de l'absorption, de la diffusion dépendante et du couplage surface-volume

Durant, Stéphane 24 February 2003 (has links) (PDF)
L'étude de la propagation de la lumière à travers un milieu diffusant est un sujet de recherche d'une portée à la fois fondamentale et appliquée : - fondamentale pour l'étude des phénomènes de transport en général; - et appliquée par exemple pour évaluer les propriétés radiatives de revêtements (comme des peintures diffusantes), pour faire de l'imagerie à travers un milieu diffusant (tissus vivants) etc... De manière générale, la lumière est diffusée (scattered en anglais) lorsqu'elle se propage dans un milieu hétérogène. Du point de vue de la théorie électromagnétique, un milieu est dit hétérogène quand l'indice de réfraction varie spatialement. En principe, la solution exacte du problème s'obtient par la résolution numérique des équations de Maxwell, mais si le système hétérogène étudié dépasse en taille quelques longueurs d'onde, alors le nombre d'inconnues est beaucoup trop important pour que l'on puisse résoudre exactement le problème. Il est nécessaire de moyenner les propriétés de diffusion du système. Pour un milieu fortement diffusant, et de taille macroscopique, on peut décrire phénoménologiquement le transport de la lumière au moyen d'une équation de diffusion (diffusion en anglais) tout comme est décrit le transport de chaleur ou de masse. On peut aussi décrire le transport de la lumière au moyen d'une Equation de Transfert Radiatif (ETR) plus générale que l'équation de la diffusion. Cette équation, une fois résolue, donne des résultats qui sont en très bon accord avec l'expérience si les paramètres de cette équation sont correctement évalués.<br /><br />La majeure partie de cette thèse est consacrée à cet aspect : la détermination des paramètres de l'ETR pour un milieu contenant des particules de taille comparable à la longueur d'onde, aléatoirement disposées dans un milieu absorbant. Alors que les modèles pour l'obtention de ces paramètres décrits dans la littérature en présence d'absorption sont tous phénoménologiques, nous présentons une méthode basée sur une théorie de champ rigoureuse et qui permet de définir sans ambiguïté ces paramètres. Nous analysons par ailleurs le rôle des corrélations en milieu absorbant (diffusion dépendante).<br /><br />Nous nous intéressons aux milieux fortement chargés pour lesquels les corrélations sur les positions des diffuseurs jouent un rôle fondamental et rendent le calcul très complexe. Nous présentons les premiers pas d'une méthode numérique capable de prendre en compte toutes les corrélations entre les paires de particules, ce qui permet de calculer le coefficient d'extinction au delà de l'approximation de la diffusion indépendante.<br /><br />Enfin, nous cherchons à évaluer les propriétés radiatives d'un système couramment rencontré : celui d'une couche diffusante a la fois en surface et en volume. Nous étudions en particulier le rôle de la diffusion multiple entre l'interface rugueuse et le volume chargé.
60

Efficient estimation using the characteristic function : theory and applications with high frequency data

Kotchoni, Rachidi 05 1900 (has links)
Nous abordons deux sujets distincts dans cette thèse: l'estimation de la volatilité des prix d'actifs financiers à partir des données à haute fréquence, et l'estimation des paramétres d'un processus aléatoire à partir de sa fonction caractéristique. Le chapitre 1 s'intéresse à l'estimation de la volatilité des prix d'actifs. Nous supposons que les données à haute fréquence disponibles sont entachées de bruit de microstructure. Les propriétés que l'on prête au bruit sont déterminantes dans le choix de l'estimateur de la volatilité. Dans ce chapitre, nous spécifions un nouveau modèle dynamique pour le bruit de microstructure qui intègre trois propriétés importantes: (i) le bruit peut être autocorrélé, (ii) le retard maximal au delà duquel l'autocorrélation est nulle peut être une fonction croissante de la fréquence journalière d'observations; (iii) le bruit peut avoir une composante correlée avec le rendement efficient. Cette dernière composante est alors dite endogène. Ce modèle se différencie de ceux existant en ceci qu'il implique que l'autocorrélation d'ordre 1 du bruit converge vers 1 lorsque la fréquence journalière d'observation tend vers l'infini. Nous utilisons le cadre semi-paramétrique ainsi défini pour dériver un nouvel estimateur de la volatilité intégrée baptisée "estimateur shrinkage". Cet estimateur se présente sous la forme d'une combinaison linéaire optimale de deux estimateurs aux propriétés différentes, l'optimalité étant défini en termes de minimisation de la variance. Les simulations indiquent que l'estimateur shrinkage a une variance plus petite que le meilleur des deux estimateurs initiaux. Des estimateurs sont également proposés pour les paramètres du modèle de microstructure. Nous clôturons ce chapitre par une application empirique basée sur des actifs du Dow Jones Industrials. Les résultats indiquent qu'il est pertinent de tenir compte de la dépendance temporelle du bruit de microstructure dans le processus d'estimation de la volatilité. Les chapitres 2, 3 et 4 s'inscrivent dans la littérature économétrique qui traite de la méthode des moments généralisés. En effet, on rencontre en finance des modèles dont la fonction de vraisemblance n'est pas connue. On peut citer en guise d'exemple la loi stable ainsi que les modèles de diffusion observés en temps discrets. Les méthodes d'inférence basées sur la fonction caractéristique peuvent être envisagées dans ces cas. Typiquement, on spécifie une condition de moment basée sur la différence entre la fonction caractéristique (conditionnelle) théorique et sa contrepartie empirique. Le défit ici est d'exploiter au mieux le continuum de conditions de moment ainsi spécifié pour atteindre la même efficacité que le maximum de vraisemblance dans les inférences. Ce défit a été relevé par Carrasco et Florens (2000) qui ont proposé la procédure CGMM (continuum GMM). La fonction objectif que ces auteurs proposent est une forme quadratique hilbertienne qui fait intervenir l'opérateur inverse de covariance associé au continuum de condition de moments. Cet opérateur inverse est régularisé à la Tikhonov pour en assurer l'existence globale et la continuité. Carrasco et Florens (2000) ont montré que l'estimateur obtenu en minimisant cette forme quadratique est asymptotiquement aussi efficace que l'estimateur du maximum de vraisemblance si le paramètre de régularisation (α) tend vers zéro lorsque la taille de l'échatillon tend vers l'infini. La nature de la fonction objectif du CGMM soulève deux questions importantes. La première est celle de la calibration de α en pratique, et la seconde est liée à la présence d'intégrales multiples dans l'expression de la fonction objectif. C'est à ces deux problématiques qu'essayent de répondent les trois derniers chapitres de la présente thèse. Dans le chapitre 2, nous proposons une méthode de calibration de α basée sur la minimisation de l'erreur quadratique moyenne (EQM) de l'estimateur. Nous suivons une approche similaire à celle de Newey et Smith (2004) pour calculer un développement d'ordre supérieur de l'EQM de l'estimateur CGMM de sorte à pouvoir examiner sa dépendance en α en échantillon fini. Nous proposons ensuite deux méthodes pour choisir α en pratique. La première se base sur le développement de l'EQM, et la seconde se base sur des simulations Monte Carlo. Nous montrons que la méthode Monte Carlo délivre un estimateur convergent de α optimal. Nos simulations confirment la pertinence de la calibration de α en pratique. Le chapitre 3 essaye de vulgariser la théorie du chapitre 2 pour les modèles univariés ou bivariés. Nous commençons par passer en revue les propriétés de convergence et de normalité asymptotique de l'estimateur CGMM. Nous proposons ensuite des recettes numériques pour l'implémentation. Enfin, nous conduisons des simulations Monte Carlo basée sur la loi stable. Ces simulations démontrent que le CGMM est une méthode fiable d'inférence. En guise d'application empirique, nous estimons par CGMM un modèle de variance autorégressif Gamma. Les résultats d'estimation confirment un résultat bien connu en finance: le rendement est positivement corrélé au risque espéré et négativement corrélé au choc sur la volatilité. Lorsqu'on implémente le CGMM, une difficulté majeure réside dans l'évaluation numérique itérative des intégrales multiples présentes dans la fonction objectif. Les méthodes de quadrature sont en principe parmi les plus précises que l'on puisse utiliser dans le présent contexte. Malheureusement, le nombre de points de quadrature augmente exponentiellement en fonction de la dimensionalité (d) des intégrales. L'utilisation du CGMM devient pratiquement impossible dans les modèles multivariés et non markoviens où d≥3. Dans le chapitre 4, nous proposons une procédure alternative baptisée "reéchantillonnage dans le domaine fréquentielle" qui consiste à fabriquer des échantillons univariés en prenant une combinaison linéaire des éléments du vecteur initial, les poids de la combinaison linéaire étant tirés aléatoirement dans un sous-espace normalisé de ℝ^{d}. Chaque échantillon ainsi généré est utilisé pour produire un estimateur du paramètre d'intérêt. L'estimateur final que nous proposons est une combinaison linéaire optimale de tous les estimateurs ainsi obtenus. Finalement, nous proposons une étude par simulation et une application empirique basées sur des modèles autorégressifs Gamma. Dans l'ensemble, nous faisons une utilisation intensive du bootstrap, une technique selon laquelle les propriétés statistiques d'une distribution inconnue peuvent être estimées à partir d'un estimé de cette distribution. Nos résultats empiriques peuvent donc en principe être améliorés en faisant appel aux connaissances les plus récentes dans le domaine du bootstrap. / In estimating the integrated volatility of financial assets using noisy high frequency data, the time series properties assumed for the microstructure noise determines the proper choice of the volatility estimator. In the first chapter of the current thesis, we propose a new model for the microstructure noise with three important features. First of all, our model assumes that the noise is L-dependent. Secondly, the memory lag L is allowed to increase with the sampling frequency. And thirdly, the noise may include an endogenous part, that is, a piece that is correlated with the latent returns. The main difference between this microstructure model and existing ones is that it implies a first order autocorrelation that converges to 1 as the sampling frequency goes to infinity. We use this semi-parametric model to derive a new shrinkage estimator for the integrated volatility. The proposed estimator makes an optimal signal-to-noise trade-off by combining a consistent estimators with an inconsistent one. Simulation results show that the shrinkage estimator behaves better than the best of the two combined ones. We also propose some estimators for the parameters of the noise model. An empirical study based on stocks listed in the Dow Jones Industrials shows the relevance of accounting for possible time dependence in the noise process. Chapters 2, 3 and 4 pertain to the generalized method of moments based on the characteristic function. In fact, the likelihood functions of many financial econometrics models are not known in close form. For example, this is the case for the stable distribution and a discretely observed continuous time model. In these cases, one may estimate the parameter of interest by specifying a moment condition based on the difference between the theoretical (conditional) characteristic function and its empirical counterpart. The challenge is then to exploit the whole continuum of moment conditions hence defined to achieve the maximum likelihood efficiency. This problem has been solved in Carrasco and Florens (2000) who propose the CGMM procedure. The objective function of the CGMM is a quadrqtic form on the Hilbert space defined by the moment function. That objective function depends on a Tikhonov-type regularized inverse of the covariance operator associated with the moment function. Carrasco and Florens (2000) have shown that the estimator obtained by minimizing the proposed objective function is asymptotically as efficient as the maximum likelihood estimator provided that the regularization parameter (α) converges to zero as the sample size goes to infinity. However, the nature of this objective function raises two important questions. First of all, how do we select α in practice? And secondly, how do we implement the CGMM when the multiplicity (d) of the integrals embedded in the objective-function d is large. These questions are tackled in the last three chapters of the thesis. In Chapter 2, we propose to choose α by minimizing the approximate mean square error (MSE) of the estimator. Following an approach similar to Newey and Smith (2004), we derive a higher-order expansion of the estimator from which we characterize the finite sample dependence of the MSE on α. We provide two data-driven methods for selecting the regularization parameter in practice. The first one relies on the higher-order expansion of the MSE whereas the second one uses only simulations. We show that our simulation technique delivers a consistent estimator of α. Our Monte Carlo simulations confirm the importance of the optimal selection of α. The goal of Chapter 3 is to illustrate how to efficiently implement the CGMM for d≤2. To start with, we review the consistency and asymptotic normality properties of the CGMM estimator. Next we suggest some numerical recipes for its implementation. Finally, we carry out a simulation study with the stable distribution that confirms the accuracy of the CGMM as an inference method. An empirical application based on the autoregressive variance Gamma model led to a well-known conclusion: investors require a positive premium for bearing the expected risk while a negative premium is attached to the unexpected risk. In implementing the characteristic function based CGMM, a major difficulty lies in the evaluation of the multiple integrals embedded in the objective function. Numerical quadratures are among the most accurate methods that can be used in the present context. Unfortunately, the number of quadrature points grows exponentially with d. When the data generating process is Markov or dependent, the accurate implementation of the CGMM becomes roughly unfeasible when d≥3. In Chapter 4, we propose a strategy that consists in creating univariate samples by taking a linear combination of the elements of the original vector process. The weights of the linear combinations are drawn from a normalized set of ℝ^{d}. Each univariate index generated in this way is called a frequency domain bootstrap sample that can be used to compute an estimator of the parameter of interest. Finally, all the possible estimators obtained in this fashion can be aggregated to obtain the final estimator. The optimal aggregation rule is discussed in the paper. The overall method is illustrated by a simulation study and an empirical application based on autoregressive Gamma models. This thesis makes an extensive use of the bootstrap, a technique according to which the statistical properties of an unknown distribution can be estimated from an estimate of that distribution. It is thus possible to improve our simulations and empirical results by using the state-of-the-art refinements of the bootstrap methodology. / The attached file is created with Scientific Workplace Latex

Page generated in 0.1521 seconds