• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 5
  • 1
  • Tagged with
  • 10
  • 10
  • 5
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Application de la méthode des moments pour l'étude de la propagation non-linéaire d'impulsions dans une fibre optique

Gajadharsingh, Asshvin. 11 April 2018 (has links)
La dérivation de modèles analytiques/théoriques pour étudier des comportements complexes est primordiale dans la compréhension de n'importe quel problème. Ces modèles permettent de comprendre la dynamique en place et peuvent aussi permettre de faire des prédictions qui sont souvent fort utiles lors du design d'une expérience particulière. Ainsi, en optique, plus particulièrement en propagation d'impulsions dans une fibre optique, ces modèles se sont révélés particulièrement importants pour l'étude et la découverte de certains phénomènes comme les ondes solitaires présentes en « Dispersion Management » par exemple. Des méthodes analytiques approchées doivent souvent être utilisées pour étudier des comportements qui sortent des cas idéaux et le but de cette thèse est justement d'attaquer divers types de propagation non-linéaire d'impulsions dans une fibre optique par le biais de la même technique, soit la méthode des moments. Nous nous sommes ainsi lancés dans l'application de cette méthode pour étudier les impulsions dites « self-similar ». Par la suite, nous nous sommes attaqués aux «dispersion managed solitons (DMS) » pour finalement compléter notre étude en dérivant des lois de propagation simples mais précises pour prédire le comportement d'une impulsion quelconque lorsque soumise à divers effets linéaires et non-linéaires d'ordre supérieur. Nous avons toujours clairement démontré la justesse de nos équations et ainsi prouvé que cette méthode, très simple d'utilisation, permet de rapidement étudier divers phénomènes complexes.
2

Processus gamma étendus en vue des applications à la fiabilité / Extended gamma processes in view of application to reliability

Al Masry, Zeina 21 September 2016 (has links)
La thèse s’intéresse à l’étude du fonctionnement d’un système industriel. Il s’agit de proposer et de développer un nouveau modèle pour modéliser la dégradation accumulative d’un système. Le processus gamma standard est fréquemment utilisé pour étudier l’évolution de la détérioration d’un système. Toutefois, ce processus peut s’avérer inadapté pour décrire le phénomène de dégradation car le rapport variance sur moyenne est constant dans le temps, ce qui est relativement restrictif en pratique. Afin de surmonter cette restriction, nous proposons d’utiliser un processus gamma étendu introduit par Cinlar (1980), qui ne souffre plus de cette restriction. Mais ce dernier présente quelques difficultés techniques. A titre d’exemple, la loi d’un processus gamma étendu n’est pas connue sous une forme explicite. Ces difficultés techniques ont conduit Guida et al. (2012) à utiliser une version discrète d’un processus gamma étendu. Nous travaillons ici avec la version originale d’un processus gamma étendu en temps continu. Le but de ce mémoire est de développer des méthodes numériques permettant de quantifier les quantités fiabilistes associées et de développer des méthodes statistiques d’estimation des paramètres du modèle. Aussi, une autre partie de ce travail consiste à proposer une politique de maintenance dans le contexte d’un processus gamma étendu. / This thesis is dedicated to study the functioning of an industrial system. It is about proposing and developing a new model for modelling the accumulative degradation of a system. The standard gamma process is widely used to model the evolution of the system degradation. A notable restriction of a standard gamma process is that its variance-to-mean ratio is constant over time. This may be restrictive within an applicative context. To overcome this drawback, we propose to use an extended gamma process, which was introduced by Cinlar (1980). However, there is a cost and the use of an extended gamma process presents some technical difficulties. For example, there is no explicit formula for the probability distribution of an extended gamma process. These technical difficulties have lead Guida et al. (2012) to use a discrete version of an extended gamma process. We here propose to deal with the original continuous time version. The aim of this work is to develop numerical methods in order to compute the related reliability function and to develop statistical methods to estimate the parameters of the model. Also, another part of this work consists of proposing a maintenance policy within the context of an extended gamma process.
3

Existence, unicité, approximations de solutions d'équations cinétiques et hyperboliques

Broizat, Damien 11 July 2013 (has links) (PDF)
Les travaux de cette thèse s'inscrivent dans le contexte des systèmes de particules. Nous considérons différents systèmes physiques, décrits de manière continue, et dont la dynamique est modélisée par des équations aux dérivées partielles décrivant l'évolution temporelle de certaines quantités macroscopiques ou microscopiques, selon l'échelle de description envisagée. Dans une première partie, nous nous intéressons à une équation de type coagulation-fragmentation cinétique. Nous obtenons un résultat d'existence globale en temps, dans le cadre des solutions renormalisées de DiPerna-Lions, pour toute donnée initiale vérifiant les estimations naturelles et possédant une norme L1 et une norme Lp (p > 1) finies. La deuxième partie traite de méthodes de moments. L'objectif de ces méthodes est d'approcher un modèle cinétique par un nombre fini d'équations portant sur des quantités dépendant uniquement de la variable d'espace, et la question est de savoir comment fermer le système obtenu pour obtenir une bonne approximation de la solution du modèle cinétique. Dans un cadre linéaire, nous obtenons une méthode de fermeture explicite conduisant à un résultat de convergence rapide. Enfin, dans une troisième partie, nous travaillons sur la modélisation du trafic routier avec prise en compte de la congestion à l'aide d'un système hyperbolique avec contraintes, issu de la dynamique des gaz sans pression. En modifiant convenablement ce système, nous parvenons à modéliser des phénomènes de trafic routier "multi-voies", comme l'accélération, et la création de zones de vide. Un résultat d'existence et de stabilité des solutions de ce modèle modifié est démontré.
4

Modifications des modèles de diffusion pour une meilleure compréhension de la mesure radar sur les sols agricoles nus.

Le Morvan, Aurélie 27 May 2010 (has links) (PDF)
La télédétection radar a déjà montré son fort potentiel dans la caractérisation des états de surface et des processus hydriques. La connaissance de ces paramètres est d'un intérêt fondamental pour mieux quantifier et prévoir la répartition des pluies ainsi que pour modéliser l'érosion des sols. Plusieurs modèles ont déjà été développés (empiriques, analytiques, numériques) mais présentent encore des limitations dans la compréhension du comportement du signal radar. L'objectif de cette thèse est d'apporter des améliorations dans la modélisation de la rétrodiffusion et la description des sols agricoles nus, à l'aide de mesures terrain et d'images radar SAR. Nous avons considéré un profil d'humidité en introduisant un aspect multicouche et utilisé le modèle IEM. Nous avons montré qu'une humidité constante sur les premiers centimètres de la surface ne reflète pas la réalité terrain. Nous avons ensuite pris en compte les poches d'air présentes dans la structuration du sol en redéfinissant la constante diélectrique par l'introduction d'un composé air/sol. Ces développements ont permis de contribuer à l'amélioration des résultats de la simulation, de mieux comprendre le comportement du signal radar et les variations du coefficient linéaire liant le coefficient de rétrodiffusion à l'humidité du sol. Enfin, nous avons effectué une représentation plus réaliste des sols agricoles en incluant des mottes de terre sur les profils. A partir d'un modèle de diffusion électromagnétique numérique, basé sur la méthode des moments, nous avons étudié leur influence sur le coefficient de rétrodiffusion.
5

Optimisation d'antennes et de réseaux d'antennes planaires par gradient de forme et ensembles de niveaux (Level Sets) / Planar antenna and antenna array optimization by shape gradient and Level Set method

Zhao, Zhidong 23 November 2015 (has links)
L'objectif de cette thèse est de trouver la forme optimale d'une antenne planaire ou d'un réseau d'antennes planaires à partir de contraintes imposées (diagramme de rayonnement, gain ou directivité) ou de reconstruire la forme à partir de mesures expérimentales. L'algorithme d'optimisation développé est basé sur une méthode de type gradient et la reconstruction des contours par une méthode d'ensembles de niveaux (Level Sets) ou "contours actifs". Le problème direct est résolu en utilisant une formulation intégrale du problème électromagnétique et une méthode d'éléments finis pour la discrétisation. Le gradient de forme est calculé en utilisant deux méthodes différentes. Tout d'abord, une méthode par différences finies basée sur la dérivée à un nœud du maillage, pour une modification infinitésimale des éléments triangulaires du contour, suivant la direction de la normale extérieure. La deuxième méthode est basée sur le gradient topologique pour le calcul de la déformation des contours. Une méthode d'ensembles de niveaux avec bande étroite a été développée pour faire évoluer le contour des antennes utilisant la vitesse de déformation calculée à partir du gradient de forme. Différentes configurations d'antennes et réseaux d'antennes planaires ont été utilisées pour étudier les performances de l'algorithme d'optimisation. Des techniques de type saut de fréquence et multifréquence ont été utilisées pour optimiser la forme dans une bande de fréquence. L'optimisation de forme pour la miniaturisation d'antennes planaires concerne de nombreuses applications, en particulier, pour les réseaux réflecteurs / The objective of this thesis work is to find the optimal shape of planar antenna elements and arrays from imposed constraints (e.g. desired or imposed radiation patterns, gain or directivity) or to reconstruct the shape from experimental measurements. The optimization algorithm is based on the gradient-type method and an active contour reconstruction by means of the Level Set method. The forward problem is solved using an integral formulation of the EM problem with finite element discretization. The shape gradient is computed using two different methods: one is finite differential method based on nodal point mesh derivation with an infinitesimal modification of the triangular elements on the contour along the outward normal direction, another the topological shape gradient, which is computed based on a topological deformation on a contour. A narrow band level set method has been developed to evolve the contour of antennas and arrays using the deformation velocity computed from the shape gradient. Different configurations of antennas and antenna arrays are studied for investigating the performance of the optimization algorithm. Frequency hopping and multi-frequency techniques have been used for optimizing the shape within a frequency band. Shape optimization for planar antenna miniaturization has a large number of applications, particularly, for reflectarrays
6

Effet du risque immobilier sur les rendements boursiers canadiens

King, Daren 19 June 2018 (has links)
Ce mémoire étudie la possibilité que l'immobilier joue un rôle comme facteur de risque potentiel déterminant le rendement des actifs financiers au Canada. Ce risque étant généralement négligé dans la littérature, son rôle potentiel fut mis en lumière lors de la récente crise financière de 2007-2009. Un modèle d'évaluation d'actifs multifactoriel incorporant un facteur de risque propre à l'immobilier est construit et estimé à l'aide de la méthode des moments généralisée (GMM). Les estimations sont basées sur le rendement excédentaire de 10 portefeuilles formés à partir de 806 actions inscrites à la Bourse de Toronto en janvier 2017. La période d'étude couvre de janvier 2000 à décembre 2016. Le risque immobilier fut mesuré grâce au S&P/TSX Capped REIT Index et grâce à un indice composite prennant en compte l'ensemble des 48 REITs incris à la Bourse de Toronto en janvier 2017. Cette dernière mesure s'est avérée être la plus significative. Les résultats obtenus à la de la méthode GMM suggère fortement que le risque immobilier est l'un des facteurs explicatifs du niveau des rendements des actifs financiers canadiens.
7

Existence, unicité, approximations de solutions d'équations cinétiques et hyperboliques / Non disponible

Broizat, Damien 11 July 2013 (has links)
Les travaux de cette thèse s’inscrivent dans le contexte des systèmes de particules. Nous considérons différents systèmes physiques, décrits de manière continue, et dont la dynamique est modélisée par des équations aux dérivées partielles décrivant l’évolution temporelle de certaines quantités macroscopiques ou microscopiques, selon l’échelle de description envisagée. Dans une première partie, nous nous intéressons à une équation de type coagulation-fragmentation cinétique. Nous obtenons un résultat d’existence globale en temps, dans le cadre des solutions renormalisées de DiPerna-Lions, pour toute donnée initiale vérifiant les estimations naturelles et possédant une norme L1 et une norme Lp (p > 1) finies. La deuxième partie traite de méthodes de moments. L’objectif de ces méthodes est d’approcher un modèle cinétique par un nombre fini d’équations portant sur des quantités dépendant uniquement de la variable d’espace, et la question est de savoir comment fermer le système obtenu pour obtenir une bonne approximation de la solution du modèle cinétique. Dans un cadre linéaire, nous obtenons une méthode de fermeture explicite conduisant à un résultat de convergence rapide. Enfin, dans une troisième partie, nous travaillons sur la modélisation du trafic routier avec prise en compte de la congestion à l’aide d’un système hyperbolique avec contraintes, issu de la dynamique des gaz sans pression. En modifiant convenablement ce système, nous parvenons à modéliser des phénomènes de trafic routier "multi-voies", comme l’accélération, et la création de zones de vide. Un résultat d’existence et de stabilité des solutions de ce modèle modifié est démontré. / The context of this thesis is particle systems. We deal with different physical systems, described continuously, whose dynamics are modeled by partial differential equations. These equations follow the evolution in time of macroscopic or microscopic quantities, according to scale description. In the first part, we consider a kinetic model for coagulation-fragmentation. We obtain a global existence result, using the notion of DiPerna-Lions renormalized solutions, for initial data satisfying the natural physical bounds, and assumptions of finite L1 and Lp norm (for some p > 1). The second part deals with methods of moments. The aim of these methods is to approximate a kinetic model by a finite number of equations whose unknowns depend only on the space variable. The question is : how to close this system to get a good approximation of the solution of the kinetic model ? In a linear setting, we obtain an explicit method with linear closure relations, which leads to a fast convergence result. In the last part, we work on modeling of traffic jam taking into account the congestion, using a hyperbolic system with constraints, which occurs in the dynamics of a pressureless gas. By suitably modifying this system, we can model "multi-lane" phenomena, like acceleration, and creation of vacuum. An existence and stability result is proved on this new model.
8

Modèles euleriens et méthodes numériques pour la description des sprays polydisperses turbulents. / Eulerian modeling and numerical methods for the description of turbulent polydisperse sprays

Sabat, Macole 03 November 2016 (has links)
De nos jours, la simulation des écoulements diphasiques a de plus en plus d’importance dans les chambres de combustion aéronautiques en tant qu’un des éléments requis pour analyser et maîtriser le processus complet de combustion, afin d’améliorer la performance du moteur et de mieux prédire les émissions polluantes. Dans les applications industrielles, la modélisation du combustible liquide trouvé en aval de l’injecteur sous forme de brouillard de gouttes polydisperse, appelé spray, est de préférence faite à l’aide de méthodes Eulériennes. Ce choix s’explique par les avantages qu’offrent ces méthodes par rapport aux méthodes Lagrangiennes, notamment la convergence statistique intrinsèque, le couplage aisé avec la phase gazeuse ainsi que l’efficacité pour le calcul haute performance. Dans la présente thèse, on utilise une approche Eulérienne basée sur une fermeture au niveau cinétique de type distribution Gaussienne Anisotrope (AG). L’AG résout des moments de vitesse jusqu’au deuxième ordre et permet de capter les croisements des trajectoires (PTC) à petite échelle de manière statistique. Le système d’équations obtenu est hyperbolique, le problème est bien-posé et satisfait les conditions de réalisabilité. L’AG est comparé au modèle monocinétique (MK) d’ordre 1 en vitesse. Il est approprié pour la description des particules faiblement inertielles. Il mène à un système faiblement hyperbolique qui peut générer des singularités. Plusieurs schémas numériques, utilisés pour résoudre les systèmes hyperboliques et faible- ment hyperboliques, sont évalués. Ces schémas sont classifiés selon leur capacité à traiter les singularités naturellement présentes dans les modèles Eulériens, sans perdre l’ordre global de la méthode ni rompre les conditions de réalisabilité. L’AG est testé sur un champ turbulent 3D chargé de particules dans des simulations numériques directes. Le code ASPHODELE est utilisé pour la phase gazeuse et l’AG est implémenté dans le code MUSES3D pour le spray. Les résultats sont comparés aux de simulations Lagrangiennes de référence et aux modèle MK. L’AG est validé pour des gouttes modérément inertielles à travers des résultats qualitatifs et quantitatifs. Il s’avère prometteur pour les applications complexes comprenant des PTC à petite échelle. Finalement, l’AG est étendu à la simulation aux grandes échelles nécessaire dans les cas réels turbulents dans le domaine industriel en se basant sur un filtrage au niveau cinétique. Cette stratégie aide à garantir les conditions de réalisabilités. Des résultats préliminaires sont évalués en 2D pour tester la sensibilité des résultats LES sur les paramètres des modèles de fermetures de sous mailles. / In aeronautical combustion chambers, the ability to simulate two-phase flows gains increasing importance nowadays since it is one of the elements needed for the full understanding and prediction of the combustion process. This matter is motivated by the objective of improving the engine performance and better predicting the pollutant emissions. On the industrial scale, the description of the fuel spray found downstream of the injector is preferably done through Eulerian methods. This is due to the intrinsic statistical convergence of these methods, their natural coupling to the gas phase and their efficiency in terms of High Performance Computing compared to Lagrangian methods. In this thesis, the use of Kinetic-Based Moment Method with an Anisotropic Gaussian (AG) closure is investigated. By solving all velocity moments up to second order, this model reproduces statistically the main features of small scale Particles Trajectories Crossing (PTC). The resulting hyperbolic system of equations is mathematically well-posed and satisfies the realizability properties. This model is compared to the first order model in the KBMM hierarchy, the monokinetic model MK which is suitable of low inertia particles. The latter leads to a weakly hyperbolic system that can generate δ-shocks. Several schemes are compared for the resolution of the hyperbolic and weakly hyperbolic system of equations. These methods are assessed based on their ability to handle the naturally en- countered singularities due to the moment closures, especially without globally degenerating to lower order or violating the realizability constraints. The AG is evaluated for the Direct Numerical Simulation of 3D turbulent particle-laden flows by using ASPHODELE solver for the gas phase, and MUSES3D solver for the Eulerian spray in which the new model is implemented. The results are compared to the reference Lagrangian simulation as well as the MK results. Through the qualitative and quantitative results, the AG is found to be a predictive method for the description of moderately inertial particles and is a good candidate for complex simulations in realistic configurations where small scale PTC occurs. Finally, within the framework of industrial turbulence simulations a fully kinetic Large Eddy Simulation formalism is derived based on the AG model. This strategy of directly applying the filter on the kinetic level is helpful to devise realizability conditions. Preliminary results for the AG-LES model are evaluated in 2D, in order to investigate the sensitivity of the LES result on the subgrid closures.
9

Essays in dynamic panel data models and labor supply

Nayihouba, Kolobadia Ada 08 1900 (has links)
Cette thèse est organisée en trois chapitres. Les deux premiers proposent une approche régularisée pour l’estimation du modèle de données de panel dynamique : l’estimateur GMM et l’estimateur LIML. Le dernier chapitre de la thèse est une application de la méthode de régularisation à l’estimation des élasticités de l’offre de travail en utilisant des modèles de pseudo-données de panel. Dans un modèle de panel dynamique, le nombre de conditions de moments augmente rapidement avec la dimension temporelle du panel conduisant à une matrice de covariance des instruments de grande dimension. L’inversion d’une telle matrice pour calculer l’estimateur affecte négativement les propriétés de l’estimateur en échantillon fini. Comme solution à ce problème, nous proposons une approche par la régularisation qui consiste à utiliser une inverse généralisée de la matrice de covariance au lieu de son inverse classique. Trois techniques de régularisation sont utilisées : celle des composantes principales, celle de Tikhonov qui est basée sur le Ridge régression (aussi appelée Bayesian shrinkage) et enfin celle de Landweber Fridman qui est une méthode itérative. Toutes ces techniques introduisent un paramètre de régularisation qui est similaire au paramètre de lissage dans les régressions non paramétriques. Les propriétés en echantillon fini de l’estimateur régularisé dépend de ce paramètre qui doit être sélectionné parmis plusieurs valeurs potentielles. Dans le premier chapitre (co-écrit avec Marine Carrasco), nous proposons l’estimateur GMM régularisé du modèle de panel dynamique. Sous l’hypothèse que le nombre d’individus et de périodes du panel tendent vers l’infini, nous montrons que nos estimateurs sont convergents and assymtotiquement normaux. Nous dérivons une méthode empirique de sélection du paramètrede régularisation basée sur une expansion de second ordre du l’erreur quadratique moyenne et nous démontrons l’optimalité de cette procédure de sélection. Les simulations montrent que la régularisation améliore les propriétés de l ’estimateur GMM classique. Comme application empirique, nous avons analysé l’effet du développement financier sur la croissance économique. Dans le deuxième chapitre (co-écrit avec Marine Carrasco), nous nous intéressons à l’estimateur LIML régularisé du modèle de données de panel dynamique. L’estimateur LIML est connu pour avoir de meilleures propriétés en échantillon fini que l’estimateur GMM mais son utilisation devient problématique lorsque la dimension temporelle du panel devient large. Nous dérivons les propriétes assymtotiques de l’estimateur LIML régularisé sous l’hypothèse que le nombre d’individus et de périodes du panel tendent vers l’infini. Une procédure empirique de sélection du paramètre de régularisation est aussi proposée. Les bonnes performances de l’estimateur régularisé par rapport au LIML classique (non régularisé), au GMM classique ainsi que le GMM régularisé sont confirmées par des simulations. Dans le dernier chapitre, je considère l’estimation des élasticités d’offre de travail des hommes canadiens. L’hétérogéneité inobservée ainsi que les erreurs de mesures sur les salaires et les revenus sont connues pour engendrer de l’endogéneité quand on estime les modèles d’offre de travail. Une solution fréquente à ce problème d’endogéneité consiste à régrouper les données sur la base des carastéristiques observables et d’ éffectuer les moindres carrées pondérées sur les moyennes des goupes. Il a été démontré que cet estimateur est équivalent à l’estimateur des variables instrumentales sur les données individuelles avec les indicatrices de groupe comme instruments. Donc, en présence d’un grand nombre de groupe, cet estimateur souffre de biais en échantillon fini similaire à celui de l’estimateur des variables instrumentales quand le nombre d’instruments est élevé. Profitant de cette correspondance entre l’estimateur sur les données groupées et l’estimateur des variables instrumentales sur les données individuelles, nous proposons une approche régularisée à l’estimation du modèle. Cette approche conduit à des élasticités substantiellement différentes de ceux qu’on obtient en utilisant l’estimateur sur données groupées. / This thesis is organized in three chapters. The first two chapters propose a regularization approach to the estimation of two estimators of the dynamic panel data model : the Generalized Method of Moment (GMM) estimator and the Limited Information Maximum Likelihood (LIML) estimator. The last chapter of the thesis is an application of regularization to the estimation of labor supply elasticities using pseudo panel data models. In a dynamic panel data model, the number of moment conditions increases rapidly with the time dimension, resulting in a large dimensional covariance matrix of the instruments. Inverting this large dimensional matrix to compute the estimator leads to poor finite sample properties. To address this issue, we propose a regularization approach to the estimation of such models where a generalized inverse of the covariance matrix of the intruments is used instead of its usual inverse. Three regularization schemes are used : Principal components, Tikhonov which is based on Ridge regression (also called Bayesian shrinkage) and finally Landweber Fridman which is an iterative method. All these methods involve a regularization parameter which is similar to the smoothing parameter in nonparametric regressions. The finite sample properties of the regularized estimator depends on this parameter which needs to be selected between many potential values. In the first chapter (co-authored with Marine Carrasco), we propose the regularized GMM estimator of the dynamic panel data models. Under double asymptotics, we show that our regularized estimators are consistent and asymptotically normal provided that the regularization parameter goes to zero slower than the sample size goes to infinity. We derive a data driven selection of the regularization parameter based on an approximation of the higher-order Mean Square Error and show its optimality. The simulations confirm that regularization improves the properties of the usual GMM estimator. As empirical application, we investigate the effect of financial development on economic growth. In the second chapter (co-authored with Marine Carrasco), we propose the regularized LIML estimator of the dynamic panel data model. The LIML estimator is known to have better small sample properties than the GMM estimator but its implementation becomes problematic when the time dimension of the panel becomes large. We derive the asymptotic properties of the regularized LIML under double asymptotics. A data-driven procedure to select the parameter of regularization is proposed. The good performances of the regularized LIML estimator over the usual (not regularized) LIML estimator, the usual GMM estimator and the regularized GMM estimator are confirmed by the simulations. In the last chapter, I consider the estimation of the labor supply elasticities of Canadian men through a regularization approach. Unobserved heterogeneity and measurement errors on wage and income variables are known to cause endogeneity issues in the estimation of labor supply models. A popular solution to the endogeneity issue is to group data in categories based on observable characteristics and compute the weighted least squares at the group level. This grouping estimator has been proved to be equivalent to instrumental variables (IV) estimator on the individual level data using group dummies as intruments. Hence, in presence of large number of groups, the grouping estimator exhibites a small bias similar to the one of the IV estimator in presence of many instruments. I take advantage of the correspondance between grouping estimators and the IV estimator to propose a regularization approach to the estimation of the model. Using this approach leads to wage elasticities that are substantially different from those obtained through grouping estimators.
10

Contribution à la statistique spatiale et l'analyse de données fonctionnelles / Contribution to spatial statistics and functional data analysis

Ahmed, Mohamed Salem 12 December 2017 (has links)
Ce mémoire de thèse porte sur la statistique inférentielle des données spatiales et/ou fonctionnelles. En effet, nous nous sommes intéressés à l’estimation de paramètres inconnus de certains modèles à partir d’échantillons obtenus par un processus d’échantillonnage aléatoire ou non (stratifié), composés de variables indépendantes ou spatialement dépendantes.La spécificité des méthodes proposées réside dans le fait qu’elles tiennent compte de la nature de l’échantillon étudié (échantillon stratifié ou composé de données spatiales dépendantes).Tout d’abord, nous étudions des données à valeurs dans un espace de dimension infinie ou dites ”données fonctionnelles”. Dans un premier temps, nous étudions les modèles de choix binaires fonctionnels dans un contexte d’échantillonnage par stratification endogène (échantillonnage Cas-Témoin ou échantillonnage basé sur le choix). La spécificité de cette étude réside sur le fait que la méthode proposée prend en considération le schéma d’échantillonnage. Nous décrivons une fonction de vraisemblance conditionnelle sous l’échantillonnage considérée et une stratégie de réduction de dimension afin d’introduire une estimation du modèle par vraisemblance conditionnelle. Nous étudions les propriétés asymptotiques des estimateurs proposées ainsi que leurs applications à des données simulées et réelles. Nous nous sommes ensuite intéressés à un modèle linéaire fonctionnel spatial auto-régressif. La particularité du modèle réside dans la nature fonctionnelle de la variable explicative et la structure de la dépendance spatiale des variables de l’échantillon considéré. La procédure d’estimation que nous proposons consiste à réduire la dimension infinie de la variable explicative fonctionnelle et à maximiser une quasi-vraisemblance associée au modèle. Nous établissons la consistance, la normalité asymptotique et les performances numériques des estimateurs proposés.Dans la deuxième partie du mémoire, nous abordons des problèmes de régression et prédiction de variables dépendantes à valeurs réelles. Nous commençons par généraliser la méthode de k-plus proches voisins (k-nearest neighbors; k-NN) afin de prédire un processus spatial en des sites non-observés, en présence de co-variables spatiaux. La spécificité du prédicteur proposé est qu’il tient compte d’une hétérogénéité au niveau de la co-variable utilisée. Nous établissons la convergence presque complète avec vitesse du prédicteur et donnons des résultats numériques à l’aide de données simulées et environnementales.Nous généralisons ensuite le modèle probit partiellement linéaire pour données indépendantes à des données spatiales. Nous utilisons un processus spatial linéaire pour modéliser les perturbations du processus considéré, permettant ainsi plus de flexibilité et d’englober plusieurs types de dépendances spatiales. Nous proposons une approche d’estimation semi paramétrique basée sur une vraisemblance pondérée et la méthode des moments généralisées et en étudions les propriétés asymptotiques et performances numériques. Une étude sur la détection des facteurs de risque de cancer VADS (voies aéro-digestives supérieures)dans la région Nord de France à l’aide de modèles spatiaux à choix binaire termine notre contribution. / This thesis is about statistical inference for spatial and/or functional data. Indeed, weare interested in estimation of unknown parameters of some models from random or nonrandom(stratified) samples composed of independent or spatially dependent variables.The specificity of the proposed methods lies in the fact that they take into considerationthe considered sample nature (stratified or spatial sample).We begin by studying data valued in a space of infinite dimension or so-called ”functionaldata”. First, we study a functional binary choice model explored in a case-controlor choice-based sample design context. The specificity of this study is that the proposedmethod takes into account the sampling scheme. We describe a conditional likelihoodfunction under the sampling distribution and a reduction of dimension strategy to definea feasible conditional maximum likelihood estimator of the model. Asymptotic propertiesof the proposed estimates as well as their application to simulated and real data are given.Secondly, we explore a functional linear autoregressive spatial model whose particularityis on the functional nature of the explanatory variable and the structure of the spatialdependence. The estimation procedure consists of reducing the infinite dimension of thefunctional variable and maximizing a quasi-likelihood function. We establish the consistencyand asymptotic normality of the estimator. The usefulness of the methodology isillustrated via simulations and an application to some real data.In the second part of the thesis, we address some estimation and prediction problemsof real random spatial variables. We start by generalizing the k-nearest neighbors method,namely k-NN, to predict a spatial process at non-observed locations using some covariates.The specificity of the proposed k-NN predictor lies in the fact that it is flexible and allowsa number of heterogeneity in the covariate. We establish the almost complete convergencewith rates of the spatial predictor whose performance is ensured by an application oversimulated and environmental data. In addition, we generalize the partially linear probitmodel of independent data to the spatial case. We use a linear process for disturbancesallowing various spatial dependencies and propose a semiparametric estimation approachbased on weighted likelihood and generalized method of moments methods. We establishthe consistency and asymptotic distribution of the proposed estimators and investigate thefinite sample performance of the estimators on simulated data. We end by an applicationof spatial binary choice models to identify UADT (Upper aerodigestive tract) cancer riskfactors in the north region of France which displays the highest rates of such cancerincidence and mortality of the country.

Page generated in 0.4705 seconds