• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • 1
  • 1
  • Tagged with
  • 5
  • 5
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modélisation objective de la localisation des déformations et de la fissuration des structures en béton soumises à des chargements statiques ou dynamiques

Giry, Cedric 10 November 2011 (has links) (PDF)
Dans une problématique d'analyse de la durabilité des structures en béton armé, la quantification de la localisation des déformations et des propriétés des fissures sont deux points clés. Ce travail présente une méthode permettant, dans le cadre de la mécanique des milieux continus, d'améliorer la description de l'évolution de la localisation des déformations. En se basant sur une approche continue du problème, l'évolution des nonlinéarités dans le béton est décrite au travers d'un modèle d'endommagement régularisé. Pour améliorer la description de la localisation des déformations, une modification de la méthode de régularisation nonlocale intégrale sur les variables internes est proposée. L'influence de l'état de contrainte sur les interactions nonlocales est introduite dans la régularisation, afin de prendre en compte la dégradation de la structure ainsi que l'influence des conditions aux limites sur les interactions nonlocales. Cette méthode, implantée dans le code aux éléments finis Cast3M, est validée sur différents cas tests analysant l'évolution des nonlinéarités de l'enclenchement de l'endommagement jusqu'à la rupture et permet notamment de résoudre des pathologies identifiées pour la méthode nonlocale originale. La comparaison avec des résultats expérimentaux montre également la capacité du modèle à décrire l'évolution de la fissuration dans une structure. Le modèle développé est ensuite utilisé pour analyser le comportement de structures en béton armé et sert de base pour introduire une description de la fissuration dans une modélisation simplifiée de type poutre multifibre. A partir de calcul 3D sur des éléments en béton armé utilisant le modèle développé, une loi uniaxiale est identifiée pour déterminer la fissuration dans une fibre en fonction de l'énergie dissipée par le modèle d'endommagement. Une comparaison avec des résultats expérimentaux est effectuée et montre la capacité de cette approche simplifiée à estimer la fissuration.
2

Modélisation objective de la localisation des déformations et de la fissuration des structures en béton soumises à des chargements statiques ou dynamiques / Objective modelisation of localized deformations and fracture in reinforced concrete structures

Giry, Cedric 10 November 2011 (has links)
Dans une problématique d'analyse de la durabilité des structures en béton armé, la quantification de la localisation des déformations et des propriétés des fissures sont deux points clés. Ce travail présente une méthode permettant, dans le cadre de la mécanique des milieux continus, d'améliorer la description de l'évolution de la localisation des déformations. En se basant sur une approche continue du problème, l'évolution des nonlinéarités dans le béton est décrite au travers d'un modèle d'endommagement régularisé. Pour améliorer la description de la localisation des déformations, une modification de la méthode de régularisation nonlocale intégrale sur les variables internes est proposée. L'influence de l'état de contrainte sur les interactions nonlocales est introduite dans la régularisation, afin de prendre en compte la dégradation de la structure ainsi que l'influence des conditions aux limites sur les interactions nonlocales. Cette méthode, implantée dans le code aux éléments finis Cast3M, est validée sur différents cas tests analysant l'évolution des nonlinéarités de l'enclenchement de l'endommagement jusqu'à la rupture et permet notamment de résoudre des pathologies identifiées pour la méthode nonlocale originale. La comparaison avec des résultats expérimentaux montre également la capacité du modèle à décrire l'évolution de la fissuration dans une structure. Le modèle développé est ensuite utilisé pour analyser le comportement de structures en béton armé et sert de base pour introduire une description de la fissuration dans une modélisation simplifiée de type poutre multifibre. A partir de calcul 3D sur des éléments en béton armé utilisant le modèle développé, une loi uniaxiale est identifiée pour déterminer la fissuration dans une fibre en fonction de l'énergie dissipée par le modèle d'endommagement. Une comparaison avec des résultats expérimentaux est effectuée et montre la capacité de cette approche simplifiée à estimer la fissuration. / For the durability analysis of reinforced concrete structures, the modelling of strain localization and the estimation of cracking properties are hot topics. This work introduces a method allowing, in the framework of continuous mechanics, to improve the description of the evolution of strain localization. Based on a continuous description of the problem, the evolution of nonlinearities in concrete is described with a regularized damage model. In order to improve the description of strain localization, a modification of the nonlocal integral regularization method is proposed. The influence of the stress state on the nonlocal interactions is introduced in the regularization method, in order to take into account the degradation of the structure (decrease of the bearing capacities) as well as the influence of free boundary conditions. This method, implemented in the finite element code Cast3M, is validated against several cases of study, by analyzing the evolution of nonlinearities from damage initiation up to failure. It allows solving several pathologies pointed out for the original nonlocal method. The comparison with experimental results shows also the capacity of the proposed model to describe the evolution of cracking in a structure. Then, the model developed is used to analyse the behaviour of reinforced concrete structures and to develop a method to quantify cracking in a multifiber beam element modelling. From 3D calculation on reinforced concrete element with the new nonlocal model developed, a uniaxial law is identified in order to estimate cracking as a function of the energy dissipated by the damage model. A comparison with experimental data is performed and shows the potentiality of this simplified approach to estimate cracking.
3

Nonparametric estimation of risk neutral density

DJOSSABA, ADJIMON MARCEL 10 1900 (has links)
Ce mémoire vise à estimer la densité neutre au risque (Risk neutral density (RND) en anglais) par une approche non paramétrique tout en tenant compte de l’endogénéité. Les prix transversaux des options européennes sont utilisés pour l’estimation. Le modèle principal considéré est la régression linéaire fonctionnelle. Nous montrons comment utiliser des variables instrumentales dans ce modèle pour corriger l’endogénéité. En outre, nous avons intégré des variables instrumentales dans le modèle approximant le RND par l’utilisation des fonctions d’Hermite à des fins de comparaison des résultats. Pour garantir un estimateur stable, nous utilisons la technique de régularisation de Tikhonov. Ensuite, nous effectuons des simulations de Monte-Carlo pour étudier l’impact des différents types de distribution RND sur les résultats obtenus. Plus précisément, nous analysons une distribution de mélange lognormale et une distribution de smile de Black-Scholes. Les résultats des simulations démontrent que l’estimateur utilisant des variables instrumentales pour corriger l’endogénéité est plus performant que l’alternative qui ne les utilise pas. En outre, les résultats de la distribution de smile de Black-Scholes sont plus performants que ceux de la distribution de mélange log-normale. Enfin, S&P 500 options sont utilisées pour une application de l’estimateur. / This thesis aims to estimate the risk-neutral density (RND) through a non-parametric approach while accounting for endogeneity. The cross-sectional prices of European options are used for the estimation. The primary model under consideration is functional linear regression. We have demonstrated the use of instrumental variables in this model to address endogeneity. Additionally, we have integrated instrumental variables into the model approximating RND through the use of Hermite functions for the purpose of result comparison. To ensure a stable estimator, we employ the Tikhonov regularization technique. Following this, we conduct Monte- Carlo simulations to investigate the impact of different RND distribution types on the obtained results. Specifically, we analyze a lognormal mixture distribution and a Black-Scholes smile distribution. The simulation results demonstrate that the estimator utilizing instrumental variables to adjust for endogeneity outperforms the non-adjusted alternative. Additionally, outcomes from the Black-Scholes smile distribution exhibit superior performance compared to those from the log-normal mixture distribution. Finally, S&P 500 options are used for an application of the estimator.
4

Inférence statistique en grande dimension pour des modèles structurels. Modèles linéaires généralisés parcimonieux, méthode PLS et polynômes orthogonaux et détection de communautés dans des graphes. / Statistical inference for structural models in high dimension. Sparse generalized linear models, PLS through orthogonal polynomials and community detection in graphs

Blazere, Melanie 01 July 2015 (has links)
Cette thèse s'inscrit dans le cadre de l'analyse statistique de données en grande dimension. Nous avons en effet aujourd'hui accès à un nombre toujours plus important d'information. L'enjeu majeur repose alors sur notre capacité à explorer de vastes quantités de données et à en inférer notamment les structures de dépendance. L'objet de cette thèse est d'étudier et d'apporter des garanties théoriques à certaines méthodes d'estimation de structures de dépendance de données en grande dimension.La première partie de la thèse est consacrée à l'étude de modèles parcimonieux et aux méthodes de type Lasso. Après avoir présenté les résultats importants sur ce sujet dans le chapitre 1, nous généralisons le cas gaussien à des modèles exponentiels généraux. La contribution majeure à cette partie est présentée dans le chapitre 2 et consiste en l'établissement d'inégalités oracles pour une procédure Group Lasso appliquée aux modèles linéaires généralisés. Ces résultats montrent les bonnes performances de cet estimateur sous certaines conditions sur le modèle et sont illustrés dans le cas du modèle Poissonien. Dans la deuxième partie de la thèse, nous revenons au modèle de régression linéaire, toujours en grande dimension mais l'hypothèse de parcimonie est cette fois remplacée par l'existence d'une structure de faible dimension sous-jacente aux données. Nous nous penchons dans cette partie plus particulièrement sur la méthode PLS qui cherche à trouver une décomposition optimale des prédicteurs étant donné un vecteur réponse. Nous rappelons les fondements de la méthode dans le chapitre 3. La contribution majeure à cette partie consiste en l'établissement pour la PLS d'une expression analytique explicite de la structure de dépendance liant les prédicteurs à la réponse. Les deux chapitres suivants illustrent la puissance de cette formule aux travers de nouveaux résultats théoriques sur la PLS . Dans une troisième et dernière partie, nous nous intéressons à la modélisation de structures au travers de graphes et plus particulièrement à la détection de communautés. Après avoir dressé un état de l'art du sujet, nous portons notre attention sur une méthode en particulier connue sous le nom de spectral clustering et qui permet de partitionner les noeuds d'un graphe en se basant sur une matrice de similarité. Nous proposons dans cette thèse une adaptation de cette méthode basée sur l'utilisation d'une pénalité de type l1. Nous illustrons notre méthode sur des simulations. / This thesis falls within the context of high-dimensional data analysis. Nowadays we have access to an increasing amount of information. The major challenge relies on our ability to explore a huge amount of data and to infer their dependency structures.The purpose of this thesis is to study and provide theoretical guarantees to some specific methods that aim at estimating dependency structures for high-dimensional data. The first part of the thesis is devoted to the study of sparse models through Lasso-type methods. In Chapter 1, we present the main results on this topic and then we generalize the Gaussian case to any distribution from the exponential family. The major contribution to this field is presented in Chapter 2 and consists in oracle inequalities for a Group Lasso procedure applied to generalized linear models. These results show that this estimator achieves good performances under some specific conditions on the model. We illustrate this part by considering the case of the Poisson model. The second part concerns linear regression in high dimension but the sparsity assumptions is replaced by a low dimensional structure underlying the data. We focus in particular on the PLS method that attempts to find an optimal decomposition of the predictors given a response. We recall the main idea in Chapter 3. The major contribution to this part consists in a new explicit analytical expression of the dependency structure that links the predictors to the response. The next two chapters illustrate the power of this formula by emphasising new theoretical results for PLS. The third and last part is dedicated to graphs modelling and especially to community detection. After presenting the main trends on this topic, we draw our attention to Spectral Clustering that allows to cluster nodes of a graph with respect to a similarity matrix. In this thesis, we suggest an alternative to this method by considering a $l_1$ penalty. We illustrate this method through simulations.
5

Essays in dynamic panel data models and labor supply

Nayihouba, Kolobadia Ada 08 1900 (has links)
Cette thèse est organisée en trois chapitres. Les deux premiers proposent une approche régularisée pour l’estimation du modèle de données de panel dynamique : l’estimateur GMM et l’estimateur LIML. Le dernier chapitre de la thèse est une application de la méthode de régularisation à l’estimation des élasticités de l’offre de travail en utilisant des modèles de pseudo-données de panel. Dans un modèle de panel dynamique, le nombre de conditions de moments augmente rapidement avec la dimension temporelle du panel conduisant à une matrice de covariance des instruments de grande dimension. L’inversion d’une telle matrice pour calculer l’estimateur affecte négativement les propriétés de l’estimateur en échantillon fini. Comme solution à ce problème, nous proposons une approche par la régularisation qui consiste à utiliser une inverse généralisée de la matrice de covariance au lieu de son inverse classique. Trois techniques de régularisation sont utilisées : celle des composantes principales, celle de Tikhonov qui est basée sur le Ridge régression (aussi appelée Bayesian shrinkage) et enfin celle de Landweber Fridman qui est une méthode itérative. Toutes ces techniques introduisent un paramètre de régularisation qui est similaire au paramètre de lissage dans les régressions non paramétriques. Les propriétés en echantillon fini de l’estimateur régularisé dépend de ce paramètre qui doit être sélectionné parmis plusieurs valeurs potentielles. Dans le premier chapitre (co-écrit avec Marine Carrasco), nous proposons l’estimateur GMM régularisé du modèle de panel dynamique. Sous l’hypothèse que le nombre d’individus et de périodes du panel tendent vers l’infini, nous montrons que nos estimateurs sont convergents and assymtotiquement normaux. Nous dérivons une méthode empirique de sélection du paramètrede régularisation basée sur une expansion de second ordre du l’erreur quadratique moyenne et nous démontrons l’optimalité de cette procédure de sélection. Les simulations montrent que la régularisation améliore les propriétés de l ’estimateur GMM classique. Comme application empirique, nous avons analysé l’effet du développement financier sur la croissance économique. Dans le deuxième chapitre (co-écrit avec Marine Carrasco), nous nous intéressons à l’estimateur LIML régularisé du modèle de données de panel dynamique. L’estimateur LIML est connu pour avoir de meilleures propriétés en échantillon fini que l’estimateur GMM mais son utilisation devient problématique lorsque la dimension temporelle du panel devient large. Nous dérivons les propriétes assymtotiques de l’estimateur LIML régularisé sous l’hypothèse que le nombre d’individus et de périodes du panel tendent vers l’infini. Une procédure empirique de sélection du paramètre de régularisation est aussi proposée. Les bonnes performances de l’estimateur régularisé par rapport au LIML classique (non régularisé), au GMM classique ainsi que le GMM régularisé sont confirmées par des simulations. Dans le dernier chapitre, je considère l’estimation des élasticités d’offre de travail des hommes canadiens. L’hétérogéneité inobservée ainsi que les erreurs de mesures sur les salaires et les revenus sont connues pour engendrer de l’endogéneité quand on estime les modèles d’offre de travail. Une solution fréquente à ce problème d’endogéneité consiste à régrouper les données sur la base des carastéristiques observables et d’ éffectuer les moindres carrées pondérées sur les moyennes des goupes. Il a été démontré que cet estimateur est équivalent à l’estimateur des variables instrumentales sur les données individuelles avec les indicatrices de groupe comme instruments. Donc, en présence d’un grand nombre de groupe, cet estimateur souffre de biais en échantillon fini similaire à celui de l’estimateur des variables instrumentales quand le nombre d’instruments est élevé. Profitant de cette correspondance entre l’estimateur sur les données groupées et l’estimateur des variables instrumentales sur les données individuelles, nous proposons une approche régularisée à l’estimation du modèle. Cette approche conduit à des élasticités substantiellement différentes de ceux qu’on obtient en utilisant l’estimateur sur données groupées. / This thesis is organized in three chapters. The first two chapters propose a regularization approach to the estimation of two estimators of the dynamic panel data model : the Generalized Method of Moment (GMM) estimator and the Limited Information Maximum Likelihood (LIML) estimator. The last chapter of the thesis is an application of regularization to the estimation of labor supply elasticities using pseudo panel data models. In a dynamic panel data model, the number of moment conditions increases rapidly with the time dimension, resulting in a large dimensional covariance matrix of the instruments. Inverting this large dimensional matrix to compute the estimator leads to poor finite sample properties. To address this issue, we propose a regularization approach to the estimation of such models where a generalized inverse of the covariance matrix of the intruments is used instead of its usual inverse. Three regularization schemes are used : Principal components, Tikhonov which is based on Ridge regression (also called Bayesian shrinkage) and finally Landweber Fridman which is an iterative method. All these methods involve a regularization parameter which is similar to the smoothing parameter in nonparametric regressions. The finite sample properties of the regularized estimator depends on this parameter which needs to be selected between many potential values. In the first chapter (co-authored with Marine Carrasco), we propose the regularized GMM estimator of the dynamic panel data models. Under double asymptotics, we show that our regularized estimators are consistent and asymptotically normal provided that the regularization parameter goes to zero slower than the sample size goes to infinity. We derive a data driven selection of the regularization parameter based on an approximation of the higher-order Mean Square Error and show its optimality. The simulations confirm that regularization improves the properties of the usual GMM estimator. As empirical application, we investigate the effect of financial development on economic growth. In the second chapter (co-authored with Marine Carrasco), we propose the regularized LIML estimator of the dynamic panel data model. The LIML estimator is known to have better small sample properties than the GMM estimator but its implementation becomes problematic when the time dimension of the panel becomes large. We derive the asymptotic properties of the regularized LIML under double asymptotics. A data-driven procedure to select the parameter of regularization is proposed. The good performances of the regularized LIML estimator over the usual (not regularized) LIML estimator, the usual GMM estimator and the regularized GMM estimator are confirmed by the simulations. In the last chapter, I consider the estimation of the labor supply elasticities of Canadian men through a regularization approach. Unobserved heterogeneity and measurement errors on wage and income variables are known to cause endogeneity issues in the estimation of labor supply models. A popular solution to the endogeneity issue is to group data in categories based on observable characteristics and compute the weighted least squares at the group level. This grouping estimator has been proved to be equivalent to instrumental variables (IV) estimator on the individual level data using group dummies as intruments. Hence, in presence of large number of groups, the grouping estimator exhibites a small bias similar to the one of the IV estimator in presence of many instruments. I take advantage of the correspondance between grouping estimators and the IV estimator to propose a regularization approach to the estimation of the model. Using this approach leads to wage elasticities that are substantially different from those obtained through grouping estimators.

Page generated in 0.1252 seconds