• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 114
  • 77
  • 11
  • 2
  • Tagged with
  • 211
  • 91
  • 46
  • 33
  • 33
  • 33
  • 33
  • 32
  • 32
  • 30
  • 26
  • 25
  • 24
  • 23
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

On the dynamics of some complex fluids / Sur la dynamique de quelques fluides complexes

De Anna, Francesco 30 May 2016 (has links)
Dans le cadre de cette thèse, on s'intéresse à la dynamique de quelques fluides complexes. D'une part on étudie la dynamique des cristaux liquides nématiques, en utilisant les modèles proposés par Ericksen et Leslie, Beris et Edwards, Qian et Sheng. D'autre part, on analyse un fluide complexe dont la dynamique dépend de la température et qui est modélisée par le système de Boussinesq. Les cristaux liquides sont des matériaux avec une phase de la matière intermédiaire entre les liquides et les solides qui sont des phases plus connues. Dans cette thèse, on s'intéresse à l'étude du problème de Cauchy associé à chaque système modélisant leurs hydrodynamiques. Tout d'abord on obtient des résultats d'existence et d'unicité de solutions faibles ou classiques, solutions qui sont globales en temps. Ensuite, on analyse la propagation de la régularité des données initiales pour ces solutions. Le cadre fonctionnel adopté pour les données initiales est celui des espaces de Besov homogènes, généralisant des classes d'espaces mieux connues : les espaces de Soboloev homogènes et les espaces de Hölder. Le système Ericksen-Leslie est considéré dans la version simplifiée proposée par F. Lin et C. Liu, version qui préserve les principales difficultés du système initial. On étudie ce problème en dimension supérieure ou égale à deux. On considère le système dans le cas inhomogène, c'est-à dire avec une densité variable. De plus, on s'intéresse au cas d'une densité de faible régularité qui est autorisée à présenter des discontinuités. Donc, le résultat que l'on démontre peut être mis en relation avec la dynamique des mélanges de nématiques non miscibles. On démontre l'existence globale en temps de solutions faibles de régularité invariante par changement d'échelle, en supposant une condition de petitesse sur les données initiales dans des espaces de Besov critiques. On démontre aussi l'unicité de ces solutions si de plus on suppose une condition supplémentaire de régularité pour les données initiales. Le système Beris-Edwards est analysé dans le cas bidimensionnel. On obtient l'existence et l'unicité de solutions faibles globales en temps, lorsque les données initiales sont dans des espaces de Sobolev spécifiques (sans condition de petitesse). Le niveau de régularité de ces espaces fonctionnels est adapté pour bien définir les solutions faibles. L'unicité est une question délicate et demande une estimation doublement logarithmique pour une norme sur la différence entre deux solutions dans un espace de Banach convenable. Le lemme d'Osgood permet alors de conclure à l'unicité de la solution. On obtient également un résultat de propagation de régularité d'indice positif. Afin de prendre en compte l'inertie des molécules, on considère aussi le modèle proposé par Qian et Sheng, et on étudie le cas de la dimension supérieure ou égale à deux. Ce système montre une caractéristique structurale spécifique, plus précisément la présence d'un terme inertiel, ce qui génère des difficultés significatives. On démontre l'existence d'une fonctionnelle de Lyapunov et l'existence et l'unicité de solutions classiques globales en temps, en considérant des données initiales petites. Enfin, on analyse le système de Boussinesq et on montre l'existence et l'unicité de solutions globales en temps. On considère la viscosité en fonction de la température en supposant simplement que la température initiale soit bornée, tandis que la vitesse initiale est dans des espaces de Besov avec indice de régularité critique. Les données initiales ont une composante verticale grande et satisfont à une condition de petitesse spécifique sur les composantes horizontales: elles doivent être exponentiellement petites par rapport à la composante verticale. / The present thesis is devoted to the dynamics of specific complex fluids. On the one hand we studythe dynamics of the so-called nematic liquid crystals, through the models proposed by Ericksen and Leslie, Beris and Edwards, Qian and Sheng.On the other hand we analyze the dynamics of a temperature-dependent complex fluid, whose dynamics is governed by the Boussinesq system.Nematic liquid crystals are materials exhibiting a state of matter between an ordinary fluid and a solid. In this thesis we are interested in studying the Cauchy problem associated to eachsystem modelling their hydrodynamics. At first, we establish some well-posedness results, such asexistence and uniqueness of global-in-time weak or classical solutions. Moreover we also analyzesome dynamical behaviours of these solutions, such as propagations of both higher and lowerregularities.The general framework for the initial data is that of Besov spaces, which extend the most widelyknown classes of Sobolev and Hölder spaces.The Ericksen-Leslie system is studied in a simplified form proposed by F. Lin and C. Liu,which retains the main difficulties of the original one. We consider both a two-dimensional and athree-dimensional space-domain. We assume the density to be no constant, i.e. the inhomogeneouscase, moreover we allow it to present discontinuities along an interface so that we can describe amixture of liquid crystal materials with different densities. We prove the existence of global-in-timeweak solutions under smallness conditions on the initial data in critical homogeneous Besov spaces.These solutions are invariant under the scaling behaviour of the system. We also show that theuniqueness holds under a tiny extra-regularity for the initial data.The Beris-Edwards system is analyzed in a two-dimensional space-domain. We achieve existenceand uniqueness of global-in-time weak solutions when the initial data belongs to specific Sobolevspaces (without any smallness condition). The regularity of these functional spaces is suitable inorder to well define a weak solution. We achieve the uniqueness result through a specific analysis,controlling the norm of the difference between to weak solutions and performing a delicate doublelogarithmicestimate. Then, the uniqueness holds thanks to the Osgood lemma. We also achieve aresult about regularity propagation.The Qian-Sheng model is analyzed in a space-domain with dimension greater or equal than two.In this case, we emphasize some important characteristics of the system, especially the presence ofan inertial term, which generates significant difficulties. We perform the existence of a Lyapunovfunctional and the existence and uniqueness of classical solutions under a smallness condition forthe initial data.Finally we deal with the well-posedness of the Boussinesq system. We prove the existence ofglobal-in-time weak solutions when the space-domain has a dimension greater or equal than two.We deal with the case of a viscosity dependent on the temperature. The initial temperature is justsupposed to be bounded, while the initial velocity belongs to some critical Besov Space. The initialdata have a large vertical component while the horizontal components fulfil a specific smallnessconditions: they are exponentially smaller than the vertical component.
192

Reconstruction statistique 3D à partir d’un faible nombre de projections : application : coronarographie RX rotationnelle / 3D statistical reconstruction from a small number of projections. application : XR rotational coronarography

Oukili, Ahmed 16 December 2015 (has links)
La problématique de cette thèse concerne la reconstruction statistique itérative 3D de l'arbre coronaire, à partir d'un nombre très réduit d'angiogrammes coronariens (5 images). Pendant un examen rotationnel d'angiographie RX, seules les projections correspondant à la même phase cardiaque sont sélectionnées afin de vérifier la condition de non variabilité spatio-temporelle de l'objet à reconstruire (reconstruction statique). Le nombre restreint de projections complique cette reconstruction, considérée alors comme un problème inverse mal posé. La résolution d'un tel problème nécessite une procédure de régularisation. Pour ce faire, nous avons opté pour le formalisme bayésien en considérant la reconstruction comme le champ aléatoire maximisant la probabilité a posteriori (MAP), composée d'un terme quadratique de vraisemblance (attache aux données) et un a priori de Gibbs (à priori markovien basé sur une interprétation partielle de l'objet à reconstruire). La maximisation MAP adoptant un algorithme d'optimisation numérique nous a permis d'introduire une contrainte de lissage avec préservation de contours des reconstructions en choisissant adéquatement les fonctions de potentiel associées à l'énergie à priori. Dans ce manuscrit, nous avons discuté en détail des trois principales composantes d'une reconstruction statistique MAP performante, à savoir (1) l'élaboration d'un modèle physique précis du processus d'acquisition, (2) l'adoption d'un modèle à priori approprié et (3) la définition d'un algorithme d'optimisation itératif efficace. Cette discussion nous a conduit à proposer deux algorithmes itératifs MAP, MAP-MNR et MAP-ARTUR-GC, que nous avons testés et évalués sur des données simulées réalistes (données patient issues d'une acquisition CT- 64 multi-barrettes). / The problematic of this thesis concerns the statistical iterative 3D reconstruction of coronary tree from a very few number of coronary angiograms (5 images). During RX rotational angiographic exam, only projections corresponding to the same cardiac phase are selected in order to check the condition of space and time non-variability of the object to reconstruct (static reconstruction). The limited number of projections complicates the reconstruction, considered then as an illness inverse problem. The answer to a similar problem needs a regularization process. To do so, we choose baysian formalism considering the reconstruction as a random field maximizing the posterior probability (MAP), composed by quadratic likelihood terms (attached to data) and Gibbs prior (prior markovian based on a partial interpretation of the object to reconstruct). The MAP maximizing allowed us using a numerical optimization algorithm, to introduce a smoothing constraint and preserve the edges on the reconstruction while choosing wisely the potential functions associated to prior energy. In this paper, we have discussed in details the three components of efficient statistical reconstruction MAP, which are : 1- the construction of precise physical model of acquisition process; 2- the selection of an appropriate prior model; and 3- the definition of an efficient iterative optimization algorithm. This discussion lead us to propose two iterative algorithms MAP, MAP-MNR and MAP-ARTUR-GC, which we have tested and evaluated on realistic simulated data (Patient data from 64-slice CT).
193

L’évaluation de la loi du 1er février 2012 concernant l’acquisition du plein exercice pour les médecins à diplôme hors Union européenne / The exercise authorization procedure : the evaluation of the law of 1 February 2012 on the acquisition of the full exercise for doctors with a diploma outside the European Union

Chen, Xin 02 October 2017 (has links)
La Procédure d'Autorisation d'Exercice est un dispositif qui concerne l'ensemble des praticiens à diplôme hors Union Européenne. Elle a été instaurée en 2007 par la loi CMU du 27 juillet 1999, complétée par la Loi de Financement de la Sécurité Sociale du 21 décembre 2008, modifiée par la loi 2012-157 du 1er février 2012. La dernière loi concernée, la loi n°2016-1888 du 28 décembre 2016 de modernisation, de développement et de protection des territoires de montagne, met fin à la régularisation de ces praticiens. Depuis l'exécution de la loi 2012-157 du 1er février 2012 jusqu'à la fin de l'année 2016, la Procédure d'Autorisation d'Exercice compte 26562 inscriptions et 14647 présentations dont 4866 reçus aux Epreuves de Vérification des Connaissances à la Procédure d'Autorisation d'Exercice. Nous avons étudié les résultats des Epreuves de Vérification des Connaissances avec des analyses approfondies. Entre 2012 et 2016, la liste A a reçu le plus grand nombre de candidats aux Epreuves de Vérification des Connaissances, soit 21123 inscriptions, 10007 présentations. Le taux de réussite de la liste A varie entre 15% et 19%, sachant que la liste A est une liste qui recueille tous les nouveaux arrivants, les Epreuves de Vérification des Connaissances pour cette liste est un concours. La liste B a reçu 562 inscriptions, dont 413 présentations entre 2012 et 2016 avec un taux de réussite de 24% à 41%. Les épreuves pour cette liste sont sous forme d'examen. La liste C a reçu 4877 inscriptions, dont 4227 présentations entre 2012 et 2016 et le taux de réussite est de 56% à 80%. La liste C est aussi un examen qui recueille tous les praticiens à diplôme hors Union Européenne qui sont déjà installés en France. Nous avons observé que la disparition de la liste C est en partie due au dispositif de la Procédure d'Autorisation d'Exercice qui permet la régularisation des praticiens à diplôme hors Union Européenne. La loi 2012-157 du 1er février 2012 qui modifie les conditions et le périmètre de participation des candidats aux Epreuves de Vérification des Connaissances est une des causes de transfert des candidats de la Liste A à la Liste C. Enfin, les praticiens inscrits au tableau de l'Ordre des médecins, et provenant de la Procédure d'Autorisation d'Exercice, occupent une proportion qui est d'environ 10% dans certains départements en France. Ce chiffre montre le nombre de ces praticiens est quasiment aussi important qu'avant et que leur présence est demandée dans la France entière. Dans certains départements, nous avons pu constater que la présence de praticiens à diplôme hors Union Européenne augmente la densité médicale territoriale en France, démontrant l'importance de leur présence au niveau local, ainsi que dans les zones rurales et de montagnes. Le seul contrôle de l'entrée des praticiens à diplôme hors Union Européenne n'est pas suffisant ; la formation continue de ces praticiens devrait être envisagée afin d'améliorer leur niveau médical d'exercice, et la réorientation territoriale d'installation pourrait être une solution qui augmenterait l'offre de soins au niveau local. / The "Authorization Exercise Procedure" is a device that concerns all doctors with diplomas outside the European Union. It was introduced in 2007 by law "CMU of 27 July 1999", supplemented by "Law of Social Security Financing" of 21 December 2008, amended by the Law "2012-157 of 1 February 2012", The last law concerned, was No. 2016-1888 of 28 December 2016 on the modernization, development and protection of mountain territories, put an end to the regularization of these doctors. Since the implementation of Law 2012-157 from 1 February 2012 to the end of 2016, the Fiscal Authorization Procedure has 26,562 registrations and 14,647 presentations, of which 4866 were received in the Knowledge Verification Exercise Authorization Procedure. We examined the results of the Knowledge Verification tests with in-depth analyzes. Between 2012 and 2016, List A received the highest number of candidates for the Knowledge Test, 21123 registrations, 10007 presentations. The success rate of List A varies between 15% and 19%, knowing that List A is a list that collects all newcomers, the Knowledge Testing tests for this list is a competition. List B received 562 entries, including 413 entries between 2012 and 2016 with a pass rate of 24% to 41%. The tests for this list are in the form of an examination. List C received 4877 entries, of which 4,227 entries between 2012 and 2016 and the success rate is 56% to 80%. List C is also an examination that gathers all the doctors with diplomas outside the European Union who are already established in France. We have observed that the disappearance of the list C is partly due to the device of the Exercise Authorization Procedure which allows the regularization of the doctors with diploma outside the European Union. Law 2012-157 of February 1, 2012, which modifies the conditions and the perimeter of participation of the candidates in the tests of verification of the Knowledge is one of the causes of transfer of the candidates from List A to List C. Finally, the doctors registered on the board of the French Medical Association, and coming from The Exercise Authorization Procedure, occupy a proportion which is about 10% in certain departments in France. This figure shows the number of these doctors is almost as important as before and that their presence is demanded in the whole of France. In some départements, we have seen that the presence of doctors with diplomas outside the European Union increases the territorial medical density in France, demonstrating the importance of their presence at the local level, as well as in rural and mountain areas. The only control of the entry of doctors with diplomas outside the European Union is not sufficient; The continuing training of these doctors should be considered in order to improve their medical level of practice and the territorial reorientation of the facility could be a solution that would increase the supply of care at the local level.
194

Designing Regularizers and Architectures for Recurrent Neural Networks

Krueger, David 01 1900 (has links)
No description available.
195

Towards deep semi supervised learning

Pezeshki, Mohammad 05 1900 (has links)
No description available.
196

Optimal portfolio selection with transaction costs

Koné, N'Golo 05 1900 (has links)
Le choix de portefeuille optimal d'actifs a été depuis longtemps et continue d'être un sujet d'intérêt majeur dans le domaine de la finance. L'objectif principal étant de trouver la meilleure façon d'allouer les ressources financières dans un ensemble d'actifs disponibles sur le marché financier afin de réduire les risques de fluctuation du portefeuille et d'atteindre des rendements élevés. Néanmoins, la littérature de choix de portefeuille a connu une avancée considérable à partir du 20ieme siècle avec l'apparition de nombreuses stratégies motivées essentiellement par le travail pionnier de Markowitz (1952) qui offre une base solide à l'analyse de portefeuille sur le marché financier. Cette thèse, divisée en trois chapitres, contribue à cette vaste littérature en proposant divers outils économétriques pour améliorer le processus de sélection de portefeuilles sur le marché financier afin d'aider les intervenants de ce marché. Le premier chapitre, qui est un papier joint avec Marine Carrasco, aborde un problème de sélection de portefeuille avec coûts de transaction sur le marché financier. Plus précisément, nous développons une procédure de test simple basée sur une estimation de type GMM pour évaluer l'effet des coûts de transaction dans l'économie, quelle que soit la forme présumée des coûts de transaction dans le modèle. En fait, la plupart des études dans la littérature sur l'effet des coûts de transaction dépendent largement de la forme supposée pour ces frictions dans le modèle comme cela a été montré à travers de nombreuses études (Dumas and Luciano (1991), Lynch and Balduzzi (1999), Lynch and Balduzzi (2000), Liu and Loewenstein (2002), Liu (2004), Lesmond et al. (2004), Buss et al. (2011), Gârleanu and Pedersen (2013), Heaton and Lucas (1996)). Ainsi, pour résoudre ce problème, nous développons une procédure statistique, dont le résultat est indépendant de la forme des coûts de transaction, pour tester la significativité de ces coûts dans le processus d'investissement sur le marché financier. Cette procédure de test repose sur l'hypothèse que le modèle estimé par la méthode des moments généralisés (GMM) est correctement spécifié. Un test commun utilisé pour évaluer cette hypothèse est le J-test proposé par Hansen (1982). Cependant, lorsque le paramètre d'intérêt se trouve au bord de l'espace paramétrique, le J-test standard souffre d'un rejet excessif. De ce fait, nous proposons une procédure en deux étapes pour tester la sur-identification lorsque le paramètre d'intérêt est au bord de l'espace paramétrique. Empiriquement, nous appliquons nos procédures de test à la classe des anomalies utilisées par Novy-Marx and Velikov (2016). Nous montrons que les coûts de transaction ont un effet significatif sur le comportement des investisseurs pour la plupart de ces anomalies. Par conséquent, les investisseurs améliorent considérablement les performances hors échantillon en tenant compte des coûts de transaction dans le processus d'investissement. Le deuxième chapitre aborde un problème dynamique de sélection de portefeuille de grande taille. Avec une fonction d'utilité exponentielle, la solution optimale se révèle être une fonction de l'inverse de la matrice de covariance des rendements des actifs. Cependant, lorsque le nombre d'actifs augmente, cet inverse devient peu fiable, générant ainsi une solution qui s'éloigne du portefeuille optimal avec de mauvaises performances. Nous proposons deux solutions à ce problème. Premièrement, nous pénalisons la norme des poids du portefeuille optimal dans le problème dynamique et montrons que la stratégie sélectionnée est asymptotiquement efficace. Cependant, cette méthode contrôle seulement en partie l'erreur d'estimation dans la solution optimale car elle ignore l'erreur d'estimation du rendement moyen des actifs, qui peut également être importante lorsque le nombre d'actifs sur le marché financier augmente considérablement. Nous proposons une méthode alternative qui consiste à pénaliser la norme de la différence de pondérations successives du portefeuille dans le problème dynamique pour garantir que la composition optimale du portefeuille ne fluctue pas énormément entre les périodes. Nous montrons que, sous des conditions de régularité appropriées, nous maîtrisons mieux l'erreur d'estimation dans le portefeuille optimal avec cette nouvelle procédure. Cette deuxième méthode aide les investisseurs à éviter des coûts de transaction élevés sur le marché financier en sélectionnant des stratégies stables dans le temps. Des simulations ainsi qu'une analyse empirique confirment que nos procédures améliorent considérablement la performance du portefeuille dynamique. Dans le troisième chapitre, nous utilisons différentes techniques de régularisation (ou stabilisation) empruntées à la littérature sur les problèmes inverses pour estimer le portefeuille diversifié tel que définie par Choueifaty (2011). En effet, le portefeuille diversifié dépend du vecteur de volatilité des actifs et de l'inverse de la matrice de covariance du rendement des actifs. En pratique, ces deux quantités doivent être remplacées par leurs contrepartie empirique. Cela génère une erreur d'estimation amplifiée par le fait que la matrice de covariance empirique est proche d'une matrice singulière pour un portefeuille de grande taille, dégradant ainsi les performances du portefeuille sélectionné. Pour résoudre ce problème, nous étudions trois techniques de régularisation, qui sont les plus utilisées : le rigde qui consiste à ajouter une matrice diagonale à la matrice de covariance, la coupure spectrale qui consiste à exclure les vecteurs propres associés aux plus petites valeurs propres, et Landweber Fridman qui est une méthode itérative, pour stabiliser l'inverse de matrice de covariance dans le processus d'estimation du portefeuille diversifié. Ces méthodes de régularisation impliquent un paramètre de régularisation qui doit être choisi. Nous proposons donc une méthode basée sur les données pour sélectionner le paramètre de stabilisation de manière optimale. Les solutions obtenues sont comparées à plusieurs stratégies telles que le portefeuille le plus diversifié, le portefeuille cible, le portefeuille de variance minimale et la stratégie naïve 1 / N à l'aide du ratio de Sharpe dans l'échantillon et hors échantillon. / The optimal portfolio selection problem has been and continues to be a subject of interest in finance. The main objective is to find the best way to allocate the financial resources in a set of assets available on the financial market in order to reduce the portfolio fluctuation risks and achieve high returns. Nonetheless, there has been a strong advance in the literature of the optimal allocation of financial resources since the 20th century with the proposal of several strategies for portfolio selection essentially motivated by the pioneering work of Markowitz (1952)which provides a solid basis for portfolio analysis on the financial market. This thesis, divided into three chapters, contributes to this vast literature by proposing various economic tools to improve the process of selecting portfolios on the financial market in order to help stakeholders in this market. The first chapter, a joint paper with Marine Carrasco, addresses a portfolio selection problem with trading costs on stock market. More precisely, we develop a simple GMM-based test procedure to test the significance of trading costs effect in the economy regardless of the form of the transaction cost. In fact, most of the studies in the literature about trading costs effect depend largely on the form of the frictions assumed in the model (Dumas and Luciano (1991), Lynch and Balduzzi (1999), Lynch and Balduzzi (2000), Liu and Loewenstein (2002), Liu (2004), Lesmond et al. (2004), Buss et al. (2011), Gârleanu and Pedersen (2013), Heaton and Lucas (1996)). To overcome this problem, we develop a simple test procedure which allows us to test the significance of trading costs effect on a given asset in the economy without any assumption about the form of these frictions. Our test procedure relies on the assumption that the model estimated by GMM is correctly specified. A common test used to evaluate this assumption is the standard J-test proposed by Hansen (1982). However, when the true parameter is close to the boundary of the parameter space, the standard J-test based on the chi2 critical value suffers from overrejection. To overcome this problem, we propose a two-step procedure to test overidentifying restrictions when the parameter of interest approaches the boundary of the parameter space. In an empirical analysis, we apply our test procedures to the class of anomalies used in Novy-Marx and Velikov (2016). We show that transaction costs have a significant effect on investors' behavior for most anomalies. In that case, investors significantly improve out-of-sample performance by accounting for trading costs. The second chapter addresses a multi-period portfolio selection problem when the number of assets in the financial market is large. Using an exponential utility function, the optimal solution is shown to be a function of the inverse of the covariance matrix of asset returns. Nonetheless, when the number of assets grows, this inverse becomes unreliable, yielding a selected portfolio that is far from the optimal one. We propose two solutions to this problem. First, we penalize the norm of the portfolio weights in the dynamic problem and show that the selected strategy is asymptotically efficient. However, this method partially controls the estimation error in the optimal solution because it ignores the estimation error in the expected return, which may also be important when the number of assets in the financial market increases considerably. We propose an alternative method that consists of penalizing the norm of the difference of successive portfolio weights in the dynamic problem to guarantee that the optimal portfolio composition does not fluctuate widely between periods. We show, under appropriate regularity conditions, that we better control the estimation error in the optimal portfolio with this new procedure. This second method helps investors to avoid high trading costs in the financial market by selecting stable strategies over time. Extensive simulations and empirical results confirm that our procedures considerably improve the performance of the dynamic portfolio. In the third chapter, we use various regularization (or stabilization) techniques borrowed from the literature on inverse problems to estimate the maximum diversification as defined by Choueifaty (2011). In fact, the maximum diversification portfolio depends on the vector of asset volatilities and the inverse of the covariance matrix of assets distribution. In practice, these two quantities need to be replaced by their sample counterparts. This results in estimation error which is amplified by the fact that the sample covariance matrix may be close to a singular matrix in a large financial market, yielding a selected portfolio far from the optimal one with very poor performance. To address this problem, we investigate three regularization techniques, such as the ridge, the spectral cut-off, and the Landweber-Fridman, to stabilize the inverse of the covariance matrix in the investment process. These regularization schemes involve a tuning parameter that needs to be chosen. So, we propose a data-driven method for selecting the tuning parameter in an optimal way. The resulting regularized rules are compared to several strategies such as the most diversified portfolio, the target portfolio, the global minimum variance portfolio, and the naive 1/N strategy in terms of in-sample and out-of-sample Sharpe ratio.
197

Essays in functional econometrics and financial markets

Tsafack-Teufack, Idriss 07 1900 (has links)
Dans cette thèse, j’exploite le cadre d’analyse de données fonctionnelles et développe l’analyse d’inférence et de prédiction, avec une application à des sujets sur les marchés financiers. Cette thèse est organisée en trois chapitres. Le premier chapitre est un article co-écrit avec Marine Carrasco. Dans ce chapitre, nous considérons un modèle de régression linéaire fonctionnelle avec une variable prédictive fonctionnelle et une réponse scalaire. Nous effectuons une comparaison théorique des techniques d’analyse des composantes principales fonctionnelles (FPCA) et des moindres carrés partiels fonctionnels (FPLS). Nous déterminons la vitesse de convergence de l’erreur quadratique moyen d’estimation (MSE) pour ces méthodes. Aussi, nous montrons cette vitesse est sharp. Nous découvrons également que le biais de régularisation de la méthode FPLS est plus petit que celui de FPCA, tandis que son erreur d’estimation a tendance à être plus grande que celle de FPCA. De plus, nous montrons que le FPLS surpasse le FPCA en termes de prédiction avec moins de composantes. Le deuxième chapitre considère un modèle autorégressif entièrement fonctionnel (FAR) pour prèvoir toute la courbe de rendement du S&P 500 a la prochaine journée. Je mène une analyse comparative de quatre techniques de Big Data, dont la méthode de Tikhonov fonctionnelle (FT), la technique de Landweber-Fridman fonctionnelle (FLF), la coupure spectrale fonctionnelle (FSC) et les moindres carrés partiels fonctionnels (FPLS). La vitesse de convergence, la distribution asymptotique et une stratégie de test statistique pour sélectionner le nombre de retard sont fournis. Les simulations et les données réelles montrent que les méthode FPLS performe mieux les autres en terme d’estimation du paramètre tandis que toutes ces méthodes affichent des performances similaires en termes de prédiction. Le troisième chapitre propose d’estimer la densité de neutralité au risque (RND) dans le contexte de la tarification des options, à l’aide d’un modèle fonctionnel. L’avantage de cette approche est qu’elle exploite la théorie d’absence d’arbitrage et qu’il est possible d’éviter toute sorte de paramétrisation. L’estimation conduit à un problème d’inversibilité et la technique fonctionnelle de Landweber-Fridman (FLF) est utilisée pour le surmonter. / In this thesis, I exploit the functional data analysis framework and develop inference, prediction and forecasting analysis, with an application to topics in the financial market. This thesis is organized in three chapters. The first chapter is a paper co-authored with Marine Carrasco. In this chapter, we consider a functional linear regression model with a functional predictor variable and a scalar response. We develop a theoretical comparison of the Functional Principal Component Analysis (FPCA) and Functional Partial Least Squares (FPLS) techniques. We derive the convergence rate of the Mean Squared Error (MSE) for these methods. We show that this rate of convergence is sharp. We also find that the regularization bias of the FPLS method is smaller than the one of FPCA, while its estimation error tends to be larger than that of FPCA. Additionally, we show that FPLS outperforms FPCA in terms of prediction accuracy with a fewer number of components. The second chapter considers a fully functional autoregressive model (FAR) to forecast the next day’s return curve of the S&P 500. In contrast to the standard AR(1) model where each observation is a scalar, in this research each daily return curve is a collection of 390 points and is considered as one observation. I conduct a comparative analysis of four big data techniques including Functional Tikhonov method (FT), Functional Landweber-Fridman technique (FLF), Functional spectral-cut off (FSC), and Functional Partial Least Squares (FPLS). The convergence rate, asymptotic distribution, and a test-based strategy to select the lag number are provided. Simulations and real data show that FPLS method tends to outperform the other in terms of estimation accuracy while all the considered methods display almost the same predictive performance. The third chapter proposes to estimate the risk neutral density (RND) for options pricing with a functional linear model. The benefit of this approach is that it exploits directly the fundamental arbitrage-free equation and it is possible to avoid any additional density parametrization. The estimation problem leads to an inverse problem and the functional Landweber-Fridman (FLF) technique is used to overcome this issue.
198

Neural networks regularization through representation learning / Régularisation des réseaux de neurones via l'apprentissage des représentations

Belharbi, Soufiane 06 July 2018 (has links)
Les modèles de réseaux de neurones et en particulier les modèles profonds sont aujourd'hui l'un des modèles à l'état de l'art en apprentissage automatique et ses applications. Les réseaux de neurones profonds récents possèdent de nombreuses couches cachées ce qui augmente significativement le nombre total de paramètres. L'apprentissage de ce genre de modèles nécessite donc un grand nombre d'exemples étiquetés, qui ne sont pas toujours disponibles en pratique. Le sur-apprentissage est un des problèmes fondamentaux des réseaux de neurones, qui se produit lorsque le modèle apprend par coeur les données d'apprentissage, menant à des difficultés à généraliser sur de nouvelles données. Le problème du sur-apprentissage des réseaux de neurones est le thème principal abordé dans cette thèse. Dans la littérature, plusieurs solutions ont été proposées pour remédier à ce problème, tels que l'augmentation de données, l'arrêt prématuré de l'apprentissage ("early stopping"), ou encore des techniques plus spécifiques aux réseaux de neurones comme le "dropout" ou la "batch normalization". Dans cette thèse, nous abordons le sur-apprentissage des réseaux de neurones profonds sous l'angle de l'apprentissage de représentations, en considérant l'apprentissage avec peu de données. Pour aboutir à cet objectif, nous avons proposé trois différentes contributions. La première contribution, présentée dans le chapitre 2, concerne les problèmes à sorties structurées dans lesquels les variables de sortie sont à grande dimension et sont généralement liées par des relations structurelles. Notre proposition vise à exploiter ces relations structurelles en les apprenant de manière non-supervisée avec des autoencodeurs. Nous avons validé notre approche sur un problème de régression multiple appliquée à la détection de points d'intérêt dans des images de visages. Notre approche a montré une accélération de l'apprentissage des réseaux et une amélioration de leur généralisation. La deuxième contribution, présentée dans le chapitre 3, exploite la connaissance a priori sur les représentations à l'intérieur des couches cachées dans le cadre d'une tâche de classification. Cet à priori est basé sur la simple idée que les exemples d'une même classe doivent avoir la même représentation interne. Nous avons formalisé cet à priori sous la forme d'une pénalité que nous avons rajoutée à la fonction de perte. Des expérimentations empiriques sur la base MNIST et ses variantes ont montré des améliorations dans la généralisation des réseaux de neurones, particulièrement dans le cas où peu de données d'apprentissage sont utilisées. Notre troisième et dernière contribution, présentée dans le chapitre 4, montre l'intérêt du transfert d'apprentissage ("transfer learning") dans des applications dans lesquelles peu de données d'apprentissage sont disponibles. L'idée principale consiste à pré-apprendre les filtres d'un réseau à convolution sur une tâche source avec une grande base de données (ImageNet par exemple), pour les insérer par la suite dans un nouveau réseau sur la tâche cible. Dans le cadre d'une collaboration avec le centre de lutte contre le cancer "Henri Becquerel de Rouen", nous avons construit un système automatique basé sur ce type de transfert d'apprentissage pour une application médicale où l'on dispose d’un faible jeu de données étiquetées. Dans cette application, la tâche consiste à localiser la troisième vertèbre lombaire dans un examen de type scanner. L’utilisation du transfert d’apprentissage ainsi que de prétraitements et de post traitements adaptés a permis d’obtenir des bons résultats, autorisant la mise en oeuvre du modèle en routine clinique. / Neural network models and deep models are one of the leading and state of the art models in machine learning. They have been applied in many different domains. Most successful deep neural models are the ones with many layers which highly increases their number of parameters. Training such models requires a large number of training samples which is not always available. One of the fundamental issues in neural networks is overfitting which is the issue tackled in this thesis. Such problem often occurs when the training of large models is performed using few training samples. Many approaches have been proposed to prevent the network from overfitting and improve its generalization performance such as data augmentation, early stopping, parameters sharing, unsupervised learning, dropout, batch normalization, etc. In this thesis, we tackle the neural network overfitting issue from a representation learning perspective by considering the situation where few training samples are available which is the case of many real world applications. We propose three contributions. The first one presented in chapter 2 is dedicated to dealing with structured output problems to perform multivariate regression when the output variable y contains structural dependencies between its components. Our proposal aims mainly at exploiting these dependencies by learning them in an unsupervised way. Validated on a facial landmark detection problem, learning the structure of the output data has shown to improve the network generalization and speedup its training. The second contribution described in chapter 3 deals with the classification task where we propose to exploit prior knowledge about the internal representation of the hidden layers in neural networks. This prior is based on the idea that samples within the same class should have the same internal representation. We formulate this prior as a penalty that we add to the training cost to be minimized. Empirical experiments over MNIST and its variants showed an improvement of the network generalization when using only few training samples. Our last contribution presented in chapter 4 showed the interest of transfer learning in applications where only few samples are available. The idea consists in re-using the filters of pre-trained convolutional networks that have been trained on large datasets such as ImageNet. Such pre-trained filters are plugged into a new convolutional network with new dense layers. Then, the whole network is trained over a new task. In this contribution, we provide an automatic system based on such learning scheme with an application to medical domain. In this application, the task consists in localizing the third lumbar vertebra in a 3D CT scan. A pre-processing of the 3D CT scan to obtain a 2D representation and a post-processing to refine the decision are included in the proposed system. This work has been done in collaboration with the clinic "Rouen Henri Becquerel Center" who provided us with data
199

Modélisation de la rupture ductile par approche locale : simulation robuste de la déchirure / Modeling of ductile fracture using local approach : reliable simulation of crack extension

Chen, Youbin 20 November 2019 (has links)
Cette étude a pour objectif principal d’établir une stratégie de modélisation robuste, fiable et performante pour décrire des propagations de fissures d’échelle centimétrique en régime ductile dans des composants industriels. Le modèle d’endommagement de GTN écrit en grandes déformations est utilisé pour modéliser l’endommagement ductile. Ce modèle conduit généralement à une localisation de la déformation, conformément à l’expérience. L’échelle caractéristique de ce phénomène est introduite dans les équations de comportement via l’adoption d’une formulation non locale.Sur le plan numérique, ce modèle non local rend bien compte de la localisation dans une bande d’épaisseur donnée lorsqu’on raffine suffisamment le maillage. Par ailleurs, le problème de verrouillage numérique associé au caractère initialement isochore de la déformation plastique est limité en utilisant une formulation à base d’éléments finis mixtes. Enfin, la distorsion des éléments totalement cassés (i.e. sans rigidité apparente), qui pourrait nuire à la bonne convergence des simulations numériques, est traitée par une régularisation viscoélastique.L’ensemble de ces ingrédients sont appliqués pour simuler la propagation de fissure dans un milieu infini plasticité confinée), de sorte à établir un lien avec les approches globales en J-Δa. L’émoussement, l’amorçage et la (grande) propagation de fissure sont bien prédits. Le modèle est également appliqué à une tuyauterie métallique testée en grandeur réelle dans le cadre du projet européen Atlas+. Après une phase d’identification des paramètres sur éprouvette, les réponses globales et locales d’autres éprouvettes et du tube sont confrontés aux résultats expérimentaux. Ces résultats illustrent le degré de robustesse, de fiabilité et de performance qu’on peut attendre du modèle. / The major goal of this work is to establish a robust, reliable and efficient modeling technique so as to describe ductile tearing over a distance of several centimeters in industrial cases. The GTN damage model expressed in the context of finite strains is chosen to model ductile damage. Generally, the model leads to strain localization in agreement with experimental observations. The characteristic length scale of this phenomenon is introduced into the constitutive equations through the use of a nonlocal formulation.On a numerical ground, the nonlocal model controls the width of the localization band as soon as the mesh is sufficiently refined. Besides, the issue of volumetric-locking associated with plastic incompressibility is handled using a mixed finite element formulation. Finally, the distortion of broken elements (i.e. without any stiffness), which may affect the computational convergence of numerical simulations, is treated using a viscoelastic regularization.The improved GTN model is applied to simulate crack propagation under small-scale yielding conditions, so as to establish a relation with the global (J-Δa) approach. Crack tip blunting, crack initiation and (large) crack propagation are well captured. The model is also applied to a full-scale metallic pipe in the framework of the UE project Atlas+. After a phase of parameter calibration based on the experimental results on some small specimens, the global and local responses of other small specimens and of the full-scale pre-cracked pipe are compared with the experimental results. The results illustrates the robustness, the reliability and the efficiency of the current model.
200

Essays in dynamic panel data models and labor supply

Nayihouba, Kolobadia Ada 08 1900 (has links)
Cette thèse est organisée en trois chapitres. Les deux premiers proposent une approche régularisée pour l’estimation du modèle de données de panel dynamique : l’estimateur GMM et l’estimateur LIML. Le dernier chapitre de la thèse est une application de la méthode de régularisation à l’estimation des élasticités de l’offre de travail en utilisant des modèles de pseudo-données de panel. Dans un modèle de panel dynamique, le nombre de conditions de moments augmente rapidement avec la dimension temporelle du panel conduisant à une matrice de covariance des instruments de grande dimension. L’inversion d’une telle matrice pour calculer l’estimateur affecte négativement les propriétés de l’estimateur en échantillon fini. Comme solution à ce problème, nous proposons une approche par la régularisation qui consiste à utiliser une inverse généralisée de la matrice de covariance au lieu de son inverse classique. Trois techniques de régularisation sont utilisées : celle des composantes principales, celle de Tikhonov qui est basée sur le Ridge régression (aussi appelée Bayesian shrinkage) et enfin celle de Landweber Fridman qui est une méthode itérative. Toutes ces techniques introduisent un paramètre de régularisation qui est similaire au paramètre de lissage dans les régressions non paramétriques. Les propriétés en echantillon fini de l’estimateur régularisé dépend de ce paramètre qui doit être sélectionné parmis plusieurs valeurs potentielles. Dans le premier chapitre (co-écrit avec Marine Carrasco), nous proposons l’estimateur GMM régularisé du modèle de panel dynamique. Sous l’hypothèse que le nombre d’individus et de périodes du panel tendent vers l’infini, nous montrons que nos estimateurs sont convergents and assymtotiquement normaux. Nous dérivons une méthode empirique de sélection du paramètrede régularisation basée sur une expansion de second ordre du l’erreur quadratique moyenne et nous démontrons l’optimalité de cette procédure de sélection. Les simulations montrent que la régularisation améliore les propriétés de l ’estimateur GMM classique. Comme application empirique, nous avons analysé l’effet du développement financier sur la croissance économique. Dans le deuxième chapitre (co-écrit avec Marine Carrasco), nous nous intéressons à l’estimateur LIML régularisé du modèle de données de panel dynamique. L’estimateur LIML est connu pour avoir de meilleures propriétés en échantillon fini que l’estimateur GMM mais son utilisation devient problématique lorsque la dimension temporelle du panel devient large. Nous dérivons les propriétes assymtotiques de l’estimateur LIML régularisé sous l’hypothèse que le nombre d’individus et de périodes du panel tendent vers l’infini. Une procédure empirique de sélection du paramètre de régularisation est aussi proposée. Les bonnes performances de l’estimateur régularisé par rapport au LIML classique (non régularisé), au GMM classique ainsi que le GMM régularisé sont confirmées par des simulations. Dans le dernier chapitre, je considère l’estimation des élasticités d’offre de travail des hommes canadiens. L’hétérogéneité inobservée ainsi que les erreurs de mesures sur les salaires et les revenus sont connues pour engendrer de l’endogéneité quand on estime les modèles d’offre de travail. Une solution fréquente à ce problème d’endogéneité consiste à régrouper les données sur la base des carastéristiques observables et d’ éffectuer les moindres carrées pondérées sur les moyennes des goupes. Il a été démontré que cet estimateur est équivalent à l’estimateur des variables instrumentales sur les données individuelles avec les indicatrices de groupe comme instruments. Donc, en présence d’un grand nombre de groupe, cet estimateur souffre de biais en échantillon fini similaire à celui de l’estimateur des variables instrumentales quand le nombre d’instruments est élevé. Profitant de cette correspondance entre l’estimateur sur les données groupées et l’estimateur des variables instrumentales sur les données individuelles, nous proposons une approche régularisée à l’estimation du modèle. Cette approche conduit à des élasticités substantiellement différentes de ceux qu’on obtient en utilisant l’estimateur sur données groupées. / This thesis is organized in three chapters. The first two chapters propose a regularization approach to the estimation of two estimators of the dynamic panel data model : the Generalized Method of Moment (GMM) estimator and the Limited Information Maximum Likelihood (LIML) estimator. The last chapter of the thesis is an application of regularization to the estimation of labor supply elasticities using pseudo panel data models. In a dynamic panel data model, the number of moment conditions increases rapidly with the time dimension, resulting in a large dimensional covariance matrix of the instruments. Inverting this large dimensional matrix to compute the estimator leads to poor finite sample properties. To address this issue, we propose a regularization approach to the estimation of such models where a generalized inverse of the covariance matrix of the intruments is used instead of its usual inverse. Three regularization schemes are used : Principal components, Tikhonov which is based on Ridge regression (also called Bayesian shrinkage) and finally Landweber Fridman which is an iterative method. All these methods involve a regularization parameter which is similar to the smoothing parameter in nonparametric regressions. The finite sample properties of the regularized estimator depends on this parameter which needs to be selected between many potential values. In the first chapter (co-authored with Marine Carrasco), we propose the regularized GMM estimator of the dynamic panel data models. Under double asymptotics, we show that our regularized estimators are consistent and asymptotically normal provided that the regularization parameter goes to zero slower than the sample size goes to infinity. We derive a data driven selection of the regularization parameter based on an approximation of the higher-order Mean Square Error and show its optimality. The simulations confirm that regularization improves the properties of the usual GMM estimator. As empirical application, we investigate the effect of financial development on economic growth. In the second chapter (co-authored with Marine Carrasco), we propose the regularized LIML estimator of the dynamic panel data model. The LIML estimator is known to have better small sample properties than the GMM estimator but its implementation becomes problematic when the time dimension of the panel becomes large. We derive the asymptotic properties of the regularized LIML under double asymptotics. A data-driven procedure to select the parameter of regularization is proposed. The good performances of the regularized LIML estimator over the usual (not regularized) LIML estimator, the usual GMM estimator and the regularized GMM estimator are confirmed by the simulations. In the last chapter, I consider the estimation of the labor supply elasticities of Canadian men through a regularization approach. Unobserved heterogeneity and measurement errors on wage and income variables are known to cause endogeneity issues in the estimation of labor supply models. A popular solution to the endogeneity issue is to group data in categories based on observable characteristics and compute the weighted least squares at the group level. This grouping estimator has been proved to be equivalent to instrumental variables (IV) estimator on the individual level data using group dummies as intruments. Hence, in presence of large number of groups, the grouping estimator exhibites a small bias similar to the one of the IV estimator in presence of many instruments. I take advantage of the correspondance between grouping estimators and the IV estimator to propose a regularization approach to the estimation of the model. Using this approach leads to wage elasticities that are substantially different from those obtained through grouping estimators.

Page generated in 0.1206 seconds